| Nyhed

Kunstig intelligens kan give dig flere år i fængsel

Ny bog: Den voksende brug af kunstig intelligens i retssystemer kræver grundige etiske overvejelser, siger professor Jesper Ryberg.
En dommer på sit kontor


Jesper Ryberg, professor i etik og retsfilosofi ved Roskilde Universitet, er aktuel med antologien ”Sentencing and Artificial Intelligence”, hvor førende eksperter på området ser nærmere på de problematikker, som opstår, når domstolene bruger kunstig intelligens (AI) til at udmåle straf.   

”Noget af det, der gør bogens emne højaktuelt er, at brugen af AI i strafudmåling allerede bliver anvendt flere steder i verden. Man er på vej med systemer i Østen, og i USA benytter domstolene AI i såkaldte risikovurderinger – det vil sige, om en lovovertræder er en højrisiko eller lavrisiko forbryder. Din risikoprofil kan dermed have indflydelse på straffens længde, selvom tilsvarende forbrydelser er blevet straffet mildere,” fortæller Jesper Ryberg.

Ifølge professoren er en af fordelene ved at bruge AI til strafudmåling, at man hurtigt bliver i stand til at foretage en vurdering på baggrund af en stor mængde data. Problemet er dog, understreger han, at der ikke altid er gennemsigtighed i processen. Og AI-løsninger er ikke bedre end de informationer, man fodrer dem med.

”Hvis man anvender machine learning, så lærer programmet løbende ud fra de informationer, der er til rådighed. Men det kan også betyde, at det vil gentage bias. I den forbindelse er det derfor vigtigt at diskutere, hvornår forskelsbehandling er et problem, og hvornår det er berettiget,” forklarer Jesper Ryberg.

Og han fortsætter:

”Det handler om etik og retssikkerhed. Hvis man bruger for komplicerede algoritmer, så kan det blive sværere af få retlige begrundelser for en afgørelse. Hvilke faktorer tager man med i vurderingen? Og hvordan skal vi reagere og udmåle straffen, hvis fx risikovurderingen viser, at en person med en vis sandsynlighed vil begå ny kriminalitet?” spørger han.

Computeren siger, du er højrisiko

Et eksempel fra USA viser, hvor problematisk det kan være at anvende AI ved domstolene. I 2013 i Wisconsin blev Eric Loomis dømt seks års fængsel for sin deltagelse i et drive-by shooting. Under sagen blev der lavet en risikovurdering, hvor man benyttede en algoritme (kaldet COMPAS), som viste, at Loomis havde høj risiko for at falde tilbage i ny kriminalitet.

Loomis ville dog vide, hvordan algoritmen var nået frem til den vurdering. Sagen endte i Wisconsins højesteret, som fastslog, at Loomis ikke kunne få en præcis redegørelse for, hvorfor han blev vurderet som højrisikoforbryder. Begrundelsen var, at COMPAS-algoritmen er udviklet af et privat firma, og at designet derfor udgør en forretningshemmelighed.

Sagen har været med til at sætte fokus på den manglende retssikkerhed på området, og hvilken grad af transparens, der bør være, med hensyn til hvordan en algoritme når frem til sine svar.

Ifølge Jesper Ryberg kan det meget vel være et spørgsmål om tid, før vi bliver stillet over for lignede problemstillinger i Danmark. Derfor mener han, at det er afgørende, at vi allerede nu tager debatten om, hvordan kunstig intelligens skal anvendes ved domstolene og i forbindelse med strafudmåling.
 

Strafudmåling og kunstig intelligens

  • Sentencing and Artificial Intelligence” udgives af Oxford University Press, og er den første publikation, som beskæftiger sig med AI og strafudmåling.
  • I antologien medvirker filosoffer, kriminologer og jurister fra universiteter i USA, England, Canada, Australien, Israel, Tyskland, Holland, Slovenien og Danmark.
  • Forfatternes perspektiver blev samlet på Jesper Rybergs initiativ i samarbejde med medredaktør, Julian Roberts, som er professor ved University of Oxford.

For mere information kontakt Jesper Ryberg.