Brug for mere kontrol med kunstig intelligens
Kunstig-intelligens-COLOURBOX17889761-1.jpg

Green binary stream on the screen in the style matrix.

Foto: Colourbox.
Institut for Menneskerettigheder bruger den såkaldte ”Gladsaxemodel” som eksempel i ny rapport, hvor man giver konkrete anvisninger til hvordan man bedre beskytter borgerne når det offentlige bruger kunstig intelligens

I Europakommissionens hvidbog om kunstig intelligens fra sidste år, pointerer man at kunstig intelligens er ”i hastig udvikling” og kan bringe forbedringer og effektivisering med sig.

– Men samtidig indebærer kunstig intelligens en række potentielle risici, f.eks. uigennemskuelige beslutningsprocesser, kønsbaseret eller andre former for diskrimination, krænkelse af privatlivets fred eller anvendelse til kriminelle formål, tilføjer man.

I 2015 droppede Amazon eksempelvis en algoritme til at sortere i jobansøgere, fordi den konsekvent valgte mænd frem for kvinder. Og Washington Post beskrev i 2019, hvordan en Amerikansk medicinsk algoritme favoriserede hvide patienter frem for mere syge sorte, når den skulle vurdere hvilke patienter der havde mest brug for ekstra lægebehandling.

Borgernes rettigheder skal beskyttes
I en ny rapport fra Institut for Menneskerettigheder, om borgernes retssikkerhed i offentlige myndigheders brug af algoritmer og profileringsmodeller, bruges Gladsaxe Kommunes forsøg på udvikling en dataunderstøttet opsporingsmodel – den såkaldte ”Gladsaxemodel” – som eksempel.

Gladsaxe Kommune ansøgte i 2017 om tilladelse til at samkøre personfølsomme registerdata til brug for modellen under frikommuneforsøgsordningen, som led i kommunens tidlige opsporing med at identificere små børn med særlig høj risiko for udsathed og mistrivsel, men besluttede at stoppe udviklingen af modellen, på grund af tests, som viste, at modellens fejlrate ville blive for høj, beskriver Institut for Menneskerettigheder.

I juni vedtog et flertal i Gladsaxe Byråd at godkende en dataetisk politik, der skal sikre at borgerne kan have tillid til at kommune håndterer deres data etisk forsvarligt.

”Data skal anvendes til at understøtte, udvikle og kvalificere det faglige arbejde i organisationen, så der kan leveres mere velfærd og bedre indsatser til gavn for dig som borger i kommunen. Medarbejderne skal kunne stå inde for de afgørelser, der træffes, og forholde sig kritisk, hvis de strider imod deres faglige viden. Det gælder også, når der indgår data”, står der i politikken.

Enhedslisten kaldte dokumentet overfladisk, og stemte – som det eneste parti – imod, Lokallisten Gladsaxe mente der var plads til justeringer, og Venstre – der var kommet med det oprindelige forslag om en dataetisk politik – mente at politikken var ufærdig og ikke levede op til sin overskrift.

Anbefaler vejledning og register
Den tidligere Venstre-ledede regering fremhævede i 2019 i sin strategi for kunstig intelligens, at der er behov for fælles retningslinjer og etiske rammer for kunstig intelligens, da kunstig intelligens ”stiller en række etiske spørgsmål, der vedrører forholdet mellem fordelene ved anvendelse af ny teknologi over for hensynet til borgernes grundlæggende rettigheder, retssikkerhed og vores samfundsmæssige værdier”.

Men borgernes rettigheder skal beskyttes bedre, når offentlige myndigheder benytter kunstig intelligens, mener Institut for Menneskerettigheder, der giver konkrete anvisninger til, hvordan det bør gøres i den nye rapport.

Blandt andet at Justitsministeriet – med inddragelse af Datatilsynet og Digitaliseringsstyrelsen – udsteder en vejledning om offentlige myndigheders brug af profileringsmodeller med fokus på de rettigheds- og retssikkerhedsmæssige udfordringer ved modellerne. Samt at Digitaliseringsstyrelsen, som led i det fællesoffentlige arbejde med kommuner og regioner, opretter et offentligt register over samtlige offentlige myndigheders brug af profileringsmodeller rettet mod borgere.

Rammerne og lovgivningen er nemlig ikke fulgt med, mens offentlige myndigheder har taget kunstig intelligens i brug, og der er brug for mere kontrol – især i situationer, hvor brugen af kunstig intelligens kan have stor betydning for borgernes rettigheder og retssikkerhed, lyder hovedkonklusionen i rapporten.

– Danske myndigheder er i fuld gang med at tage kunstig intelligens i brug for at effektivisere forvaltningen. Det kan der være mange gode grunde til, men det kan have alvorlige konsekvenser for borgernes rettigheder. Det er der slet ikke nok fokus på i det offentlige Danmark i dag, siger direktør for Institut for Menneskerettigheder, Louise Holck.

Bruges i stigende grad
For eksempel aftalte regeringen, KL og Danske Regioner at igangsætte 15 projekter til afprøvning af kunstig intelligens i kommuner og regioner, i forbindelse med aftalen om kommunerne og regionernes økonomi for 2020.

Blandt andet ved sagsbehandling ved spørgsmål om sanktionering af ledige borgere, hvor en algoritme skal ”bidrage med beslutningsstøtte til brug for den faglige medarbejders vurdering”, og ved at lade kunstig intelligens automatisk screene byggeansøgninger for relevante dokumenter, for at reducere sagsbehandlingstiden for borgernes byggesager.

Hver fjerde virksomhed med mindst ti ansatte anvender, ifølge Danmarks Statistik, kunstig intelligens i 2021 – en markant stigning i forhold til sidste år.

Skriv et svar

Din e-mailadresse vil ikke blive offentliggjort. Krævede felter er markeret med *

Top