- Gladsaxebladet - https://www.gladsaxebladet.dk -

Algoritmer spøger igen

Det danske forskningsprojekt ”Underretninger i fokus” er i gang med ”ved hjælp af maskinlæringsteknikker, at udvikle et redskab til beslutningsstøtte, der kan hjælpe med at identificere børn, der er i risiko for at mistrives”, og på denne måde ”bidrage til at styrke socialrådgivernes beslutningsgrundlag”.

Altså at undersøge, om algoritmer kan være med til at opspore børns mistrivsel. Kommunerne modtager nemlig samlet set over 100.000 underretninger hvert år.

– Det overordnede formål med projektet er således at undersøge, om Beslutningsstøtten kan understøtte socialrådgivernes vurdering af mistrivsel i konkrete sager, når der foreligger en underretning. Dernæst, og måske vigtigst, skal projektet bidrage med viden om, hvorvidt og eventuelt, hvordan denne teknologi i det hele taget kan hjælpe børnene og deres familier – også set fra familiernes perspektiv, tilføjes det i projektbeskrivelsen.

”Underretninger i fokus” er et samarbejde mellem Aarhus Universitet, VIA University College og Trygfonden, og er finansieret af sidstnævnte. Projektet forventes afsluttet i 2023.

Forduftende etik
Brugen af algoritmer rejser en række dataetiske spørgsmål. Og ifølge Dataetisk Råds årsrapport fra september, er ”diskussionen af dataetikken … et anliggende for os som borgere og forbrugere, som ikke alene kan overlades til eksperter”.

– Den teknologiske udvikling rejser … en række etiske dilemmaer fx i forhold til privatlivets fred, gennemsigtighed og retssikkerhed ved brug af algoritmer, tilføjer man.

Socialrådgiver og lektor på socialrådgiveruddannelsen ved Københavns Professionshøjskole, Helle Antczak, har undersøgt kommunernes brug af intelligente robotter. Og hun mener at den etiske fordring fordufter, når borgeren bliver til data.

På en forespørgsel om forskningsprojektet fra Gladsaxe Bladet, henviser hun til to interviews med hende, om digitaliseringer af socialt arbejde, i bladene Socialrådgiveren og Udenfor – der er et tidsskrift for forskning og praksis i socialt arbejde – i 2019.

Her siger Helle Antczak blandt andet at socialfaglige skøn ikke kan automatiseres. At man ikke kan udvikle en algoritme, der kan forudsige, hvad der er det rigtige at gøre for en bestemt borger i en konkret situation.

Samt at erfaringer fra kriminalforsorgen i England og USA viser, at socialarbejderne i de to lande stort set aldrig går imod de forslag, som algoritmen kommer med.

’Gladsaxe-modellen’
Helle Antczak omtaler desuden den såkaldte ”Gladsaxemodel”, hvor Gladsaxe Kommune ville udvikle en algoritme til tidligt at overvåge og udpege børnefamilier med sociale problemer, som skulle hjælpe sagsbehandlerne i deres opsporingsarbejde.

Man skrinlagde umiddelbart ideen, da man fik afslag på en ansøgning om at blive undtaget fra datareglerne. Men det er ikke sikkert at ideen er lagt helt i graven.

– Nogle gange går det måske lidt for stærkt i forhold til, hvor resten af samfundet befinder sig. Så står vi pludselig helt alene, som da vi ville bruge algoritmer til tidlig opsporing af sårbare børn. Der var vi alt for langt fremme i skoene. Det må vi stadig høre for. Men det skal nok komme, og faktisk er det allerede på vej indenfor flere områder, fortalte afgående kommunaldirektør, Bo Rasmussen, i hvert fald på kommunens hjemmeside 31. marts.

Algoritmer bruges allerede
For algoritmer bruges allerede til blandt andet at forudsige borgeres risiko for langtidsledighed, af Styrelsen for Arbejdsmarked og Rekruttering, der har implementeret en algoritme som alle kommuner i princippet kan anvende.

Institut for Menneskerettigheder efterlyste i marts mere åbenhed om det offentliges brug af kunstig intelligens. Man anbefalede desuden at alle offentlige myndigheder, der anvender profileringsmodeller rettet mod borgere, forpligtes til at oplyse borgere om dette og ved afgørelser informere borgere om, hvordan modellen er nået frem til sine resultater.

Og Gladsaxe Byråd diskuterede i november dataetik, på opfordring af Venstre, der fremlagde et forslag om at kommunen skal udarbejde en dataetisk politik for byrådet.

”Det er vigtigt at borgerne ikke kan risikere at få sine data imod sig. Og det er vigtigt at sammenkøring af data ikke bliver til overvågning af borgerne”, sagde Astrid Søborg (V), da hun fremlagde forslaget.

– Vi får planlagt en proces hvor vi også sikrer os at alle bliver hørt, lovede borgmesteren efterfølgende, inden at byrådet vedtog at sagen blev sendt til forvaltningen, og at Økonomiudvalget skal udarbejde en dataetisk politik til vedtagelse i byrådet inden sommerferien 2021.