Pressemeddelelse fra Ingeniørforeningen, IDA
Brugen af kunstig intelligens (AI) i den offentlige sektor vil i de kommende år vokse så hurtigt, at der er akut brug for at regulere teknologien og dens anvendelsesområder, hvis borgernes tillid til digitaliseringen af velfærdsstaten skal fastholdes. Der skal indføres dataetiske konsekvensvurderinger af al ny lovgivning på lige fod med økonomiske og miljømæssige beregninger, og både borgere, medarbejdere og it-eksperter skal tages med på råd, når der indføres AI i sagsbehandlingen, så der er fuld transparens om brugen af ny teknologi.
Sådan lyder nogle af anbefalingerne fra eksperterne i SIRI-Kommissionen, som i den ny rapport “En fremtidssikret velfærdsstat med AI” præsenterer en borgervision for, hvordan AI kan anvendes til fælles gavn – og hvornår den ikke bør tages i brug. Borgervision skal sikre, at man kan have tillid til systemet, ret til privatliv, kunne følge med udviklingen og blive hørt, hvis der er tvivl, misforståelser eller fejl i afgørelser baseret på AI.
“Vi står ved en skillevej, når det gælder kunstig intelligens. Med udsigten til en langt mere omfattende indsamling og samkøring af data er det afgørende, at politikerne forholder sig til de dataetiske konsekvenser af ny lovgivning. Det gælder i høj grad også udviklingen af AI-værktøjer, som bruges på flere og flere områder i det offentlige på godt og ondt”, siger Thomas Damkjær Petersen, der er formand for SIRI-kommissionen og Ingeniørforeningen, IDA.
Ejerskab over egne data og gennemsigtighed om myndighedernes brug af persondata er to andre nøgleelementer i SIRI-kommissionens anbefalinger. I en meningsmåling foretaget af Userneeds svarer 73% af de 2.000 respondenter, at der skal være en stram lovgivning, der sikrer, at det kun er de mest nødvendige data, der bliver indsamlet og brugt.
“I Danmark har myndighederne meget vide rammer for brugen af data. Derfor skal vi kunne følge med i hvem, der bruger vores data, til hvad og hvor længe. Og det er vigtigt, at den information, vi modtager om anvendelse af vores data, er så specifik, at borgeren faktisk har et reelt billede af, hvad der gives samtykke til”, siger Lisbeth Bech-Nielsen (SF), der er medlem af SIRI-Kommissionen.
Særligt når algoritmer og AI tages i brug på de meget borgernære områder – eksempelvis til at træffe beslutninger på børne-, social- og sundhedsområdet – skal der effektive kontrolinstanser på plads. Omvendt kan AI være med til at hæve kvaliteten og ensartetheden i sagsafgørelser, hvis det for eksempel bruges til at øge adgangen til relevant viden om lignende sager fra resten af landet.
“Vi må aldrig havne i en situation, hvor ingen kan redegøre for, hvordan man er endt med et bestemt resultat eller afgørelse, bare fordi der indgår brug af algoritmer”, siger Lisbeth Bech-Nielsen.
De såkaldte prædiktive algoritmer bliver i stigende grad brugt i den offentlige sektor til at lave prognoser af fremtidig adfærd samt risikoprofiler af borgerne baseret på mønstre i andre borgeres data. Men der er en indbygget risiko for, at man med indførelsen af AI i sagsbehandlingen svækker borgernes retssikkerhed til fordel for højere effektivitet i forvaltningen, mener SIRI-Kommissionen.
“Skal AI implementeres til gavn for medarbejdere og borgere, så kræver det et fokusskifte væk fra økonomisk effektivisering og kortsigtede automatiseringsgevinster til et fokus på at skabe merværdi for borgeren og for medarbejderne”, siger Christel Schaldemose (S), der er medlem af SIRI-Kommissionen og EU-Parlamentets chefforhandler for loven Digital Services Act.
66% af respondenterne i den nye undersøgelse svarer, at de er helt eller overvejende enige i, at der bør være borgerrepræsentanter til stede, når der udvikles nye projekter med AI. I sager om de svageste medborgere som eksempelvis demente eller hjemløse, er det vigtigt, at der er fagkompetente repræsentanter for borgergruppen, der kan tage borgernes perspektiv i udviklingen af nye projekter.
For de offentligt ansatte er udfordringen, at sikre, at AI bruges dér, hvor det er bedst. Nemlig til at bearbejde store mængder data og finde hidtil uopdagede mønstre. Det skal være en hjælp for sagsbehandlerne, men det skal ikke udfordre deres motivation, mandat og mod, fastslår SIRI-kommissionen, der i rapporten bakkes op af en række kommunaldirektører.
“Der sker en forskydning af magtforholdet mellem computeren og fagmedarbejderen. Før eller siden opstår der et dilemma mellem algoritmens bud på en løsning og fagmedarbejderens egen vurdering. Vi foreslår at oprette en Machine Ressource-afdeling ved siden af HR-afdelingen, som dels evaluerer AI-løsninger på lige fod med MUS-samtaler, dels ser på de etiske udfordringer ved samarbejdsrelationen mellem AI-systemerne og medarbejderne”, siger Thomas Damkjær Petersen.
For at forebygge fejl i afgørelserne og indbygget bias i de data, der anvendes, er det nødvendigt at kende de datasæt, som er brugt til udvikling af modellen, samt at have klare rammer for tilsyn og oplysning om, hvordan modellen forklares overfor borgeren.
“På bundlinjen står, at indførelsen af AI i den offentlige forvaltning skal foregå datamæssigt forsvarligt. Det skal ikke skal være en spareøvelse, men hvis det bruges med omtanke, kan det medvirke til at forbedre velfærdsstaten og med tilliden i behold hos borgerne”, siger Lisbeth Bech-Nielsen.
Kontakt:
Thomas Damkjær, formand for SIRI-kommissionen, telefon 21 70 87 84
Grit Munk, specialkonsulent i IDA, telefon 30 59 65 96
Læs hele pressemeddelelsen på Via Ritzau her: https://via.ritzau.dk/pressemeddelelse/eksperter-reguler-brugen-af-kunstig-intelligens?releaseId=13649065
** Ovenstående pressemeddelelse er videreformidlet af Ritzau på vegne af tredjepart. Ritzau er derfor ikke ansvarlig for indholdet **