Pressemeddelelse fra Dansk Standard
Input påvirker output. Det gælder både, når vi mennesker skal analysere eller træffe beslutninger, men det gælder i særdeleshed også, når kunstig intelligens fx bliver sat til at hjælpe med sagsbehandling i en kommune, hjælpe med at rekruttere en ny medarbejder i en virksomhed eller oversætte en tekst på Google Translate. Det er nemlig på grund af input i form af historiske data, at Google Translate oversætter “min kæreste gør rent” til “my girlfriend cleans”, og “min kæreste er direktør” til “my boyfriend is an executive”. Lige som det er forældet datasæt i kunstig intelligens, der har gjort, at højtuddannede ikke etniske danskere, hvis ekspertise der er mangel på i Danmark, er blevet foreslået job som fx pizzabude eller taxachauffører på jobcentret.
“Kunstig intelligens hjælper os mennesker på daglig basis med at analysere store mængder data og træffe beslutninger. Derfor er det vigtigt, at it-systemer baseret på kunstig intelligens er fodret med data, der passer til opgaven og at dataene ikke er forældede. Og ikke mindst at udviklere, indkøbere og brugere af systemerne overvejer, om der er blinde vinkler i de anvendte data. Ellers kan organisationen risikere, at algoritmen medtager uønsket bias, der potentielt kan medføre forskelsbehandling og diskrimination” siger Malte Højmark-Bertelsen, Head of AI & NLP i KMD.
Forældede data har nutidige konsekvenser
“Mange datasæt er bygget op på data, som tiden er løbet fra. Problemet er, at det kan medføre bias, som man ikke er opmærksom på eller som man ikke ved, hvordan er opstået, fordi man reelt ikke aner, hvordan systemet er kommet frem til sine resultater”, siger Anders Kofod-Petersen.
Derfor har Dansk Standard i samarbejde med en række eksperter både indenfor AI og diversitet udarbejdet en vejledning, der kan hjælpe med de problemstillinger, der følger med brugen af kunstig intelligens.
Vores samfund har de seneste år fået øget fokus på diversitet og ligestilling, og spørger man Marie Valentin Beck, initiativtager til vejledningen og selvstændig rådgiver inden for diversitet og inklusion, skal samfundets tendenser også reflekteres i digitale løsninger så som kunstig intelligens.
“It-systemer er ikke mere eller mindre biased end de mennesker, der har skabt dem. Hvis vi vil mindske uønsket forskelsbehandling i fremtiden, skal menneskerne bag den kunstige intelligens være helt bevidste om, hvilke data ens it-systemet skal basere sine resultater på”, siger Marie Valentin Beck.
Ny vejledning giver redskaber til at undgå bias
Dansk Standards nye vejledning giver et konkret redskab til at håndtere og skabe gennemsigtighed i forhold til bias i kunstig intelligens.
“Vejledningen giver en fælles metode, som alle typer af organisationer kan anvende, når de skal håndtere bias i deres it-systemer. Desuden er vejledningen bygget op, så den kan anvendes af både udviklere, indkøbere og projektledere – med andre ord alle, der arbejder med kunstig intelligens. Vejledningen fortæller ikke, hvad der er rigtigt eller forkert, men opstiller nogle konkrete redskaber og retningslinjer, som man kan anvende i indsatsen for at kunne håndtere bias”, siger Kim Skov Hilding, seniorkonsulent i Dansk Standard.
Vejledningen, der er støttet af Erhvervsstyrelsen, hænger sammen med det arbejde, der foregår internationalt inden for kunstig intelligens.
Du kan downloade vejledningen her:
Vil du vide mere om, hvordan du håndterer bias i kunstig intelligens, kan du deltage i Dansk Standards webinar d. 9. maj. Læs mere her:
Kontakt:
Til redaktionen: For yderligere oplysninger kontakt Lisa Klæsøe, pressechef i Dansk Standard, på mail: lio@ds.dk eller mobil: 27 12 93 69.
Læs hele pressemeddelelsen på Via Ritzau her:
** Ovenstående pressemeddelelse er videreformidlet af Ritzau på vegne af tredjepart. Ritzau er derfor ikke ansvarlig for indholdet **