PRM / Ansvarlig AI: Situationen, udfordringen og løsningen

    Pressemeddelelse fra Alexandra Instituttet

    SITUATIONEN

    For cirka et år siden udkom den danske regerings nationale strategi for kunstig intelligens. Her står det klart og tydeligt, at vi i Danmark har en styrkeposition, når det kommer til at udvikle ansvarlig kunstig intelligens (AI) på et etisk grundlag. Analysen hedder, at selvom USA og Kina investerer massive summer i udviklingen af kunstig intelligens og galopperer ud over AI-stepperne, så har Danmark viden og kapacitet, når det kommer til at indarbejde etik i og opbygge tillid fra brugerne til vores teknologi. Dette er vores stærkeste kort.

    I regeringens og EU’s udmeldinger om ansvarlig kunstig intelligens er der mange muligheder og udfordringer – og det rejser en masse spørgsmål: Hvordan forholder danske virksomheder sig til de store AI-linjer og -retninger, som Regeringen og Europa-kommissionen sætter? Hvordan udnytter virksomhederne de potentialer, man peger på? Og hvordan sikrer man sig som virksomhed, at man efterlever den lovgivning, der måske kan være på vej på AI-området, så man fortsat kan drive forretning? Det er nogle af de ting, vi arbejder på i vores toårige projekt om ansvarlig og forklarlig kunstig intelligens på Alexandra Instituttet.

    UDFORDRINGEN

    1.000.000.000.000 kroner-spørgsmålet er: Hvordan udvikler vi ansvarlig, etisk og forklarlig AI i praksis? Og hvad betyder de forskellige begreber (som på ingen måde er synonymer, selvom de ofte bliver brugt sådan) egentlig?

    Selvom der allerede er AI-løsninger i drift, når det kommer til mere ‘ufarlige’ områder som predictive maintenance og anomali-detektion i sensorer, vælter vi os (endnu) ikke i AI-løsninger, der rykker ved etiske spørgsmål, og som derfor kan vise os vejen og lade os få øje på alle de udfordringer, implementeringen af teknologien giver og de dilemmaer, den sætter os i. Især vælter vi os ikke i cases, hvor AI potentielt kunne gøre en stor forskel i vores samfund, nemlig hos kommunerne og i sundhedssektoren. Derfor er vi i ukendt land i vores projekt. Vi prøver nemlig at ruste vores (og derigennem Danmarks) kompetencer til at tage de rigtige valg i udviklingen af AI. Vi udvikler denne viden på baggrund af praktiske eksperimenter med teknologien, og åbne spørgsmål til brugerne af teknologien og til virksomhederne samtidig med, at vi søger såvel den nyeste som ældste forskning på feltet igennem.

    Vi har nu en stærk forståelse for, hvad forklarlig og ansvarlig AI er, hvor der er behov for det, og hvilke udfordringer der er, ved at udvikle, implementere og bruge det.

    Der er ret mange udfordringer. Men der er endnu flere muligheder!

    Mulighederne er naturligvis, at brugere af et AI-system får indblik i, hvordan og hvorfor en kunstigt intelligent model giver et bestemt udfald. Men udfordringen er til gengæld, at dette indblik kan blive meget komplekst og måske i samme ombæring særdeles irrelevant for den opgave, som brugeren skal løse. Sat meget på spidsen: Hvorfor skal jeg forstå en selvkørende bils underliggende algoritmers virkemåde lige nu og her, hvis jeg ikke har tid og/eller mulighed for at tage et valg om at bremse eller fortsætte i en kritisk situation?

    En konkret kontekst, vi har kigget på i projektet, er hos optikere, der bruger AI-modeller til at vurdere, om en kunde har anlæg til øjensygdomme. Her har vi testet, hvordan en forklarlig model kunne hjælpe optikerne til at forstå et udfald af en ret enkel model, så de kunne give kunderne en god forklaring. Men her viste det sig, at konteksten ikke levnede rum til at sætte sig ind i baggrunden for modellens udfald. At implementere en forklarlig model ville kræve en helt anden arbejdsgang samt en højere grad af teknologiforståelse hos brugerne.

    Casen lærte os, at implementering af AI kræver andre greb end blot en forklarlig model – nemlig en dyb forståelse for den kontekst, brugeren sidder i samt det økosystem, brugeren befinder sig i; altså hvilke input skal brugeren forholde sig til, og hvilke output skal brugeren give videre og til hvem? Og et etisk dilemma, der går på: om det egentlig er optikernes rolle at fortælle en kunde, at vedkommende muligvis har en alvorlig (øjen)sygdom, når kunden blot var gået ind i butikken med intentionen om at købe et par briller?

    LØSNINGEN

    Svaret på spørgsmålet om, hvordan man udvikler ansvarlig AI i praksis, nærmer vi os. Men det er på mange måder utilfredsstillende, hvis man står og skal have et her og nu-svar, for svaret ændrer sig nemlig hele tiden: Løsningen på udfordringen er ikke en one-size-fits-all-model. Den er kontekstbaseret, som vi var inde på oven for, og den er tværfaglig. Den er tværfaglig, fordi det i vores optik kræver en triangulær bevægelse at forstå, hvordan AI bedst løser sin opgave. Derfor går vi i vores projekt til opgaven med udgangspunkt i såvel teknologien (datalogien) og brugeren (antropologien) som organisationen/virksomheden (forretningsforståelsen).

    Vi skal forstå, hvad teknologien kan, før vi kan forstå, hvilke opgaver brugeren kan forvente at løse for organisationen/virksomheden.

    Vi skal forstå, hvad brugerens kontekst og motivation er for at løse opgaven i organisationen/virksomheden, før vi kan forstå, hvordan teknologien kan løse den.

    Vi skal forstå, hvordan organisationen/virksomheden kan skabe værdi gennem teknologiens muligheder for at støtte brugeren i sin kerneopgave.

    Vi fejler nemlig, hvis vi laver en teknisk løsning, hvor forklaringen kun kan forstås af hende, der udviklede modellen. Den kunstige intelligens skal kunne forstå den kontekst, brugeren sidder i. Systemet skal kunne understøtte sin beslutning baseret på den domæneviden, som brugeren sidder med og kunne tale brugerens sprog. Derfor skal vi bygge domæneviden direkte ind i it-systemet.

    Og det må også være en slags svar – bare ikke helt tilfredsstillende, hvis man som virksomhed, myndighed eller lignende står over for at skulle udvikle og implementere en AI-løsning. For AI-udvikling er langt fra triviel. Den kræver som skrevet indsigt i teknologi, brugere, forretning og etik. Og den indsigt er det vores opgave at tilegne og os formidle videre gennem vores respektive fagligheder, som omfatter machine learning specialister, antropologer og forretningsudviklere.

    Bloggen Ansvarlig AI, som du læser på lige nu, er en tværfaglig blog med både tekniske indlæg om forklarlig og fair maskinlæring, antropologiske indlæg om forståelse og anvendelse af teknologien, samt et standpunkt eller to til debat. Det hele i et gennemsigtigt forsøg på at bryde ud af den sorte boks.

    Kontakt:

    Communications Specialist Lisa Lorentzen tlf.: +45 93 52 17 64 email: lisa.lorentzen@alexandra.dk

    Læs hele pressemeddelelsen på Via Ritzau her: https://via.ritzau.dk/pressemeddelelse/ansvarlig-ai-situationen-udfordringen-og-losningen?releaseId=13592751

    ** Ovenstående pressemeddelelse er videreformidlet af Ritzau på vegne af tredjepart. Ritzau er derfor ikke ansvarlig for indholdet **