PRM / ChatGPT udgør en sikkerhedsrisiko for virksomheder

    Pressemeddelelse fra Ingeniørforeningen, IDA

    Danske virksomheder bør hurtigst muligt nedfælde klare retningslinjer for medarbejdernes brug af AI-modeller som ChatGPT.

    Det skal sikre, at de ansatte ikke uforvarende kommer til at afsløre personfølsomme oplysninger eller forretningshemmeligheder til eksempelvis OpenAI, som er virksomheden bag ChatGPT.

    Sådan lyder advarslen fra Jørn Guldberg, der er it-sikkerhedsekspert for Ingeniørforeningen, IDA, forud for et samråd i Folketinget, hvor digitaliseringsminister Marie Bjerre (V) skal redegøre for, om regeringen har nogle nye initiativer på vej på området.

    Jørn Guldberg frygter, at der midt i den massive interesse for de nye AI-modeller vil ske brud på virksomhedernes datapolitik og behandling af fortrolige oplysninger, som kan få alvorlige konsekvenser.

    “De nye AI-modeller har et enormt potentiale og kan gøre mange processer lettere ude på de enkelte arbejdspladser. Men vi skal lære at bruge dem med omtanke. Det er fristende at få hjælp fra ChatGPT til at gennemskrive en strategiplan eller til at optimere noget programmering, men dermed accepterer man også, at informationerne bliver overdraget til OpenAI”, forklarer Jørn Guldberg.

    For nylig oplevede den koreanske techvirksomhed Samsung, at medarbejdere i tre forskellige tilfælde uploadede følsomme informationer til ChatGPT for blandt andet at få hjælp til at undersøge fejl i kildekoden til virksomhedens computerchips.

    Men dermed er OpenAI de facto kommet i besiddelse af Samsungs kritiske forretningshemmeligheder, som samtidig kan bruges til at træne sprogmodellen i ChatGPT.

    “Lige nu er AI-modellerne omgærdet af en voldsom hype, og mange medarbejdere føler formentlig et behov for at blive fortrolige med den nye teknologi og de muligheder, den rummer. Men det er vigtigt at bevare sin kritiske sans, når man stiger ombord i den kunstige intelligens. Du skal ikke dele noget, der kan afsløre vitale informationer om din arbejdsplads”, siger Jørn Guldberg.

    De italienske datamyndigheder tog for nylig det drastiske skridt at forbyde AI-sprogmodeller som ChatGPT, fordi det er uklart, om borgernes GDPR-sikrede rettigheder respekteres. Forbuddet er siden blevet ophævet, mens Det Europæiske Databeskyttelsesråd (EDPB) har nedsat en task force, der skal undersøge, om ChatGPT overholder reglerne om beskyttelse af persondata.

    Herhjemme har en række videregående uddannelser foreløbig bandlyst brugen af ChatGPT til eksamensbrug.

    “Grundlæggende skal vi være meget opmærksomme på, hvad vi putter ind i den, og hvilke resultater, der kommer ud. Det er en kraftfuld teknologi, som – hvis den anvendes forkert – kan udgøre en kæmpe trussel for både virksomheder og borgere. Men lærer vi at bruge den rigtigt, kan den være et fantastisk værktøj”, siger Jørn Guldberg.

    Han opfordrer danske arbejdspladser – både store og små – til at indføre klare bestemmelser om brugen af AI-sprogmodeller, så der ikke sker brud på datasikkerheden eller deling af fortrolige oplysninger.

    “Men særligt de mindre virksomheder har brug for vejledning. Derfor bør det være en hasteopgave for myndighederne at udarbejde en simpel virksomhedsguide, som i første omgang kan sikre en klog og ansvarlig udnyttelse af de nye teknologier”, siger Jørn Guldberg.

    Kontakt:

    Jørn Guldberg, it-sikkerhedsekspert for IDA, telefon 31 33 42 04
    Ole Hoff-Lund, presserådgiver i IDA, telefon 26 83 81 84

    Læs hele pressemeddelelsen på Via Ritzau her: https://via.ritzau.dk/pressemeddelelse/chatgpt-udgor-en-sikkerhedsrisiko-for-virksomheder?releaseId=13679078

    ** Ovenstående pressemeddelelse er videreformidlet af Ritzau på vegne af tredjepart. Ritzau er derfor ikke ansvarlig for indholdet **