Det er en dårlig idé at dele virksomhedshemmeligheder eller personfølsomme oplysninger med en chatbot som ChatGPT, da den vil lagre informationerne i sin database.
Dermed risikerer man, at informationerne senere vil blive delt og spredt til andre brugere.
Det siger Peter Kruse, der arbejder med it- og cybersikkerhed hos virksomheden Clever.
– Det data, man deler med ChatGPT, kan indeholde følsomme oplysninger eller materielle rettigheder, der tilhører en virksomhed.
– Derfor skal man tænke sig om en ekstra gang, inden man deler noget med sådan en chatbot.
– Det gælder også for private personer, der måske deler sin årsopgørelse med chatbotten, fordi man regner med at kunne blive hjulpet med en skattefinte, siger han.
Ingeniørforeningen (IDA) er onsdag kommet med samme budskab.
Det sker, efter at medarbejdere i den koreanske techvirksomhed Samsung har brugt ChatGPT i arbejdssammenhæng.
På den måde endte chatbotten med at komme i besiddelse af potentielt følsomme forretningshemmeligheder.
Siden har Samsung indført et forbud over for sine ansatte i flere divisioner mod at bruge denne form for kunstig intelligens på arbejdspladsen.
Jørn Guldberg, der er it-sikkerhedsekspert hos Ingeniørforeningen, forstår godt, at det er fristende at få hjælp til at optimere sin virksomhed.
– Men man accepterer samtidig, at informationerne bliver overdraget til OpenAI (virksomheden bag ChatGPT, red.), siger han i en pressemeddelelse.
– Derfor er det vigtigt at bevare sin kritiske sans, når man stiger om bord i den kunstige intelligens. Du skal ikke dele noget, der kan afsløre vitale informationer om din arbejdsplads, lyder anbefalingen.
– Lærer vi at bruge den rigtigt, kan den være et fantastisk værktøj, tilføjer han.
I første omfang anbefaler han både store og små virksomheder at indføre klare bestemmelser om brugen, så der ikke sker brud på datasikkerheden eller deling af fortrolige oplysninger.
/ritzau/