PRM / Twitterbrugere har store problemer med at skelne robotprofiler fra mennesker

    Pressemeddelelse fra Copenhagen Business School

    Hurtige fremskridt inden for kunstig intelligens har gjort det vanskeligere på sociale medier at skelne robotprofiler fra mennesker. Ny forskning fra CBS viser, at brugere af et socialt medie som Twitter nu fejlbedømmer robotprofiler som menneskeægte profiler. De nye teknologiske muligheder gør det nemmere at manipulere og misinformere og er en trussel mod demokratiske samfund, siger forskerne bag.

    I et eksperiment med 375 deltagere undersøgte forskerne, hvor svært det er at se forskel på menneske- og robotprofiler. Resultatet viste store problemer med at skelne ægte og kunstigt genererede profiler på Twitter fra hinanden, og faktisk opfattede mange deltagere de falske profiler som værende ‘mindre sandsynligt falske’ end de ægte profiler.

    “Vores resultater tyder på, at den teknologi, der anvendes til at generere falske profiler har udviklet sig i en sådan grad, at det er svært at skelne dem fra de ægte profiler,” siger Sippo Rossi, ph.d.-studerende fra grundforskningscentret Centre for Business Data Analytics ved Institut for Digitalisering på CBS.

    “Lige nu er min anbefaling, at du kun bør stole på de mennesker på sociale medier, som du allerede kender,” siger Sippo Rossi.

    Ægte profiler bliver opfattet som falske

    Forskerne skabte deres egne falske twittertråde, hvor emnet var krigen i Ukraine. Tråden omfattede både ægte og genererede profiler samt tweets, der støttede begge sider.

    De falske profiler brugte computergenererede syntetiske profilbilleder, skabt med hjælp fra StyleGAN, og opslag, som blev genereret af GPT-3; den samme sprogmodel, som står bag ChatGTP, og som fornyelig er taget i brug i versionerne 3.5 og 4.0.

    “Interessant nok var de konti, der blev stillet flest spørgsmål ved i forhold til akkuratesse og sandsynlighed, dem med mennesker bag. En af de ægte profiler blev fejlagtigt kategoriseret som falsk af 41,5% af de deltagere, som så den. Imidlertid blev en af de falske profiler, der klarede sig bedst, kun kategoriseret som robot af 10%,” siger Sippo Rossi.

    Skaber udfordringer for demokratiet

    Udbredelsen af såkaldt “deep learning”-genererede profiler på sociale medier skaber markante udfordringer for samfundet og demokratiet, når de bliver brugt til politisk manipulation, misinformation eller cybermobning og cyberkriminalitet, påpeger medforfatter Raghava Rao Mukkamala, leder af Centre for Business Data Analytics ved Institut for Digitalisering på CBS.

    “Autoritære regeringer oversvømmer sociale medier med robotprofiler, der tilsyneladende støtter deres sag, for at manipulere informationsstrømmen. Det bliver afgørende for udviklingen, om samfund nøje overvejer disse teknologiers potentielle konsekvenser og arbejder på at imødegå de negative effekter,” siger han.

    Forskernes næste skridt bliver at undersøge, om robotprofiler kan identificeres ud fra diskussioner i nyhedstråde, hvor falske og ægte profiler kommenterer på en specifik artikel i samme tråd.

    “Vi har brug for nye måder og nye metoder til at håndtere det her, fordi det nu er stort set umuligt at få ånden tilbage i flasken. Hvis mennesker ikke længere er i stand til at opdage de falske profiler

    og opslag og anmelde dem, så må det gøres automatisk med for eksempel lukning af konti og id-verificering. Det må være de firmaer, der står bag de sociale medieplatforme, der også skal udvikle sikkerhedsforanstaltningerne,” tilføjer Sippo Rossi.

    Forskningsresultaterne blev udgivet i The Hawaii International Conference on System Sciences (HICSS).


    Om forskerne

    Sippo Rossi er ph.d.-studerende ved Institut for Digitalisering. Hans forskning fokuserer på bots og misinformation på sociale medier. Inden han kom til CBS, arbejdede Sippo Rossi i den private sektor med dataanalyse.

    Raghava Mukkamala er leder for Centre for Business Data Analytics og lektor ved Institut for Digitalisering på CBS. Han arbejder med en tværdisciplinær tilgang til analyse af big data.

    Kontakt:

    Journalist Richard Steed email: rs.slk@cbs.dk

    Læs hele pressemeddelelsen på Via Ritzau her: https://via.ritzau.dk/pressemeddelelse/twitterbrugere-har-store-problemer-med-at-skelne-robotprofiler-fra-mennesker?releaseId=13673919

    ** Ovenstående pressemeddelelse er videreformidlet af Ritzau på vegne af tredjepart. Ritzau er derfor ikke ansvarlig for indholdet **