Det amerikanske militær træner med en ‘the Legged Squad Support System (LS3)’. Video fra Youtube.
Verdenssamfundet bør skride ind og sætte en stopper for forskning i, hvad der populært går under betegnelsen dræberrobotter.
Det mener over 1000 videnskabsfolk og erhvervsspidser, som beskæftiger sig med teknologi.
I et åbent brev til en konference i Buenos Aires om kunstig intelligens advarer brevskriverne om, at udviklingen af militærrobotter er nået så langt, at selvstyrende dræberrobotter kan blive mulige “inden for år, ikke årtier”, skriver Politiken.
I brevet betegnes selvstyrende våben som “den tredje revolution inden for krigsførelse” – efter først opfindelsen af krudt og siden atomvåben.
Brevet advarer om, at hvis en stor militærmagt sætter turbo på udviklingen af våben med kunstig intelligens, “så er et globalt våbenkapløb uundgåeligt”.
Underskriverne tæller kendte intellektuelle som fysikeren Stephen Hawking og filosoffen Noam Chomsky.
the Legged Squad Support System (LS3).
De frygter, at selvstyrende våben let kan falde i de forkerte hænder, for når teknologien først findes, kan de fremstilles nemmere og billigere end for eksempel atomvåben.
– Selvstyrende våben vil blive morgendagens Kalasjnikovs, skriver forskerne med henvisning til en type automatriffel, som er blevet særlig udbredt blandt militante og terrorister.
Noel Sharkey, der er professor i robotteknologi ved University of Sheffield, er en del af en alliance, der arbejder for at få en FN-konvention, som forbyder brugen af avancerede militære robotter på verdensplan.
the Legged Squad Support System (LS3).
– Man skal huske, at militære robotter er maskiner, programmeret af mennesker. Der findes også onde mennesker. Hvad skal vi gøre, hvis maskinerne ikke overholder reglerne for krigsførelse? Hvem er så ansvarlig?, spørger Sharkey.
Det er imidlertid langtfra alle, der frygter udviklingen af dræberrobotter.
– Robotter er rationelle, og jeg mener ikke, at det per automatik er problematisk at overlade drabsbeslutningen til en robot, siger Klaus Æ. Mogensen fra Instituttet for Fremtidsforskning til Politiken.
– Vi har set masser af eksempler på, at den menneskelige bedømmelse af en situation i eksempelvis Iran og Irak ikke altid bliver foretaget på et rationelt grundlag. En robot træffer altid en rationel beslutning, fordi den ikke er bekymret for sit eget liv, siger han.
/ritzau/