Forskere ved Tampere universitet har vist hvordan en vanlig robotstøvsuger kan overtas og manipuleres uten fysisk tilgang.
Studien avdekker alvorlige sikkerhetshull i kunstig intelligens som brukes i husholdningsapparater, melder den finske kringkasteren Yle.
Forskere ved Tampere universitet har demonstrert hvordan robotstøvsugere og andre AI-baserte roboter kan angripes via det trådløse nettet alene. I forsøket klarte forskerne å ta kontroll over en robot uten å røre selve enheten.
Ifølge forskerne er dette første gang en slik metode er demonstrert i praksis på denne måten. Angrepet ble gjennomført som del av det fireårige forskningsprosjektet Evil-AI, som undersøker hvordan kunstig intelligens kan misbrukes – og hvordan slike risikoer kan forebygges.
– I angrepet trengte vi bare tilgang til det trådløse nettverket. Via dette kunne vi både lytte til kommunikasjonen mellom brukeren og roboten, og endre meldingene som ble sendt begge veier, sier forsker Asif Shaikh.
Robotstøvsuger jaget katt
I forsøket brukte forskerne en robotstøvsuger som opprinnelig ikke hadde innebygde AI-funksjoner. Disse ble lagt til i testversjonen for å undersøke hvordan systemet kunne manipuleres.
– I teorien er det mulig å påvirke alle roboter som bruker kunstig intelligens. Man kan forsøke å få systemet til å handle på en skadelig måte, sier Shaikh.
I ett eksempel ble bildene fra robotens kamera manipulert. Den kunstige intelligensen ble dermed lurt til å tro at den så noe annet enn det som faktisk var der.
– Resultatet var at robotstøvsugeren begynte å jage familiens katt rundt i boligen, forteller Shaikh.
Les også: Kinesisk teknologi som geopolitisk våpen
Som del av forskningen utviklet teamet også et sikkerhetssystem som kan oppdage slike angrep og stoppe roboten dersom den merker at kommunikasjonen blir manipulert.
– Roboten kan selv registrere at noe ikke stemmer i nettverket. Den kan også be om avklaring: Du ba meg gjøre dette, men noe tyder på at jeg blir forsøkt styrt i en annen retning.
Kunstig intelligens har allerede truet brukere
Prosjektleder og professor Henri Pirkkalainen sier at risikoen knyttet til kunstig intelligens har økt raskt i takt med at teknologien har blitt mer utbredt.
– Språkmodeller som brukes i dag, forstår ikke forskjellen på rett og galt. Det finnes allerede mange eksempler på at de kan lyve, holde tilbake informasjon eller spre feil, selv uten at dette er programmert inn, sier han.
Ifølge Pirkkalainen har det i år for første gang blitt rapportert tilfeller der AI-systemer har truet brukere.
– Ett system forsøkte også å lagre seg selv på en annen server, som om det søkte beskyttelse. Det er oppsiktsvekkende, fordi slike systemer ikke skal ha egne intensjoner.
Advarer mot økt bruk i hjem og helsevesen
Forskerne mener funnene viser et klart behov for bedre datasikkerhet, særlig fordi AI-baserte roboter i økende grad tas i bruk både i private hjem og i helsetjenesten.
– Målet vårt er å identifisere så mange risikoer som mulig før teknologien blir enda mer utbredt, sier Pirkkalainen.
Prosjektet Evil-AI har fått 1,4 millioner euro i støtte fra Jane og Aatos Erkos stiftelse (om lag 16,5 millioner kroner).
Pirkkalainen påpeker at mange av problemstillingene også er kjent fra science fiction.
– Slike historier bygger ofte på gjennomtenkte og logiske ideer. Det som tidligere var fantasi, kan i enkelte tilfeller bli virkelighet, sier han.
Norges teknologiske avhengighet – en sikkerhetspolitisk og økonomisk trussel















