Kunstig intelligens blir et verktøy for geopolitisk manipulasjon, med aktører fra Russland og Kina i spissen for avanserte desinformasjonskampanjer.
Ifølge en ny rapport fra kunstig intelligens (KI)-selskapet OpenAI har aktører basert i Russland og Kina tatt i bruk generativ kunstig intelligens for å styrke sine desinformasjonskampanjer om temaer som Ukraina, Taiwan, Moldova og USA. Defense One har belyst denne utviklingen, som gir innsikt i hvordan avanserte KI-verktøy kan påvirke oppfatningen av geopolitiske hendelser.
Rapporten avdekker fem separate informasjonsoperasjoner de siste tre månedene der OpenAIs verktøy har blitt benyttet for å øke effektiviteten og rekkevidden av kampanjene. En sentral oppdagelse er at generativ KI kan la operatører med begrenset kunnskap i engelsk, eller potensielt andre språk, virke mer autentiske. Verktøyene kan gi innlegg og kommentarer karakter så de fremstår som om de kommer fra innfødte.
Blant de omtalte gruppene er en pro-russisk gruppe kalt Bad Grammar, som har brukt OpenAI-verktøyene til å anklage presidentene i Ukraina og Moldova for korrupsjon, manglende folkelig støtte og for å forråde sitt eget folk til vestlig ‘innblanding’. På plattformen Telegram har gruppen fokusert på emner som innvandring og økonomiske vanskeligheter, og brukt konteksten fra aktuelle hendelser til å argumentere for at USA ikke bør støtte Ukraina.
Les også: Halvledernes sentrale rolle i global geopolitikk 🔒
En annen gruppe fra Russland, kalt Doppelganger, har brukt verktøyet til å poste innhold på engelsk, fransk, tysk, italiensk og polsk, og har skapt et skinn av popularitet rundt innleggene. Kinesiske aktører på sin side har benyttet KI til å forfine sine operasjoner og skalere opp analyse av plattformer, sikkerhetssvakheter, publikumssentiment og lignende.
Selv om OpenAIs analyse viser at ingen av kampanjene har hatt noe særlig suksess, illustrerer rapporten hvordan USAs rivaler allerede ser mot amerikansk-baserte KI-verktøy for å påvirke stemningen på utenlandske sosiale medier som Telegram, men også på amerikansk-kontrollerte som X, tidligere kjent som Twitter.
Amerikanske tjenestepersoner innen nasjonal sikkerhet har i flere måneder advart om den økende trusselen fra KI i forbindelse med valgrelatert desinformasjon. Rapporten understreker behovet for lovgivning for å sikre at KI-generert innhold tydelig merkes, men viser også at selv om deteksjonen av KI-generert innhold forbedres, kan skadelige aktører fortsatt generere og spre det mye raskere enn moderatorer kan handle.