Morgendagens systemer lærer allerede raskere enn vår forestillingsevne.
Europols ferske vurdering av kriminalitet i 2035 leses som spekulativ fiksjon med tjenestemerke. Autonome droner ombygd til smugling. Omsorgsroboter som hackes for å skade pasientene. KI-systemer som i det stille orkestrerer bedrageri i et omfang ingen menneskelig bande kunne håndtert. Det er fristende å avfeie slike scenarier som filmatiske overdrivelser. Det ville være en feil.
Det rapporten egentlig avdekker, er ikke en kommende bølge av robotkriminalitet, men en nåværende svikt i vår evne til å forestille oss et slikt scenario. Vi regulerer gårsdagens risikoer med gårsdagens verktøy, mens morgendagens systemer allerede lærer, tilpasser seg og sprer seg i høyt tempo.
Dette er ikke den velkjente historien om teknologi som løper foran reguleringen. Den har vi hørt før – med sosiale medier, finansiell ingeniørkunst og cybersikkerhet. Forskjellen denne gangen er kvalitativ. Kunstig intelligens er ikke bare enda et kraftfullt verktøy; det er en evne som utvikler seg, kombineres og opererer i maskinskala. Risikoene den skaper er ikke lineære, synlige eller lett å tilbakeføre. Og det gjør dem usedvanlig vanskelig for menneskelige institusjoner å håndtere.
Uklare grenser
De fleste regulatoriske rammeverk forutsetter fortsatt en tydelig hensikt, identifiserbare aktører og avgrensede hendelser. Kriminalitet har, i et slik verdensbilde, gjerningspersoner, ofre og tidslinjer. KI-drevne systemer utvisker disse grensene. Skade kan oppstå som følge av optimalisering snarere enn ond vilje. Ansvar kan være fordelt mellom utviklere, de som tar systemene i bruk, brukere og datakilder. Når noe først går galt, fremstår ingen enkeltbeslutning som åpenbart kriminell – men utfallet er dypt skadelig.
Det er derfor Europols advarsler bør tas alvorlig, ikke fordi hvert scenario vil bli virkelighet, men fordi de viser hvor langt bak våre mentale modeller befinner seg.
Les også: Europa: Fra krisehåndtering til transformasjon
Den refleksive reaksjonen, særlig i politiske miljøer, er å forsterke ekspertisen. Flere tekniske komiteer. Flere spesialiserte tilsyn. Flere lukkede konsultasjoner mellom myndigheter og teknologiselskaper. Ekspertise er selvsagt viktig. Men den er ikke lenger tilstrekkelig.
Det som mangler, er bredere kapasitetsbygging – ikke bare blant eksperter, men i hele samfunnet. Det mest interessante signalet her er ikke Europols rapport i seg selv, men den parallelle oppfordringen fra Irland om å bruke borgersamlinger til å drøfte styring av KI. Denne oppfordringen misforstås ofte som et ønske om konsensus eller offentlig beroligelse. Det er ingen av delene. Det er en erkjennelse av at risikoene vi står overfor, ikke bare er tekniske. De er sosiale, etiske og politiske – og de krever felles meningsdannelse.
Å bygge legitimitet
Vi kan ikke overlate evnen til på forestille oss scenarier til ingeniører alene. Og vi kan ikke forvente at regulatorer, som allerede er presset og strukturelt forsiktige, skal forutse en fremtid de aldri har erfart. Demokratisk deltakelse, når den gjøres riktig, utvider spekteret av spørsmål vi er villige til å stille. Den avdekker grensetilfeller. Den utfordrer antakelser om hva som er akseptabelt, ikke bare hva som er effektivt.
Avgjørende nok bygger den også legitimitet. Når styring henger etter kapasitet, svekkes tilliten. Når tilliten svekkes, blir etterlevelsen svakere. Og når etterlevelsen svekkes, svikter selv de best utformede reglene.
Dette er et delt ansvar. Myndighetene har vært reaktive. Tilsynsmyndighetene forsiktige. Teknologiselskapene optimistiske til det punktet da det blir til selvtilfredshet. Og samfunnet selv har vært påfallende passivt, det har svingt mellom hype og frykt, og sjelden stoppet opp for å engasjere seg seriøst i avveiningene som gjøres på dets vegne.
Vi bør også motstå lysten til å trøste oss med historiske analogier. Det vi står ovenfor er ulikt flysikkerhet, kjernekraft eller finansregulering. Det var komplekse, men avgrensede systemer. KI er allmenn, kan kombineres og er i økende grad autonom. Den glir ikke pent inn i sektorer eller jurisdiksjoner. Å behandle den som bare nok en fremvoksende risiko er nettopp feilen.
Å oppgradere måten vi tenker på
Den reelle faren er derfor ikke roboter som løper løpsk eller futuristiske kriminelle syndikater. Det er vår kollektive manglende evne til å forestille oss konsekvenser i andre og tredje ledd før de stivner til virkelighet. Når skadevirkningene blir åpenbare, er de som regel allerede fastlåst.
Nyskaping i denne sammenhengen, handler ikke om å vedta lover raskere eller smartere algoritmer. Det handler om å oppgradere måten vi tenker på. Om å utvikle en styringsform som lærer, tilpasser seg og involverer flere stemmer tidligere. Om å akseptere at usikkerhet ikke er en midlertidig tilstand som kan håndteres bort, men et permanent kjennetegn ved de systemene vi bygger.
Hvis vi fortsetter å regulere bare det vi allerede forstår, vil vi alltid komme for sent. Det virkelige arbeidet nå er ikke å forutsi kriminalitetens framtid – det er å utvikle forestillingsevnen raskt nok til å kunne styre den.















