Dommer avviser at AI-chatboter har ytringsfrihet. Mor saksøker Character.AI etter at sønnen tok sitt eget liv, og retten vil ikke gi chatboten grunnlovsvern.
En føderal dommer i Florida har avslått et forsøk fra AI-selskapet Character.AI på å få en rettssak henlagt ved å vise til ytringsfrihet. Det melder Associated Press.
Bakgrunnen er et søksmål fra Megan Garcia, moren til 14 år gammel gutt, som tok sitt eget liv etter å ha hatt et langvarig og seksuelt ladet samspill med en chatbot fra Character.AI. Ifølge Garcia utviklet gutten et emosjonelt avhengighetsforhold til chatboten, som hun mener bidro til selvmordet.
– Teknologiselskaper må våkne
– Silicon Valley må stoppe opp, tenke seg om og sette grenser før de sender slike produkter ut i markedet, sa Meetali Jain i Tech Justice Law Project, en av Garcias advokater.
Retten tillater at saken går videre, og det får flere juridiske eksperter til å se på saken som en mulig milepæl i reguleringen av kunstig intelligens.
Les også: Kunstig intelligens – det ultimate geostrategiske verktøyet?
– Et mulig testtilfelle
– Kjennelsen åpner for at dette kan bli et testtilfelle for bredere spørsmål knyttet til AI, sa jussprofessor Lyrissa Barnett Lidsky ved Universitetet i Florida.
Dommer Anne Conway avviste argumentet om at selve chatbotens meldinger er beskyttet som ytringer under grunnloven.
– Jeg er ikke villig til å konkludere med at chatbotens utsagn er beskyttet tale på dette stadiet, skrev hun.
Samtidig åpner kjennelsen for at brukerne av Character.AI kan ha rett til å motta chatbotens «tale», og at teknologiselskapet kan påberope seg deres rettigheter.
Google også trukket inn
Google er også oppført som medtiltalt i saken, ettersom noen av utviklerne bak Character.AI tidligere jobbet med AI hos Google. Søksmålet hevder Google visste om risikoen.
– Google og Character.AI er helt separate. Vi designet ikke denne appen og har ikke vært involvert i utviklingen, svarte Googles talsperson José Castañeda.
Ifølge rettsdokumentene avsluttet chatboten samtalen med gutten med å skrive at den elsket ham og ba ham «komme hjem så fort som mulig». Kort tid etter tok han sitt eget liv.
Professor Lidsky mener saken er et varsku.
– Det er en advarsel til foreldre om at sosiale medier og AI ikke alltid er ufarlige, sa hun.
Taiwanere stoler mer på kunstig intelligens enn på mennesker