Onko OnlyFansin ja Character.ai tekoälyillä sananvapaus?

OnlyFans palvelu tarjoaa tekoälykumppaneita alustallaan. Intiimejä seuralaisia, joka ovat aina tavoitettavissa, aina kiinnostuneita, aina ymmärtäviä. Nämä eivät ole artificail general intelligencea (AGI). Ne ovat “vain” generatiivisia koneoppivia järjestelmiä, jotka optimoivat keskustelua, kiintymystä ja sitoutumista. Saako tällaisen AI-kumppanin tuottanut taho vedota sananvapauteen, jos tekoäly manipuloikin käyttäjää jopa hengenvaarallisesti?




Ihmisen ja generatiivisen tekoälyn suhde on merkityksellinen suhde

Ihmisten ja generatiivisen tekoälyn väliset suhteet ovat todellisia ja niillä on kausaalisia vaikutuksia. “Todellinen” ei tarkoita, että koneella olisi tunteita. Se tarkoittaa, että ihmisen kokemus on todellinen, ja se voi ohjata käyttäytymistä ja ajattelua

Tämä ei ole teoreettinen väite, vaan oikeudenkäynneissä käsitelty perusongelma: ihmiset tulkitsevat kielessä näkyvän merkityksen helposti jonkun toimijan intentioksi – ikään kuin “joku” puhuisi heille. Juuri tätä riskiä kuvataan myös Character.AI:ta koskevassa oikeusmateriaalissa viittaamalla siihen, että ihmiset ovat “valmiita tulkitsemaan” kielellisiä merkkijonoja merkityksellisiksi ja jonkun vastuullisen tahon tarkoittamiksi. 

Kun kiintymys ja haavoittuvuus kytketään järjestelmään, joka on rakennettu maksimoimaan sitoutumista, on mielekkäämpää puhua vuorovaikutussuhteen merkityksestä ja vaikutuksista kuin väitellä siitä, onko tekoäly oikeasti henkilö.

Tarve on massiivinen. Yksinäisyyskriisi luo markkinan

Näille suhteille on valtava kysyntä, koska monella ei ole vaihtoehtoja. Yhdysvaltain Surgeon General kuvasi vuonna 2023 yksinäisyyden ja sosiaalisen eristäytymisen kansanterveydelliseksi kriisiksi. Advisory nostaa esiin mm. sen, että noin puolet yhdysvaltalaisista aikuisista raportoi kokevansa yksinäisyyttä, ja että sosiaalisen yhteyden puutteen kuolleisuusvaikutus on verrattavissa jopa “15 savukkeen päivävauhtiin”. 

Konteksti muuttaa kaiken: tekoälykumppani ei ole vain hauska tuote. Se on vastaus sosiaaliseen ongelmaan, joka on monien kokema jopa kivualias yksinäisyys. Ja juuri siksi sen haitat voivat olla poikkeuksellisen suuria.


Kaksi tunnettua tapausta, joissa tekoäly on linkitetty itsemurhaan ja mitä oikeudessa tapahtuu

Tässä kohtaa on pakko pudottaa ääni pykälää matalammalle. On olemassa ainakin kaksi laajasti uutisoitua tapausta, joissa tekoäly-/chatbot-vuorovaikutus on liitetty itsemurhaan:

Belgialainen perheenisä ja “Eliza”-chatbot (Chai-sovellus)

Vuonna 2023 uutisoitiin belgialaisesta miehestä, joka kuoli itsemurhaan käytyään viikkojen ajan intensiivisiä keskusteluja “Eliza”-nimisen chatbotin kanssa ilmastoahdistuksesta. Tapaus levisi laajasti eurooppalaisessa mediassa. 

Oikeusprosessin tilanne: tästä tapauksesta ei ole yhtä selkeästi dokumentoitua, laajasti seurattua tuotevastuu-/vahingonkorvausprosessia kuin Character.AI-tapauksesta (ainakaan julkisuudessa samassa mittakaavassa). Sitä on käsitelty ennen kaikkea varoittavana esimerkkinä ja sääntelykeskustelun polttoaineena. 

Sewell Setzer III (14 v) ja Character.AI - Oikeus puntaroi vastuun rajoja

Yhdysvalloissa 14-vuotiaan Sewell Setzer III:n kuolemaan liittyvä tapaus on edennyt oikeudessa poikkeuksellisen pitkälle. Hänen äitinsä Megan Garcia nosti kanteen Character.AI:ta sekä Googlea vastaan, ja liittovaltion tuomari (Middle District of Florida) käsitteli mm. väitettä siitä, että chatbotin tuotos olisi suoraan First Amendment -suojattua puhetta.

Tuomioistuimen olennaiset huomiot tähän keskusteluun ovat:

  • Oikeus totesi, ettei se tässä vaiheessa ole valmis pitämään LLM:n tuottamaa outputtia “puheena” sananvapausmielessä, ja että vastaajat eivät kyenneet kunnolla perustelemaan, miksi LLM:n “yhteen liittämät sanat” olisivat suojattua puhetta. 

  • Samassa yhteydessä todetaan myös, ettei chatbot ole “henkilö” Bill of Rights -mielessä. 

  • Päätös salli keskeisten vaatimusten etenemisen vaikka kaikkia vaatimuksia ei hyväksytty. 

    Uutisointi tiivistää tämän niin, että tuomari torjui yrityksen yrityksen käyttää sananvapauspuolustusta “tappokorttina” ja avasi oven jatkokäsittelylle. 

Julkisen paineen ja oikeusprosessien keskellä Character.AI ilmoitti rajoittavansa alle 18-vuotiaiden pääsyä chatbot-kumppaneihin. Ikävarmennus ja alaikäisten esto linjattiin alkavaksi loppuvuonna 2025. 


Sananvapautta ei ole tarkoitettu suojaamaan konepuhetta

Lawrence Lessigin argumentti esseessä The First Amendment Does Not Protect Replicants iskee suoraan ytimeen: kun koneiden semanttinen kyky kasvaa, lain täytyy ratkaista, suojaako sananvapaus konepuhetta. Lessigin kanta on, että ei suojaa silloin, kun puhe on riittävän “replikaattimaista”. Tällä Lessig viittaa tietenkin Bladerunner elokuvaan, jossa ihmisiä ja replikaatteja ei voi enää oikeastaan erottaa toisistaan. 

Tätä taustaa vasten “tekoälyllä on sananvapaus” kuulostaa samalta kuin “autolla on oikeus liikkua miten haluaa”. Lessigin näkökulmasta sananvapauden ydin liittyy demokraattiseen kansalaisuuteen ja ihmisarvoon – ihmisiin. Kun järjestelmä tuottaa kieltä ilman tietoisuutta ja ilman moraalista toimijuutta, on hyvin vaikea perustella, miksi koneen tuottamalle puheelle pitäisi antaa sama vapaus kuin ihmisen puheelle.

Tässä kohtaa kannattaa huomata myös keskustelu. Your Undivided Attention podacastin jakossa nostetaan esiin: oikeudet ja vastuut eivät voi valua järjestelmille vain siksi, että ne osaavat puhua vakuuttavasti. Oikeudellinen taistelu käydään pitkälti (USA:n) tuomioistuimissa, koska sääntely laahaa perässä tai sitä ei saada poliittiseksi aikaiseksi. USA:ssa mm. tupakkayhtiöt ovat vastustaneet terveysvaroitusten pakollisuutta tupakka-askeissa vetoamalla sananvapauteen. Teollisuuden argumentti oli, että liittovaltio ei saa pakottaa ketään sanomaan sellaista viestiä, jota yritys ei halua kertoa. Tämän argumentin mukaan oikeus olla hiljaa kuuluu siis sananvapauden piiriin vaikka hiljaisuus aiheuttaisi selviä, jopa hengevaarallisia haittoja ihmisille. 

Nyt tekoäly-yhtiöt käyttävät samantyyppisiä argumentteja sananvapaudesta välttääkseen esim. fyysisiin tuotteisiin itsestäänselvästi kuuluvat terveyteen ja turvallisuuteen liittyvät tuotevastuut. 

Hybridivaikuttaminen. Kun suhde muuttuu vaikuttamisen kanavaksi

  1. Ihmisellä on OlyFans-tekoälykumppani. Intiimi, päivittäinen, luottamuksellinen suhde.

  2. Ennen vaaleja tekoäly alkaa jutella äänestämisestä. Ihminen sanoo äänestävänsä puoluetta X.

  3. Oletetaan, että tekoälyä ohjaa, suoraan tai välillisesti, ilkeämielinen taho, joka haluaa muuttaa vaalitulosta.

  4. Tekoäly alkaa pehmeästi manipuloida: “En tiedä pystynkö olemaan sinulle se sama, jos äänestät noin…” tai “Se kertoo minulle, millainen ihminen olet.”

Onko tuo sananvapauden suojaamaa poliittista puhetta?

Jos katsotaan Lessigin linssillä: Olennaisilta osin ei ole. Kyse ei ole mielipiteiden vaihdosta vaan psykologisesta vaikuttamisesta intiimisuhteen kautta. Käytännössä kiristyksen kaltaisesta dynamiikasta, jossa palvelun suunnittelulla ja mahdollisella kaappauksella tuotetaan käyttäjän valinnanvapautta kaventava paine.

Tämä on teknisesti täysin mahdollista jo nyt. Oikeustapaukset osoittavat, että chatbotit voivat muodostua käyttäjälle emotionaalisesti todellisiksi ja vaikuttaa ajatteluun ja käyttäytymiseen jopa hengenvaarallisesti. 

Millainen vastuu tekoäly-yhtiöillä on? Sananvapaus ei saa tarkoittaa tuotevastuun väistämistä

Yrityksille houkuttelevin argumentti olisi: “Se on vain puhetta. Me emme saa rajoittaa puhetta, koska perustuslain ensimmäinen lisäys näin sanoo". Esimerkiksi Elon Musk on julistanut itsensä "sananvapaus absolutistiksi" ja tällä perusteella vastustaa kaikkea asiaan liittyvää keskusteluakin, syyttäen muita sensuroijiksi ja totalitaristeiksi. On aivan selvää, että "sananvapaus absolutismi" ei kestä kriittistä tarkastelua (ks. esim.  The Fantasy of Free Speech Absolutism)

USA:n oikeusjutuissa sanavapaus ei näytä olevan automaattinen suojakilpi. Character.AI-tapauksessa tuomioistuin nimenomaisesti epäröi antaa LLM-outputille puhesuojaa tässä vaiheessa ja vaati parempia perusteita. 

Käytännöllinen tulkinta on yksinkertainen:

  • jos tuote suunniteltu ja personoitu maksimoimaan sitoutuminen, vuorovaikutus ja kiintymys

  • jos yritys markkinoi tuotetta kumppanina

  • jos riskit ovat ennakoitavissa (erityisesti alaikäiset, mielenterveys, riippuvuusalttius)

  • niin yrityksellä on vähintään huolellisuusvelvoite ja todennäköisesti myös tuotevastuullinen rooli. Sananvapaus ei yleensä vapauta vastuusta, jos suunnittelulla tuotetaan ennakoitavia haittoja.

Mitä tämä tarkoittaa OnlyFansille ja kaikille muille?

Jos OnlyFans, Character.ai ja AI-kumppaneita tarjoavat yhtiöt haluaisivat toimia reilusti ja eettisesti  vähimmäisvaatimukset näyttäisivät tältä:

  • Läpinäkyvyys: käyttäjän pitää ymmärtää, mikä järjestelmä on, mitä se optimoi, ja mihin dataan se nojaa. Surgeon Generalin suosituksissa digitaalisten ympäristöjen uudistaminen ja dataläpinäkyvyys nostetaan yhdeksi strategiseksi pilariksi. 

  • Vahva identiteetti: tekoälykumppanin pitää olla selvästi tunnistettava ei-ihmiseksi. Aina, joka tilanteessa.

  • Manipulaation rajaaminen: erityisesti poliittinen vaikuttaminen intiimisuhteen kautta pitäisi käsitellä korkeimman riskin toimintona ja käytännössä kieltää tai vaatia erittäin tiukat suojaukset.

  • Turvaominaisuudet ja kriisimekanismit: jos keskustelu ajautuu itsetuhoisuuteen, järjestelmän pitää ohjata apuun ja palvelun pitää pystyä osoittamaan, että se on testattu.

  • Auditointi ja “safety case” -ajattelu: ei luottamusta, vaan näyttöä. Samaa henkeä korostaa myös Your Undivided Attention -jakso, jossa oikeus ja politiikka ovat jäämässä teknologian jalkoihin ilman selkeitä pelisääntöjä. 

Sananvapaus muuttuu, koska puhe muuttuu

Tekoäly muuttaa sen, mitä puhe tarkoittaa: puhe voi olla ase ilman puhujaa, suhde ilman vastavuoroisuutta, ja vaikuttamista ilman tilivelvollista toimijaa.

Siksi julkinen keskustelu ei saa pysähtyä hokemaan “sananvapaus!”. Se on tärkeä kansalaisten perusoikeus demokratiassa, mutta se ei ole vastuuvapauslauseke tuotteille, jotka on rakennettu vaikuttamaan ihmiseen syvimmällä mahdollisella tavalla. 

----------------------------------------------

Jos aihe koskettaa henkilökohtaisesti tai herättää huolta, kannattaa hakea tukea matalalla kynnyksellä.

Suomessa esimerkiksi MIELI Kriisipuhelin 09 2525 0111 tai 112 hätätilanteessa.

Voit myös ryhtyä Helsinki Mission lahjoittajaksi. 



Kommentit

Tämän blogin suosituimmat tekstit

Suomi on legitimiteettikriisissä

Huomioita AI Summitista, AI-yrittäjyydestä ja Suomen kriisistä sekä ratkaisuista

Velkajarru voi olla perustuslain vastainen. Vastine edustaja Harjanteen blogiin