Mielipide: Teokoälyn aiheuttama harhakuvitelmien epidemia, kriisi johon emme ole valmiita

Image generated with DALL·E through ChatGPT

Mielipide: Teokoälyn aiheuttama harhakuvitelmien epidemia, kriisi johon emme ole valmiita

Lukuaika: 6 min

Huolimatta jatkuvista lupauksista vähentää tekoälyn harhaluuloja, suuret tekoälytyökalut – ChatGPT:stä Perplexityyn, Geminiin ja Apple Intelligenceen – tuottavat edelleen väärää tietoa, usein hälyttävin seurauksin. Asiantuntijat, mukaan lukien ne, jotka varoittavat tekoälyn riskeistä, ovat langenneet keksittyyn sisältöön, ja jopa edistyneet työkalut, kuten Deep Research, keksivät raportteja. Totuus näyttää jäävän ihmiskäsiin

Chatbotit ovat parantuneet vuosien varrella – paljon paremmiksi. Kuitenkin on yksi ongelma, jota ei ole vielä täysin ratkaistu ja jota kutsutaan ”harhaluuloiksi”.

Rakastetut chatbotimme jakavat loistavia vastauksia kysymyksiimme tieteiskirjallisuuden Yodan päättäväisyydellä ja auktoriteetilla, vaikka ne olisivatkin pahasti väärässä. Ja me uskomme niitä. Joskus sokeasti.

Useat tiedemiehet, asiantuntijat ja jopa chatbotien kehittäjät ovat varoittaneet harhoista jo vuosien ajan. Silti, vaikka chatbottien käyttö on levinnyt nopeasti—OpenAI raportoi 400 miljoonasta viikoittaisesta aktiivisesta käyttäjästä vain muutama päivä sitten—tekoälyn lukutaito ei ole pysynyt mukana.

Tuoreet tutkimukset, oikeustapaukset ja dramaattiset tapahtumat osoittavat jatkuvasti, että väärä tieto on vielä vaarallisempaa kuin olemme tajunneet.

Se on pahempaa kuin luulemmekaan

Aluksi suurten tekoälyllä tuotettujen virheiden huomaaminen oli melko huvittavaa – kuten ne nolot tekoälyn tuottamat yleiskatsaukset, joita Gemini ehdotti, suositellen käyttäjille, että he lisäisivät ”myrkytöntä liimaa kastikkeeseen” pizzareseptiin tai suosittelisivat syömään ”yksi pieni kivi päivässä” viime vuonna. Mutta kun olemme palauttaneet luottamuksemme tekoälyyn, tilanne on eskaloitunut ja muuttunut yhä huolestuttavammaksi.

Joulukuussa näimme, kuinka Applen tekoälytyökalu loi otsikoita ”tiivistämällä” uutisia ja tuotti väärää ja harhaanjohtavaa tietoa, kuten väitti virheellisesti, että BBC olisi ilmoittanut Luigi Mangionen ampuneen itsensä. Tämän tapauksen jälkeen julkaisija teki valituksen Applea vastaan ja alkoi tutkia generatiivisen tekoälyn tarkkuutta uutissisällön analysoinnissa.

BBC:n tulokset, jotka julkaistiin vain muutama päivä sitten, paljastivat huolestuttavia tilastoja: 51% suosittujen tekoälykeskustelurobottien antamista vastauksista sisälsi merkittäviä ongelmia, 13% malleille antamista sitaateista oli täysin keksittyjä, ja 19% tiedoista oli virheellisiä.

Teini-ikäiset ovat yksi eniten vaikutuksen alaisista väestöryhmistä, koska heillä on usein vaikeuksia erottaa valeuutisia todellisista uutisista, ja heihin voi helposti vaikuttaa tekoälyn tuottaman sisällön avulla. Tutkimus, joka julkaistiin tammikuussa osoitti, että 35% teini-ikäisistä on joutunut harhaanjohtavan sisällön kohteeksi, jonka tekoälymallit ovat tuottaneet, ja 22% jakoi valeinformaatiota.

Mutta ei ole vain teini-ikäiset ja hajamieliset ihmiset, jotka lankeavat näihin harhanäkyihin. Eikä kyse ole vain Geministä tai Apple Intelligencesta.

Mikään tekoälymalli ei ole turvassa, mikään toimiala ei ole suojassa

BBC:n suorittama tutkimus vahvistaa toisen ongelman: kaikki tekoälymallit hallusinoivat. Asiantuntijat tarkastelivat suosituimpia malleja, kuten ChatGPT:tä, Geminia, Perplexitya ja Copilotia. Yksikään tekoälymalli ei ole vapaa virheistä. Anthropicilla on sivu, joka käsittelee tätä ongelmaa ja ehdottaa ideoita hallusinaatioiden vähentämiseen.

“Jopa kaikkein edistyneimmät kielimallit, kuten Claude, voivat joskus tuottaa tekstiä, joka on tosiasioissa virheellistä tai ei ole yhteneväinen annetun kontekstin kanssa,” toteaa asiakirja. Muut tekoälyyritykset ovat jakaneet samankaltaisia sivuja vinkkeineen ja nikseineen väärän sisällön välttämiseksi, mutta se ei ole niin helppoa ja se on ollut ratkaisematon ongelma jo pitkään.

Vuonna 2023 OpenAI ilmoitti työskentelevänsä uusien innovatiivisten tapojen parissa päästä eroon harhoista. Spoilerivaroitus: se on edelleen valtava ongelma tänään.

Tammikuussa 2024—yli vuosi sitten—toimitusjohtaja Aravind Srinivas kertoi, että Perplexityn harhat ilmenivät pääasiassa maksamattomissa tileissä. ”Suurin osa valituksista tulee tuotteen ilmaisversiosta”, Srinivas selitti, lisäten, että he toivat jo lisää GPU:ita korjaamaan ongelman. Kuitenkin lokakuuhun mennessä New York Post ja Dow Jones olivat haastaneet Perplexityn oikeuteen—koska niiden malli jatkoi väärän tiedon liittämistä julkaisuihinsa—, ja Yhdysvaltain vaaleja varten kehitetty tekoälytyökalu testattiin asiantuntijoiden toimesta, jotka paljastivat epäjohdonmukaisuuksia, epätarkkoja yhteenvetoja ja harhoja.

Harhatauti saavuttaa tieteellisen ja akateemisen tason

Yksi suurimmista huolenaiheista juuri nyt on, että jopa asiantuntijat – mukaan lukien ne, jotka varoittavat tekoälyn riskeistä ja vaaroista – ovat langenneet näihin harhakuvioihin taipuvaisiin työkaluihin.

Joulukuussa Stanfordin professori ja teknologia- ja disinformaatioasiantuntija Jeff Hancockia syytettiin oikeudenkäyntilausunnon muokkaamisesta tekoälyllä. Hancock jätti 12-sivuisen selityksen puolustaakseen osavaltion vuoden 2023 lakia, joka kriminalisoi syväväärennösten käytön, mukaan lukien 15 viitettä. Kuitenkin kaksi näistä viitteistä ei löytynyt mistään – koska ChatGPT, disinformaatioasiantuntijan suosima tekoälytyökalu, oli vain keksinyt ne.

Hancock, joka on tänä vuonna opettamassa ”Totuus, luottamus ja tekniikka” -kurssia, selitti käyttäneensä OpenAI:n chatbotia lähdeviitteidensä järjestämiseen, mikä johti harhoihin. Tutkija pyysi anteeksi—ja puolusti julistuksensa olennaisia kohtia—ja opetti meille kaikille arvokkaan opetuksen siitä, että jopa asiantuntijat ja AI-riskien parhaiten tuntevat henkilöt ovat alttiita sille.

Professori Hancock ei ole ainoa, joka on jättänyt oikeudessa asiakirjoja, jotka sisältävät AI:n generoimia sepitteitä. Toinen tapaus, joka koski oikeusjuttua Walmartia vastaan, levisi äskettäin laajalti, koska asianajajat käyttivät AI:n luomia vääriä tapauksia argumenttinsa rakentamiseen. Itse asiassa, ongelma on niin yleinen Yhdysvaltojen oikeusistuimissa, että asianajotoimisto Morgan & Morgan lähetti äskettäin sähköposteja yli 1 000 asianajajalleen, varoittaen heitä AI:n generoimien viittausten käytön riskeistä, ja Amerikan asianajajaliitto muistutti 400 000 jäsenelleen asianajajien etiikkasäännöistä—mukaan lukien AI:n tuottama tieto.

Syvällistä tutkimusta myös

Yksi suosituimmista tekoälytyökaluista juuri nyt on ”Deep Research”, joka on suunniteltu asiantuntijoille ja tutkijoille, jotka etsivät monimutkaisempia tuloksia tutkimuksissaan. Harhat eivät ole poissa tästä työkalusta, vaikka OpenAI:n versio vaati alun perin 200 dollarin Pro-tilauksen pääsyä varten.

Käyttäjät Redditissä ovat ilmaisseet huolensa tästä ongelmasta, raportoiden kaikkien suosittujen mallien, jotka sisältävät deep research -työkaluja—Perplexity, ChatGPT ja DeepSeek—luoneen harhoja. Tutkijat ja tekoälyasiantuntijat ovat myös jakaneet huolestuttavia tuloksia muilla sosiaalisen median alustoilla, kuten X:ssä.

”Työkalu tuotti kauniisti kirjoitetun ja perustellun raportin”, kirjoitti eräs käyttäjä, joka käytti OpenAI:n Deep Research -työkalua nuorten tekemän matematiikan tutkimiseen. “Ainoa ongelma on, että kaikki on keksittyä.”

”Deep Research keksi joukon tilastoja ja analyyseja, väittäen kokoavansa tietokantaa tuhansista artikkeleista, ja muka keräten jokaisen kirjoittajan syntymävuoden luotettavista lähteistä”, jakoi toinen. “Mikään tästä ei ole totta.”

Totuus on edelleen ihmisten käsissä

Lopettavatko keskustelurobotit koskaan harhakuvitelmansa? AI:n heikkous on ollut ilmeinen jo vuosia – näimme sen podcasteissa, kuten Planet Money, kun he testasivat tekoälyllä tuotettuja jaksoja vuonna 2023, ja me näemme sen edelleen edistyneimmissä malleissa, jopa niissä, jotka on suunniteltu vain asiantuntijoiden ja teknisesti taitavien yhteisöjen käyttöön.

Ehkä on aika hyväksyä, että tämä pysyy ongelmana ja ymmärtää, että meidän on otettava vastuu siitä, mitä luomme ja jaamme käyttäen tekoälytyökaluja.

Vaikka tämä vaikuttaakin hyvin tunnetulta ongelmalta, on huolestuttavaa, että itse tekoälyn riskiasiantuntijatkin lankeavat tekoälyn sujuvan ja vakuuttavan kirjoittamisen uhreiksi. Tilanne muuttuu entistä monimutkaisemmaksi, kun sovellusten käyttöönotto jatkaa kiihtymistään täydellä vauhdilla, ylittäen digitaalisen lukutaidon, samalla kun ristiriidat ja keksityt viittaukset lisääntyvät.

Tapaukset, joissa tekoälyn hallusinaatiot on paljastettu, ovat yleensä niitä, joissa faktantarkistus on elintärkeää—jotain, mistä Zuckerbergin pitäisi nyt muistuttaa itseään, kun hän on lopettanut faktantarkistusosastonsa. Tämä on erityisen ilmeistä oikeussaleissa, joissa lakimiehet ja tuomarit työskentelevät faktojen ja tapausten varmistamiseksi, sekä uutismediassa, jossa tarkkuus ja lähteiden validointi ovat tärkeitä.

Entä mitä tapahtuu tapauksissa, joissa kukaan ei tarkista näitä yksityiskohtia? Mitä tapahtuu jokapäiväisissä, henkilökohtaisemmissa yhteyksissä? Juuri nyt miljoonat opiskelijat opettelevat ulkoa tekoälyn tuottamia vastauksia opintojaan varten, käyttäjät noudattavat tekoälyn antamia ohjeita vaivojen hoitamiseksi, ja toiset opiskelevat uusia aiheita luottaen täysin teknologiaan.

Tämän uuden todellisuuden, jota kohtaamme, seuraukset ovat mittaamattomat ja arvaamattomat, ja totuus – ainakin toistaiseksi – on niiden käsissä, jotka ottavat aikaa kyseenalaistaa ja varmistaa.

Piditkö tästä artikkelista? Arvostele se!
Todella huono Melko huono Ihan ok Melko hyvä! Tosi hyvä!

Olemme innoissamme siitä, että pidit työstämme!

Mainitsisitko arvostettuna lukijanamme meidät Trustpilotissa? Se tapahtuu nopeasti ja merkitsee meille paljon. Kiitos, että olet mahtava!

Arvostele meidät Trustpilotissa
0 Arvostellut 0 käyttäjää
Otsikko
Kommentti
Kiitos palautteestasi
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Jätä kommentti

Loader
Loader Näytä lisää...