Generatiivinen tekoäly herättää hälytystä tieteessä, kun väärennetty data uhkaa uskottavuutta
Kiire? Tässä pikatiedot!
- Generatiivinen tekoäly mahdollistaa realistisen, mutta kuitenkin väärennetyn tieteellisen datan ja kuvien nopean luomisen.
- Tutkijat kamppailevat tekoälyn luomien kuvien tunnistamisen kanssa, koska ilmeisiä manipuloinnin merkkejä puuttuu.
- Tekoälyn tuottamia kuvioita saattaa olla jo tieteellisissä julkaisuissa.
Tekoälyn luomat kuvat herättävät suurta huolta tutkijoiden ja kustantajien keskuudessa, sillä uudet generatiiviset tekoälytyökalut tekevät tieteellisen datan ja kuvien väärentämisestä huolestuttavan helppoa, kuten Nature-lehden tiedotteessa huomautetaan.
Tämä kehitys uhkaa akateemisen kirjallisuuden uskottavuutta, ja asiantuntijat pelkäävät tekoälyn luomien, sepitettyjen tutkimusten määrän kasvavan, ja niiden tunnistaminen saattaa olla vaikeaa.
Jana Christopher, kuvien eheysanalyytikko FEBS Pressissä Saksassa, korostaa, että generatiivisen tekoälyn nopea evoluutio herättää kasvavia huolia sen väärinkäyttömahdollisuuksista tieteessä.
”Ihmiset, jotka työskentelevät alallani – kuvien eheys ja julkaisuetiikka – ovat yhä huolestuneempia sen tarjoamista mahdollisuuksista,” Jane sanoi Nature-lehdelle antamassaan lausunnossa.
Hän huomauttaa, että vaikka jotkin lehdet saattavat hyväksyä tekoälyllä tuotetun tekstin tietyillä ohjeilla, tekoälyllä tuotetut kuvat ja tiedot nähdään ylittävän rajan, joka voisi vaikuttaa syvästi tutkimuksen eheyteen, kuten Nature-lehti on todennut.
Näiden tekoälyllä luotujen kuvien havaitseminen on muodostunut pääasialliseksi haasteeksi, Nature sanoo. Toisin kuin aikaisemmat digitaaliset manipulaatiot, tekoälyllä generoidut kuvat eivät usein sisällä tyypillisiä väärennöksen merkkejä, mikä tekee huijauksen todistamisesta vaikeaa.
Kuvatutkija Elisabeth Bik ja muut tutkijat ehdottavat, että tekoälyllä tuotettuja kuvioita, erityisesti molekyyli- ja solubiologiassa, saattaa jo olla julkaistussa kirjallisuudessa, kertoo Nature-lehti.
Työkaluja, kuten ChatGPT, käytetään nyt säännöllisesti luonnostelemaan artikkeleita, jotka tunnistaa tyypillisistä chatbot-lauseista, jotka on jätetty muokkaamatta, mutta tekoälyllä tuotettuja kuvia on paljon vaikeampi havaita. Vastauksena näihin haasteisiin teknologiayritykset ja tutkimuslaitokset kehittävät havaitsemistyökaluja, huomauttaa Nature.
Tekoälyllä toimivat työkalut, kuten Imagetwin ja Proofig, johtavat kehitystä kouluttamalla algoritmejaan tunnistamaan generatiivisen tekoälyn tuottaman sisällön. Proofigin toinen perustaja Dror Kolodkin-Gal kertoo, että heidän työkalunsa tunnistaa tekoälyn tuottamat kuvat 98 prosentin tarkkuudella, mutta hän huomauttaa, että ihmisen tekemä tarkistus on edelleen välttämätön tulosten vahvistamiseksi, kertoo Nature-lehti.
Julkaisualalla lehdet, kuten Science, käyttävät Proofigia alustavien tarkistusten tekemiseen käsikirjoituksiin, ja julkaisujätti Springer Nature kehittää omia työkalujaan, Geppettoa ja SnapShotia, tekstien ja kuvien epäsäännöllisyyksien tunnistamiseen, kertoo Nature-lehti.
Muita organisaatioita, kuten Kansainvälinen tieteellisten, teknisten ja lääketieteellisten julkaisijoiden yhdistys, käynnistää myös aloitteita paperitehtaiden torjumiseksi ja tutkimusetiikan varmistamiseksi, kuten Nature-lehti raportoi.
Asiantuntijat kuitenkin varoittavat, että kustantajien on toimittava nopeasti. Tieteellisen kuvamateriaalin tutkija Kevin Patrick pelkää, että jos toimet viivästyvät, tekoälyllä tuotettu sisältö voi muodostua vielä yhdeksi ratkaisemattomaksi ongelmaksi tieteellisessä kirjallisuudessa, kuten Nature-lehti raportoi.
Huolimatta näistä huolenaiheista, monet ovat toiveikkaita, että tulevaisuuden teknologia kehittyy havaitsemaan nykyiset tekoälyn luomat harhakuvitelmat, tarjoten pitkäaikaisen ratkaisun turvaamaan akateemisen tutkimuksen rehellisyyden.
Jätä kommentti
Peruuta