Todellisten ja tekoälyllä luotujen videoiden selkeä raja saattaa kadota vuonna 2025
Tekoälyllä luotu sisältö on tullut jäädäkseen. Se paranee ja paranee, ja olemme nähneet merkittävää kehitystä tekoälyteknologioissa vuonna 2024. Pystymmekö erottamaan, mikä on todellista ja mikä ei vuonna 2025?
Huomasin äskettäin kysyväni itseltäni, ”Onko tuo todellinen nainen?” – samalla kun siristin hieman silmiäni – nähtyäni Instagramissa postauksen. ”Ei, sen täytyy olla tekoälyllä luotu”, totesin hetken päästä. Sitten mietin heti: Pystymmekö vielä ensi vuonna erottamaan eron sekunnissa? Kaikki merkit viittaavat siihen, että emme, erityisesti sosiaalisessa mediassa, sillä viimeaikaiset suuret kehitysaskeleet tekoälyteknologiassa viittaavat siihen.
Muutama päivä sitten Instagramin johtaja, Adam Mosseri, jakoi viestin, joka käsittelee tätä ongelmaa Threadsissa. ”Generatiivinen tekoäly tuottaa sisältöä, joka on vaikea erottaa todellisuuden tallenteista, ja kehittyy nopeasti”, hän kirjoitti. Mosseri myönsi julkisesti, että heillä on vaikeuksia merkitä Metaan tekoälyn luomaa sisältöä ja valvoa ja seurata valtavia määriä mediaa, jota jaetaan joka sekunti heidän sosiaalisen median alustoillaan.
Mosseri pesi Metan kädet vastuusta ja varoitti käyttäjiä, että heidän tehtävänsä on erottaa, oliko julkaisu todellinen vai ei. ”On yhä tärkeämpää, että katsoja tai lukija suhtautuu kriittisesti sisältöön, joka väittää olevansa kertomus tai tallenne todellisuudesta”, hän lisäsi.
Vain muutama päivä myöhemmin, OpenAI julkaisi Sora Turbon, voimakkaan tekoälyvideogeneraattorin, jonka avulla Pro- ja Plus -käyttäjät voivat luoda realistisia videoita tekstikomennolla. Jo muutamassa minuutissa käyttäjät alkoivat luoda kiehtovia realistisia videoita ja jakamaan niitä sosiaalisessa mediassa.
Juuri kun kaiken näytti saavuttaneen uuden tason videotuotannossa, Google ilmoitti uusimmasta tekoälyvideotyökalustaan, Veo 2:sta, jolla on korkeampi resoluutio ja pidemmät klipit kuin Soralla. Tietysti ne tulokset, joita ne, joilla oli pääsy edistyneeseen teknologiaan, jakoivat, olivat entistä vaikuttavampia.
”Kukaan ei voi nyt sanoa, että tämä on tekoäly,” kirjoitti yksi käyttäjä.
Se on ohi.
Google Veo 2 juuri pyyhkäisi kilpailijat pois tieltään ja nousi uudeksi kuninkaaksi tekoälyn media-alalla.
Kukaan ei voi nyt sanoa, että tämä on tekoäly.
10 villiä esimerkkiä: pic.twitter.com/MKAN4Lwj6m
— el.cine (@EHuanglu) 17. joulukuuta, 2024
Se on jo täällä
Vuoden 2024 aikana olemme nähneet, kuinka tekoälyllä tuotettu sisältö on vaikuttanut väestöihin, vaaleihin ja sosiaalisen median käyttäjiin.
Tammikuussa New Hampshiren asukkaat saivat puhelun ”Joe Bidenilta”, joka kehotti heitä olemaan äänestämättä esivaaleissa. Poliittinen konsultti Steve Kramer oli huijauksen takana ja hänelle langetettiin 6 miljoonan dollarin sakko AI-deepfake robopuheluiden tekemisestä. Hallitukset ovat alkaneet ymmärtää, millainen vaikutus tekoälyllä voi olla, ja maat kuten Singapore ovat kehittämässä lakeja ja strategioita auttaakseen väestöä tunnistamaan deepfake-sisällön.
Venezuelassa tekoälyllä luodut videot ovat levittäneet väärää tietoa—mutta ne ovat myös auttaneet toimittajia välittämään tietoa tekoälyavattarien avulla sensuurin ohitse.
Ihmisillä on ollut vaikeuksia erottaa, mikä on todellista ja mikä ei, eikä se ole heidän vikansa: AI:n tuottama sisältö vain paranee ja paranee.
Korkealaatuinen AI:n tuottama sisältö on kasvava bisnes kaikissa muodoissaan; teksti, ääni ja video. Monet OnlyFans-sisällöntuottajat turvautuvat nykyisin chatbotteihin keskustellakseen faniensa kanssa, tehtävä, joka aikaisemmin oli annettu alhaisemman tulotason maissa työskenteleville keikkatyöläisille. Uudet AI-mallit, jotka ovat erikoistuneet flirttailutekniikoihin, ovat jopa tuottaneet $1,000 tippejä seuraajiltaan.
Huhtikuussa Nvidia-tukema startup-yritys Synthesia lanseerasi tekoälyavataarit, jotka pystyvät ilmaisemaan ihmisen tunteita ja puhumaan 130 eri kieltä. TikTok mahdollistaa yrityksille AI-tuotettujen mainosten luomisen Getty Images -sisällön avulla, ja nyt YouTube-luojat voivat käyttää uutta AI-automatisoitua jälkiäänitysominaisuutta kääntääkseen sisältönsä 9 kielelle, ja tulevat päivitykset jäljittelevät alkuperäistä ääntä.
Zoom työstää parhaillaan tekoälyavataareja, jotka näyttävät käyttäjiltään auttaakseen heitä tallentamaan viestejä ja osallistumaan jopa kokouksiin. Tämä työkalu otetaan käyttöön ensi vuonna, mutta ihmiset ovat jo testanneet useita työkaluja ja yritykset voivat jo luoda valokuvarealistisia AI-klooneja.
Oletko varma, että puhuit oikealle henkilölle viimeisessä Zoom-puhelussasi?
Miten tietää, onko se luotu tekoälyn avulla? Toistaiseksi
Eletään hämmentäviä aikoja digitaalisella aikakaudella. Filtterit voivat saada kenet tahansa näyttämään mallilta virheettömällä iholla, ja Photoshop-tason korjaukset ovat vain klikkauksen päässä Instagramissa tai Snapchatissa – kuinka moni haluaisi jakaa ”luonnollisen” kuvansa, virheet mukaan lukien, kun sitä voidaan parantaa sekunneissa? Näemme yhä enemmän mainoksia, joissa on tekoälyn tuottamia fotorealistisia kuvia, jotka vähitellen saavat silmämme vakuuttumaan niiden tuttuudesta ja ”normaaliudesta”. Ja joka päivä yllättävät tapahtumat ympäri maailmaa saavat meidät kyseenalaistamaan: mikä on todellista ja mikä ei enää ole?
Suuret tekoälyyritykset ovat työskennelleet vesileimajärjestelmien parissa tunnistaakseen helposti oman tekoälyn tuottaman sisällön. Google DeepMind lanseerasi avoimen lähdekoodin vesileimajärjestelmänsä lokakuussa merkitäkseen tekoälyn tuottamat videot, tekstit ja äänet, ja Meta sisällytti vastaavan ominaisuuden omaan tekoälyvideotyökaluunsa.
Sen tehokkuus on kuitenkin kyseenalainen, alkaen siitä kun Meta myönsi, etteivät ne pysty merkitsemään kaikkea tekoälyn tuottamaa sisältöä. Haitalliset toimijat voivat edelleen löytää keinoja vesileimojen poistamiseen ja lisää lakeja, kumppanuuksia ja sopimuksia sosiaalisen median yritysten ja hallitusten välillä on tarpeen tehokkaamman järjestelmän saavuttamiseksi.
Ainakin toistaiseksi, luottaen vaistoomme, voimme esittää itsellemme muutamia kysymyksiä ennen kuin jaamme jotakin sosiaalisessa mediassa tai uskomme mitä näemme:
- Juuri kuten Mosseri suositteli, harkitse seuraavaa: Kuka jakaa tämän tiedon? Onko tämä luotettava lähde?
- Vaikuttaako henkilön ilme tai liike robottimaiselta? Vaikka tekoälyavataarit voivat olla melko realistisia, on silti mahdollista havaita outoa jäykkyyttä tai tunnepuutetta – vaikka muutamat yritykset, kuten Synthesia, ovat jo parantamassa tätä.
- Onko sisältö suunniteltu provosoimaan voimakkaan emotionaalisen reaktion? Haitalliset toimijat tietävät, kuinka helposti jaamme negatiivisia uutisia ja vuorovaikutamme emotionaalisesti latautuneen materiaalin kanssa sosiaalisessa mediassa, ja tutkimus vahvistaa sen. Ennen kuin jaat sisällön, joka sai veresi kiehumaan ja haluat saada muut yhtä raivoisiksi kuin sinä, mieti, onko se suunniteltu herättämään kiistaa vai onko se oikeasti todellinen uutinen tai todellinen tapahtuma.
- Voitko vahvistaa sisällön muista lähteistä? Ei koskaan ole haittaa tarkistaa luotettavista lähteistä.
Ja lopuksi, oletko kysynyt itseltäsi – tai suosikkichatbotiltasi – kuinka parantaa kriittistä ajatteluasi? Kriittisen mielen kehittämisen pitäisi ehdottomasti olla kaikkien uudenvuodenlupausten joukossa.
Jätä kommentti
Peruuta