
Image generated with OpenAI
Mielipide: Tekeillä olevat tekoälymallit ovat mystisiä ”olentoja”, ja jopa niiden luojat eivät täysin ymmärrä niitä
Anthropicin äskettäinen tutkimus siitä, kuinka sen Claude 3.5 Haiku -malli toimii, lupaa mullistavia paljastuksia ja oivalluksen kipinän ymmärtäessämme, kuinka edistyneet tekoälyteknologiat toimivat. Mutta mitä he tarkoittavat, kun he sanovat, että LLM:t ovat ”eläviä organismeja”, jotka ”ajattelevat”?
Muutama päivä sitten Anthropic julkaisi kaksi tutkimuspaperia mullistavalla tutkimuksella siitä, kuinka suuret kielimallit (LLM:t) toimivat. Vaikka tekniset kehitykset olivat mielenkiintoisia ja merkityksellisiä, eniten huomioni kiinnitti tekoälyasiantuntijoiden käyttämä sanasto.
Tutkimuksessa On the Biology of a Large Language Model, tutkijat rinnastivat itsensä biologeihin, jotka tutkivat monimutkaisia “eläviä organismeja”, jotka ovat kehittyneet miljardien vuosien ajan.
“Samoin, vaikka kielen malleja tuotetaan yksinkertaisilla, ihmisen suunnittelemilla koulutusalgoritmeilla, näistä algoritmeista syntyvät mekanismit vaikuttavat olevan melko monimutkaisia”, kirjoittivat tiedemiehet.
Viime vuosina tekoälymallit ovat kehittyneet merkittävästi. Olemme seuranneet sen nopeaa kehitystä viime kuukausien aikana. Olemme nähneet, kuinka ChatGPT on siirtynyt tekstipohjaisesta mallista puhuvaksi kumppaniksi ja nyt moniulotteiseksi agentiksi, joka voi myös luoda häikäiseviä Studio Ghibli -tyylisiä kuvia.
Mutta, entä jos nykyiset rajanylittävät tekoälymallit saavuttavat tieteiskirjallisuuden tason kehittäessään niin edistyneitä päättelykykyjä, etteivät edes niiden luojat ymmärrä niiden prosesseja ja järjestelmiä? Tekoälyteknologioihin liittyy useita mysteerejä, jotka saattavat olla relevantteja tarkastella uudelleen tai sukeltaa syvemmälle vuonna 2025.
Tekoälymallien kammottava mustan laatikon paradoksi
Keskusteluja tekoälyn käyttöönotosta ja tekoälylukutaidosta käydään useita, ja niissä pohditaan, kuinka ne, jotka ymmärtävät generatiivisten tekoälymallien toiminnan, ovat vähemmän taipuvaisia pitämään chatbotteja ”ystävinään” tai ”taianomaisina” sovelluksina. Kuitenkin on olemassa toinen väittely – asiantuntijoiden ja teknologiaan paremmin perehtyneiden ihmisten keskuudessa – siitä, pitäisikö LLM:ää vertailla tai pitää itsenäisinä luomuksina. Jälkimmäiseen liittyy erityinen ainesosa, mysteeri nimeltään ”tekoälyn mustan laatikon paradoksi”, joka näyttelee keskeistä roolia keskustelussa.
Syväoppimisjärjestelmät on koulutettu tunnistamaan elementtejä ja trendejä samalla tavalla kuin ihmiset tekevät. Aivan kuten opetamme lapsille tunnistamaan kuvioita ja liittämään tiettyjä sanoja eri esineisiin, LLM:tä on koulutettu tekemään ainutlaatuisia yhteyksiä ja rakentamaan verkostoja, jotka muuttuvat yhä monimutkaisemmiksi niiden ”kasvaessa”.
Samir Rawashdeh, sähkö- ja tietokonetekniikan apulaisprofessori, erikoistuu tekoälyyn ja selittää, että aivan kuten ihmisen älykkyyden tutkimuksessa, on lähes mahdotonta todella nähdä, miten syvän oppimisen järjestelmät tekevät päätöksiä ja saavuttavat johtopäätöksiä. Asiantuntijat kutsuvat tätä ”mustan laatikon ongelmaksi”.
Tekoälyn mallit haastavat ihmisen ymmärryksen
Anthropicin äskettäinen tutkimus valaisi tekoälyn mustan laatikon tilannetta selittämällä, miten sen malli ”ajattelee” tietyissä skenaarioissa, jotka olivat aiemmin epäselviä tai jopa täysin vääriä. Vaikka tutkimus perustuu malliin Claude 3.5 Haiku, se antaa asiantuntijoille mahdollisuuden kehittää työkaluja ja analysoida samankaltaisia ominaisuuksia muissa tekoälyn malleissa.
”Tämän älykkyyden luonteen ymmärtäminen on syvällinen tieteellinen haaste, jolla on potentiaalia muovata käsitystämme siitä, mitä ’ajattelu’ tarkoittaa”, toteaa artikkeli, jonka Anthropicin tutkijat jakoivat.
Kuitenkin termi ”ajatella”, joka on annettu tekoälyteknologioille, suututtaa tiettyjä alalla olevia asiantuntijoita ja on osa tutkimuksen kritiikkiä. Eräs Reddit-käyttäjä selitti, miksi se ärsyttää joukkoa ihmisiä: ”Artikkelissa on paljon ihmisen kaltaistamista, joka sumentaa työn. Esimerkiksi se käyttää jatkuvasti sanaa ’ajatella’, kun sen pitäisi sanoa ’laskea’. Puhumme tietokoneohjelmistosta, emme biologisesta aivoista.”
Vaikka ”inhimillistetyt” termit auttavat ei-teknisiä ihmisiä ymmärtämään AI-malleja paremmin ja herättävät keskustelua yhteisössä, totuus on, että olipa meidän sanomme ”laskea” tai ”ajatella”, sama haaste säilyy: meillä ei ole täydellistä ymmärrystä tai täydellistä läpinäkyvyyttä siitä, miten LLM toimii.
Mitä odottaa edistyneiltä AI-malleilta lähitulevaisuudessa
Voitko kuvitella sivuuttavasi edistyneiden AI-teknologioiden, kuten ChatGPT:n, DeepSeekin, Perplexityn tai Clauden olemassaolon – nyt tai lähitulevaisuudessa? Kaikki merkit viittaavat siihen, ettei paluuta ole. Generatiiviset ja päättelykykyiset AI-mallit ovat jo muuttaneet arkielämäämme, ja ne vain jatkavat kehittymistään.
Lähes joka päivä WizCasella raportoimme uudesta kehityksestä teollisuudessa – uudesta tekoälymallista, uudesta tekoälytyökalusta, uudesta tekoälyyrityksestä – jolla on potentiaalia vaikuttaa suuresti yhteiskuntaamme. Ajatus siitä, että ottaisimme hetken tauon ensin ymmärtääksemme paremmin näitä edistyneitä malleja ja sitä, miten ne toimivat – tai jopa hieman hidastaisimme vauhtia – tuntuu mahdottomalta, ottaen huomioon tekoälykilpailun nopean tahdin ja hallitusten sekä maailman voimakkaimpien yritysten osallistumisen.
“Tekoälymallit vaikuttavat yhä enenevästi siihen, miten elämme ja työskentelemme, meidän on ymmärrettävä ne tarpeeksi hyvin varmistaaksemme, että niiden vaikutus on positiivinen”, sanoo Anthropicia paperissaan. Vaikka se saattaa kuulostaa hieman epärealistiselta, tutkijat pysyvät positiivisina: “Uskomme, että tuloksemme täällä ja niiden pohjalta syntyvä kehityksen suunta ovat jännittävä todiste siitä, että voimme kohdata tämän haasteen.”
Mutta kuinka nopeasti nämä löydöt todella voivat edetä? Artikkeli myös huomauttaa, että tulokset kattavat vain muutamia alueita ja erityistapauksia, eikä ole mahdollista tehdä yleisempiä johtopäätöksiä. Joten, todennäköisesti ei tarpeeksi nopeasti.
Sillä aikaa kun sääntelijät esittelevät toimenpiteitä, kuten EU:n tekoälylaki, vaatien enemmän läpinäkyvyyttä ja saaden suurilta teknologiayrityksiltä syytöksiä ja valituksia, että he muka hidastavat edistystä, voimakkaat tekoälymallit jatkavat kehittymistään.
Yhteiskuntana meidän on pyrittävä löytämään tasapaino näiden teknologioiden toiminnan ymmärtämisen syventämisen ja niiden käyttöönoton välillä tavalla, joka tuo merkityksellisiä etuja ja edistystä yhteisöillemme. Onko tämä mahdollista? Ajatus siitä, että vain rukoilemme tai toivomme, että nämä ”oliot” pysyvät ”eettisinä” ja ”hyvinä”, ei tunnu juuri nyt kovin kaukaa haetulta.
Jätä kommentti
Peruuta