Googlen tekoälymalli Euroopan tutkinnan kohteena
Tietosuojavaltuutettu (DPC) on ilmoittanut tänään aloittavansa tutkimuksen Googlesta selvittääkseen, noudattiko yhtiö EU:n tietosuojalakeja kehittäessään tekoälymalliaan, Pathways Language Model 2 (PaLM 2).
PaLM2 on laaja kielen malli, jota käytetään erilaisissa tekoälypalveluissa, mukaan lukien sähköpostien tiivistelmät. Google on ilmoittanut tekevänsä yhteistyötä tutkimuksen kanssa, kuten AP on huomauttanut.
Tutkimuksessa arvioidaan, olisiko Googlen pitänyt suorittaa tietosuojaseurauksien arviointi (DPIA) arvioidakseen mahdolliset riskit yksilöiden oikeuksille ja vapauksille sen tekoälyteknologioiden osalta.
Tämä tutkimus on osa DPC:n laajempia ponnisteluja varmistaa tietosuojasääntöjen noudattaminen tekoälysektorilla koko Euroopassa. Erityisen tarkastelun alla on rajat ylittävä käsittely, joka tarkoittaa tietojen käsittelyä useissa EU-maissa tai yksilöiden vaikuttamista useissa kansakunnissa.
Generatiiviset tekoälytyökalut, jotka tunnetaan vakuuttavan mutta väärennetyn tiedon tuottamisesta ja henkilökohtaisten tietojen käyttöönottamisesta, aiheuttavat merkittäviä laillisia riskejä, kuten TechCrunch on huomauttanut. DPC, joka on vastuussa Googlen yleisen tietosuoja-asetuksen (GDPR) noudattamisen varmistamisesta.
Tätä tarkoitusta varten DPC voi määrätä sakkoja jopa 4%:n suuruudelta Googlen emoyhtiön Alphabetin globaalista vuosittaisesta liikevaihdosta rikkomusten vuoksi, kuten TechCrunch on raportoinut.
Google on kehittänyt joukon generatiivisia tekoälytyökaluja, mukaan lukien sen Gemini-sarjan laajoja kielimalleja (aiemmin Bard), joita käytetään erilaisiin sovelluksiin, mukaan lukien verkkohaun parantaminen tekoälykeskustelurobottien avulla, TechCrunch huomauttaa.
Näiden työkalujen ydin on Google’n PaLM2, perustavanlaatuinen LLM, joka lanseerattiin viime vuoden I/O-kehittäjäkonferenssissa, TechCrunch kertoi.
Viime kuussa Elon Muskin X joutui myös Euroopan sääntelijöiden tarkastelun kohteeksi sen käyttäessä käyttäjien tietoja tekoälyn koulutukseen. DPC aloitti tutkimuksen saatuaan valituksia siitä, että X syötti käyttäjien tietoja Grok-tekoälyteknologiaansa hankkimatta asianmukaista suostumusta. Vaikka X on suostunut rajoittamaan tietojenkäsittelyään, se ei ole joutunut minkäänlaisten sanktioiden kohteeksi.
Tämä tutkimus on osa DPC:n laajempia pyrkimyksiä säännellä henkilötietojen käyttöä tekoälyn kehittämisessä koko Euroopan unionissa. EU:n äskettäinen tekoälylainsäädännön hyväksyminen merkitsee merkittävää askelta kohti AI-teknologioiden sääntelykehikkoa unionin alueella.
Jätä kommentti
Peruuta