
Photo by Saúl Bucio on Unsplash
Tekoälyn tuottamat virheet oikeudenkäyntiasiakirjoissa aiheuttavat lakimiehille oikeudellisia ongelmia
Eilen Reuters jakoi raportin, joka paljastaa, että tekoälyjen hallusinaatiot – virheet ja generatiivisten tekoälymallien luomat kuvitteelliset tiedot – aiheuttavat oikeudellisia ongelmia Yhdysvaltojen oikeusistuimissa.
Kiire? Tässä ovat tärkeimmät faktat!
- Morgan & Morgan lähetti sähköpostin 1 000:lle asianajajalle varoittaen tekoälyn riskeistä.
- Walmartin asianajajien äskettäinen myöntäminen tekoälyn käytöstä heidän tapauksissaan on herättänyt hälytyskelloja lakimiesyhteisössä.
- Chatbot-harhojen käyttö oikeudenkäynnin lausunnoissa on tullut toistuvaksi ongelmaksi viime vuosina.
Tässä kuussa lakitoimisto Morgan & Morgan lähetti sähköpostiviestin, jossa varoitettiin yli tuhatta lakimiestä chatbottien käytön riskeistä ja tekoälyn luomista vääristä tapauksista.
Muutama päivä sitten kaksi lakimiestä Wyomingissa myönsi sisällyttäneensä oikeudenkäyntiin Walmartia vastaan keinotekoisella älykkyydellä (AI) tuotettuja väärennettyjä tapauksia, ja liittovaltion tuomari uhkasi rangaista heitä.
Joulukuussa Stanfordin yliopiston professori ja misinformaation asiantuntija Jeff Hancock syytettiin AI:n käytöstä oikeudenkäyntilausekkeiden väärentämiseen osana hänen lausuntoaan valtion vuoden 2023 laista, joka kriminalisoi syvän väärennöksen (deepfakes) käytön vaaleihin vaikuttamiseen.
Useita tällaisia tapauksia viime vuosien aikana on aiheuttanut oikeudellista kitkaa ja tuottanut lisävaivaa tuomareille ja oikeudenkäynnin osapuolille. Morgan & Morgan ja Walmart kieltäytyivät kommentoimasta asiaa.
Generatiivinen tekoäly on auttanut vähentämään lakimiesten tutkimusajanjaksoa, mutta sen harhakuvitelmat voivat aiheuttaa merkittäviä kustannuksia. Viime vuonna Thomson Reutersin kysely paljasti, että 63% lakimiehistä käytti tekoälyä työssään ja 12% teki niin säännöllisesti.
Viime vuonna Yhdysvaltain Asianajajaliitto muistutti 400 000 jäsentään asianajajien etiikkasäännöistä, jotka sisältävät vaatimuksen siitä, että asianajajien on pidettävä kiinni kaikista oikeudenkäynnin asiakirjoissaan olevista tiedoista. Tämä koskee myös tekoälyllä luotuja tietoja, vaikka ne olisivatkin tahattomia, kuten Hancockin tapauksessa.
”Kun asianajajat jäävät kiinni siitä, että he käyttävät ChatGPT:ta tai mitä tahansa generoivaa tekoälytyökalua luomaan viitteitä tarkistamatta niitä, se on puhtaasti ja yksinkertaisesti osaamattomuutta”, totesi Andrew Perlman, Suffolk-yliopiston oikeustieteellisen tiedekunnan dekaani Reutersille.
Muutama päivä sitten BBC jakoi myös raportin, jossa varoitettiin tekoälyn generoimista vääristä lainauksista ja tekoälytyökalujen ongelmista journalismissa.
Jätä kommentti
Peruuta