Tekoälyn tuottamat virheet oikeudenkäyntiasiakirjoissa aiheuttavat lakimiehille oikeudellisia ongelmia

Photo by Saúl Bucio on Unsplash

Tekoälyn tuottamat virheet oikeudenkäyntiasiakirjoissa aiheuttavat lakimiehille oikeudellisia ongelmia

Lukuaika: 2 min

Eilen Reuters jakoi raportin, joka paljastaa, että tekoälyjen hallusinaatiot – virheet ja generatiivisten tekoälymallien luomat kuvitteelliset tiedot – aiheuttavat oikeudellisia ongelmia Yhdysvaltojen oikeusistuimissa.

Kiire? Tässä ovat tärkeimmät faktat!

  • Morgan & Morgan lähetti sähköpostin 1 000:lle asianajajalle varoittaen tekoälyn riskeistä.
  • Walmartin asianajajien äskettäinen myöntäminen tekoälyn käytöstä heidän tapauksissaan on herättänyt hälytyskelloja lakimiesyhteisössä.
  • Chatbot-harhojen käyttö oikeudenkäynnin lausunnoissa on tullut toistuvaksi ongelmaksi viime vuosina.

Tässä kuussa lakitoimisto Morgan & Morgan lähetti sähköpostiviestin, jossa varoitettiin yli tuhatta lakimiestä chatbottien käytön riskeistä ja tekoälyn luomista vääristä tapauksista.

Muutama päivä sitten kaksi lakimiestä Wyomingissa myönsi sisällyttäneensä oikeudenkäyntiin Walmartia vastaan keinotekoisella älykkyydellä (AI) tuotettuja väärennettyjä tapauksia, ja liittovaltion tuomari uhkasi rangaista heitä.

Joulukuussa Stanfordin yliopiston professori ja misinformaation asiantuntija Jeff Hancock syytettiin AI:n käytöstä oikeudenkäyntilausekkeiden väärentämiseen osana hänen lausuntoaan valtion vuoden 2023 laista, joka kriminalisoi syvän väärennöksen (deepfakes) käytön vaaleihin vaikuttamiseen.

Useita tällaisia tapauksia viime vuosien aikana on aiheuttanut oikeudellista kitkaa ja tuottanut lisävaivaa tuomareille ja oikeudenkäynnin osapuolille. Morgan & Morgan ja Walmart kieltäytyivät kommentoimasta asiaa.

Generatiivinen tekoäly on auttanut vähentämään lakimiesten tutkimusajanjaksoa, mutta sen harhakuvitelmat voivat aiheuttaa merkittäviä kustannuksia. Viime vuonna Thomson Reutersin kysely paljasti, että 63% lakimiehistä käytti tekoälyä työssään ja 12% teki niin säännöllisesti.

Viime vuonna Yhdysvaltain Asianajajaliitto muistutti 400 000 jäsentään asianajajien etiikkasäännöistä, jotka sisältävät vaatimuksen siitä, että asianajajien on pidettävä kiinni kaikista oikeudenkäynnin asiakirjoissaan olevista tiedoista. Tämä koskee myös tekoälyllä luotuja tietoja, vaikka ne olisivatkin tahattomia, kuten Hancockin tapauksessa.

”Kun asianajajat jäävät kiinni siitä, että he käyttävät ChatGPT:ta tai mitä tahansa generoivaa tekoälytyökalua luomaan viitteitä tarkistamatta niitä, se on puhtaasti ja yksinkertaisesti osaamattomuutta”, totesi Andrew Perlman, Suffolk-yliopiston oikeustieteellisen tiedekunnan dekaani Reutersille.

Muutama päivä sitten BBC jakoi myös raportin, jossa varoitettiin tekoälyn generoimista vääristä lainauksista ja tekoälytyökalujen ongelmista journalismissa.

Piditkö tästä artikkelista? Arvostele se!
Todella huono Melko huono Ihan ok Melko hyvä! Tosi hyvä!

Olemme innoissamme siitä, että pidit työstämme!

Mainitsisitko arvostettuna lukijanamme meidät Trustpilotissa? Se tapahtuu nopeasti ja merkitsee meille paljon. Kiitos, että olet mahtava!

Arvostele meidät Trustpilotissa
0 Arvostellut 0 käyttäjää
Otsikko
Kommentti
Kiitos palautteestasi
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Jätä kommentti

Loader
Loader Näytä lisää...