Chicagon yliopiston Glaze ja Nightshade tarjoavat taiteilijoille suojaa tekoälyä vastaan
Kiire? Tässä ovat pikatiedot!
- Glaze ja Nightshade suojaavat taiteilijoiden töitä luvattomalta AI-koulutuskäytöltä.
- Glaze peittää kuvat estääkseen AI:n jäljittelemästä taiteilijan tyyliä.
- Nightshade häiritsee AI:ta lisäämällä “myrkytettyjä” pikseleitä, jotka turmelevat koulutusdataa.
Taiteilijat taistelevat hyväksikäyttäviä tekoälymalleja vastaan Glaze:n ja Nightshade:n, kaksi Ben Zhaon ja hänen tiiminsä University of Chicago’s SAND Labissa kehittämää työkalua, käyttäen. Asiasta raportoi tänään MIT Technology Review.
Nämä työkalut pyrkivät suojelemaan taiteilijoiden teoksia käytettäväksi ilman suostumusta tekoälymallien kouluttamiseen, käytäntö, jonka monet luojat näkevät varkautena. Glaze, joka on ladattu yli 4 miljoonaa kertaa sen julkaisun jälkeen maaliskuussa 2023, naamioi kuvia lisäämällä hienovaraisia muutoksia, jotka estävät tekoälyn oppimasta taiteilijan tyyliä, kertoo MIT.
Koiso, ”hyökkäävä” vastakohta, häiritsee edelleen AI-malleja tuomalla näkymättömiä muutoksia, jotka voivat vääristää AI:n oppimista, jos niitä käytetään koulutuksessa, kuten MIT on huomauttanut.
Työkalut saivat inspiraationsa taiteilijoiden huolenaiheista generatiivisen AI:n nopean nousun suhteen, joka usein turvautuu online-kuvien käyttöön uusien teosten luomiseksi. MIT raportoi, että fantasiakuvittaja Karla Ortiz ja muut luojat ovat ilmaisseet pelkonsa menettää elantonsa, kun AI-mallit jäljittelevät heidän erityyppisiä tyylejään ilman lupaa tai maksua.
Taiteilijoille verkossa julkaiseminen on olennainen osa näkyvyyttä ja tuloja, mutta monet ovat harkinneet työnsä poistamista välttääkseen sen kaapimisen tekoälyn koulutusta varten, mikä saattaisi haitata uraansa, kuten MIT on huomauttanut.
Nightshade, joka lanseerattiin vuosi Glazen jälkeen, tarjoaa aggressiivisemman puolustuksen, kertoo MIT. Lisäämällä kuvien sekaan ”myrkytettyjä” pikseleitä, se häiritsee tekoälyn koulutusta, saaden mallit tuottamaan vääristyneitä tuloksia, jos näitä kuvia kaavitaan.
Luumarjan symbolinen vaikutus on k resonoinut taiteilijoiden kanssa, jotka näkevät sen runollisena oikeudenmukaisuutena: jos heidän työnsä varastetaan tekoälyn koulutusta varten, se voi vahingoittaa juuri niitä järjestelmiä, jotka hyödyntävät sitä.
MIT väittää, että työkaluihin on suhtauduttu aluksi skeptisesti, koska taiteilijat ovat olleet huolissaan tietosuojasta. Tämän vuoksi SAND Lab julkaisi version Glazesta, joka toimii offline-tilassa, varmistaen, ettei tietojen siirtoa tapahdu ja rakentaen luottamusta niiden taiteilijoiden keskuudessa, jotka pelkäävät hyväksikäyttöä.
Laboratorio on äskettäin laajentanut saatavuuttaan yhteistyössä Caran kanssa, uuden sosiaalisen alustan, joka kieltää tekoälyn tuottaman sisällön, kuten MIT on huomauttanut.
Zhao ja hänen tiiminsä pyrkivät muuttamaan voimasuhteita yksittäisten luojien ja tekoälyyritysten välillä.
Tarjoamalla työkaluja, jotka suojaavat luovuutta suuryrityksiltä, Zhao toivoo voivansa valtuuttaa taiteilijoita säilyttämään hallinnan omasta työstään ja määrittelemään uudelleen eettiset normit AI:n ja tekijänoikeuksien ympärillä, sanoo MIT.
Pyrkimys saa vauhtia, mutta jotkut asiantuntijat varoittavat, että työkalut eivät ehkä tarjoa erehtymätöntä suojaa, kun hakkerit ja AI-kehittäjät tutkivat tapoja ohittaa nämä turvatoimet, kuten MIT on huomauttanut.
Nyt kun Glaze ja Nightshade ovat ilmaiseksi saatavilla, Zhaon SAND Lab jatkaa taistelua taiteellisen integriteetin puolesta AI-vetoisen sisällöntuotannon laajenevaa vaikutusta vastaan.
Jätä kommentti
Peruuta