
Image generated with DALL·E through ChatGPT
Mielipide: Deepfake-huijaukset hyödyntävät rakkautta ja luottamusta ennennäkemättömällä tavalla
AI-ohjattujen huijausten määrä kasvaa, ja kyberrikolliset käyttävät syväväärennösteknologiaa luodakseen uskottavia videoita ja kuvia, joilla manipuloidaan uhreja. Ranskalaisesta naisesta, joka uskoi auttavansa Brad Pittiä, uhriin, joka uskoi korkealaatuiseen syväväärennökseen, todellisuuden ja petoksen rajat hämärtyvät. Kun AI-työkalut kehittyvät, niin myös riskit.
Monet meistä näkivät sen uutisissa tammikuussa: ranskalainen nainen menetti yli 850 000 dollaria huijareille, koska hän uskoi antavansa rahat Brad Pittille – miehelle, jonka hän luuli olleen suhteessa yli vuoden ajan.
Huijarit käyttivät edistynyttä generatiivista tekoälyä luodakseen ”selfieitä” ja sepittääkseen todisteita, onnistuen vakuuttamaan uhrinsa, Annen – 53-vuotiaan suunnittelijan, joka oli parhaillaan eroprosessissa – keksityn Pittin traagisesta tarinasta, jolla oli kiireellisiä lääketieteellisiä tarpeita. He väittivät, että hänen varansa olivat jäädytetty hänen eronsa vuoksi Angelina Jolielta.
Anne teki rohkean – ja riskialttiin – päätöksen jakaa tarinansa julkisesti, kohtaen miljoonittain pilkkaa, solvauksia ja virtuaalisia hyökkäyksiä. ”Kuin idiootti, maksoin… Joka kerta kun epäilin häntä, hän onnistui hälventämään epäilykseni,” hän sanoi ranskalaisessa Youtube-show’ssa, kuten BBC raportoi. ”Minut huijattiin, myönnän sen, ja siksi tulinkin julkisuuteen, koska en ole ainoa.”
Hän ei ole. Muutama kuukausi myöhemmin Espanjan poliisi pidätti 5 ihmistä, jotka huijasivat kahta muuta naista esiintymällä Pittinä. Muutama päivä sitten myös kiinalaismies joutui petoksen uhriksi, hän uskoi verkkotyttöystävänsä tarvitsevan rahaa lääkärikuluihin ja liiketoimintansa rahoittamiseen.
Uhrit saivat personoituja videoita ja valokuvia – kuvia, joita ei ollut saatavilla missään muualla verkossa – mikä vakuutti heidät entistä enemmän huijariensa monimutkaisista valheista.
Tuore Entrust-yrityksen raportti viittaa siihen, että Deepfake-yrityksiä tapahtuu joka 5. minuutti. Uusia tapauksia, joissa ihmiset ovat joutuneet generatiivisen tekoälyn huijaamiksi, tulee ilmi päivittäin – huolestuttava suuntaus, varsinkin kun ajatellaan tuhansia, ellei miljoonia, ihmisiä, jotka ovat velkaantuneet ja häpeissään eivätkä uskalla ilmoittaa siitä viranomaisille, saati tuoda sitä julkisuuteen.
DeepFake-huijaukset lisääntyvät
Useat tutkimukset ja raportit ovat hälyttäneet tekoälyn avulla toteutuvien petosten ja kyberhyökkäysten lisääntymisestä. Tuoreet tiedot TrustPairin 2025 Fraud Trends and Insights-raportista osoittivat 118% vuosittaisen kasvun tekoälypohjaisissa petoksissa, kertoo CFO.
Heippa, Hiya, amerikkalainen yritys, joka on erikoistunut ääniturvallisuus- ja suorituskykypalveluihin, julkaisi hiljattain kyselyn tulokset. Se paljasti, että 31% asiakkaista kuudessa maassa sai deepfake-puheluita vuonna 2024, ja 45% heistä joutui huijatuksi – 34% tästä ryhmästä menetti rahaa ja 32% joutui henkilökohtaisten tietojen varkauden kohteeksi. Keskimäärin uhrit menettävät yli 500 dollaria jokaisessa puhelinhuijauksessa.
Muutama päivä sitten The Guardian paljasti, että järjestäytynyt verkosto Georgiassa – Itä-Euroopassa – käytti väärennettyjä mainoksia Facebookissa ja Googlella huijatakseen yli 6000 ihmistä ympäri Eurooppaa, Kanadaa ja Britanniaa, tehden 35 miljoonan dollarin voiton toiminnallaan.
Noin 85 hyvin palkattua georgialaista huijaria käytti julkisuuden henkilöitä, kuten englantilaista toimittajaa Martin Lewisia, kirjailija-seikkailija Ben Foglea ja Elon Muskia huijauksiinsa. Huijarit mainostivat vääriä kryptovaluuttoja ja muita sijoitussuunnitelmia, saaden uhrit siirtämään rahaa digitaalisten pankkien, kuten Revolutin kautta – joka sai äskettäin pankkiluvan Iso-Britanniassa.
Edistynyt AI, yhä sofistikoituneemmat huijaukset
Kyberrikolliset ovat viime vuosina käyttäneet generatiivista tekoälyä hyödyntäen työkaluja, kuten ChatGPT:tä suunnitellakseen ja kääntääkseen sitouttavia sähköposteja ja tuottamaan vakuuttavaa tekstipohjaista sisältöä. Nyt kun tekoälyn työkalut kehittyvät, AI:n generoimien kuvien ja videoiden käyttö on lisääntynyt.
Muutama viikko sitten ByteDance esitteli uusimman AI-videotyökalunsa, OmniHuman-1:n, joka pystyy luomaan markkinoiden realistisimpia deepfakeja. Samaan aikaan useat AI-yritykset kehittävät vastaavia teknologioita. Näyttää siltä, että on vain ajan kysymys, milloin näitä työkaluja käytetään myös huijauksiin.
Vaikka näitä teknologioita voidaan käyttää ”hyvässä uskossa” ja jopa estämään huijausten lisääntymistä – kuten O2:n AI ’mummo’ Daisy, joka on suunniteltu osallistumaan huijareiden kanssa reaaliaikaisiin puheluihin ja häiritsemään heitä todellisista uhreista – niiden pahantahtoisen käytön seuraukset näyttävät mittaamattomilta.
Wizcasessa raportoimme äskettäin “Scam-Yourself Attacks” -hyökkäysten 614% noususta, jossa kerroimme, kuinka hakkerit käyttävät deepfake-teknologiaa saadakseen huijaussisällön näyttämään ”realistisemmalta”, sekä kuinka sosiaalisen median yritykset, kuten Meta, ovat joutuneet puuttumaan sikojen teurastushuijauksiin, koska moni uhka-aktööri käyttää näitä alustoja. Tutkimuksessa Meta huomasi, että monet huijaukset saavat alkunsa deittisovelluksista, mikä osoittaa, kuinka romanttinen rakkaus on yksi yleisimmistä syöteistä – nyt ja historiassa.
Rakkaus: Voimakas syötti
Kyberrikolliset eivät ole vain taitavia ymmärtämään ja käyttämään kehittynyttä tekoälyä – heillä on myös syvä ymmärrys ihmisälystä. Uhka-aktöörit osaavat tunnistaa haavoittuvuudet, rakentaa luottamusta ja esittää pyyntönsä juuri oikealla hetkellä.
Tutkimus Rakastatko minua? Romanttisiin huijauksiin lankeavien psykologiset ominaisuudet, jonka tohtori Monica T. Whitty julkaisi vuonna 2018, selittää, kuinka kansainväliset rikollisryhmät ovat toteuttaneet seurusteluun liittyviä romanttisia huijauksia jo monien vuosien ajan – jo ennen internetiä – ja kuinka keski-ikäiset, hyvin koulutetut naiset ovat todennäköisesti tämän tyyppisen huijauksen uhreja – aivan kuten Anne.
Mitä voimme odottaa nyt, kahdeksan vuotta tämän tutkimuksen jälkeen, science fiction -tyyppisen teknologian aikakaudella? Todennäköisesti olemme kaikki haavoittuvampia kuin luulemmekaan.
”Tämän tyyppisen petoksen uhrit ovat usein merkityksen etsijöitä, jotka ovat emotionaalisesti haavoittuvaisia”, kirjoitti Annie Lecompte, apulaisprofessori Quebecin yliopistossa Montrealissa (UQAM), hiljattain julkaistussa The Conversation -artikkelissa. ”Vaikka romanssipetosta pilkataan ja ymmärretään väärin, se perustuu monimutkaisiin psykologisiin mekanismeihin, jotka hyödyntävät uhrien luottamusta, tunteita ja haavoittuvuutta.”
Särkynyt sydän, tyhjä lompakko
Liu – kiinalaisen miehen sukunimi, joka menetti äskettäin 200 000 yuania, noin 28 000 dollaria, tekoälyllä toteutetussa huijauksessa – uskoi todella, että hänen tekoälyystävänsä oli todellinen, koska hän näki henkilökohtaisia valokuvia ja jopa videoita. Hän tunsi kasvavaa emotionaalista kiintymystä… huijareihinsa.
Vaikka hän ei antanutkaan lisätietoja raporttien kontekstista, toinen uhri, 77-vuotias Nikki MacLeod, teki niin. Hänkin luuli olevansa todellisessa suhteessa tekoälyystävänsä kanssa ja lähetti tälle 17 000 puntaa — noin 22 000 dollaria — pankkisiirtoina, PayPalin kautta ja lahjakortteina.
”En ole tyhmä ihminen, mutta hän onnistui vakuuttamaan minut siitä, että hän on todellinen henkilö ja että vietämme loppuelämämme yhdessä,” MacLeod kertoi BBC:lle.
MacLeod tunsi itsensä yksinäiseksi ja surulliseksi, kun hän tapasi Alla Morganin ryhmäkeskustelussa. Jonkin ajan kuluttua MacLeod pyysi live-videota, mutta Morgan sanoi, ettei se ollut mahdollista, koska hän työskenteli öljynporauslautalla. Kun MacLeod alkoi epäillä, Morgan alkoi lähettää realistisia videoita. ”Hän lähetti minulle videon, jossa hän sanoi ’Hei Nikki, en ole huijari, olen öljynporauslautallani’, ja vakuutuin täysin siitä,” MacLeod selitti. Sisältö on saatavilla BBC:n verkkosivuilla, ja on helppo ymmärtää, miksi MacLeod uskoi sen olevan aito – se on korkealaatuinen deepfake.
BBC pyysi kyberturvallisuuden ja ihmisen ja tietokoneen vuorovaikutuksen asiantuntijaa Abertay-yliopistosta, tohtori Lynsay Shepherdia, analysoimaan MacLeodille lähetetyt valokuvat ja videot. ”Ensivilkaisulla se näyttää aidoilta, jos et tiedä, mitä etsiä, mutta jos katsot silmiä – silmien liikkeet eivät ole aivan oikein,” sanoi tohtori Shepherd.
”Dokumentit näyttivät aidoilta, videot näyttivät aidoilta, pankki näytti aidolta,” sanoi MacLeod. ”Tekoälyn tullessa mukaan kuvioihin, jokainen asia voi olla väärennös.”
Jätä kommentti
Peruuta