„O mamă singură din Varșovia a devenit milionară datorită aplicației de blogger Mr. Best” – acesta este titlul videoclipului care circulă pe internet, care ar fi fost difuzat în programul de știri „19:30” de pe canalul TVP1. În videoclip, jurnalistul Marek Czes încurajează spectatorii să descarce o aplicație de jocuri de noroc.
Scurtul „raport” prezintă, de asemenea, presupusul câștigător la loterie și MrBeast, un popular YouTuber american, iar totul adaugă credibilitate imaginii PKO BP Bank și aplicației sale bancare. Videoclipul se termină cu o încurajare să faceți clic pe linkul încorporat și să „intrați în joc”.
Desigur, TVP nu a difuzat un reportaj despre o „mamă singură” care a câștigat milioane datorită aplicației de jocuri de noroc a unui YouTuber popular. Întregul material a fost alcătuit, infractorii cibernetici folosind tehnologia deepfake.
Videoclipurile generate de inteligență artificială vă permit să atribuiți orice cuvinte aproape oricui, chiar și celor pe care nu le-a spus niciodată. Singura condiție pentru crearea unor astfel de materiale este accesul la cele mai autentice înregistrări video și audio ale unei anumite persoane. Pe baza lor, inteligența artificială creează noi materiale.
– Explicație expertă de la ESET.
Escrocii folosesc imaginea unor oameni celebri pentru a atrage atenția potențialelor victime, pentru a le câștiga încrederea și apoi pentru a stoarce bani. Într-o astfel de înregistrare falsă, o celebritate poate încuraja, de exemplu, o investiție riscantă sau – ca și în cazul presupusului material cu Marek Czyż – instalarea unei aplicații cu malware încorporat în ea.
Scopul final al escrocilor este, de obicei, de a stoarce date sau bani de la utilizatorii nebănuiți, iar a profita de încrederea pe care o acordăm personalităților publice este o tactică cinică.
Deepfake folosind fotografia lui Marek Czyż Imagine: ESET
Tehnologia deepfake nu amenință doar celebritățile. „Ne-ar putea distruge reputația”
Cu doar câțiva ani în urmă, detectarea videoclipurilor și fotografiilor false era relativ ușoară, dar în timp a devenit mai dificilă. În prezent, este din ce în ce mai dificil să se determine dacă un anumit material este produsul inteligenței artificiale. Instrumentele de creare Deepfake sunt disponibile pentru fiecare criminal cibernetic.
– explică Kamil Sadkovsky, ESET Antivirus Lab Analyst.
Expertul atrage atenția și asupra faptului că frauda prin utilizarea imaginilor celebrităților este doar una dintre problemele asociate cu dezvoltarea tehnologiei deepfake. Un alt motiv este posibilitatea de a produce astfel de înregistrări cu participarea utilizatorilor privați.
Mulți oameni au postat materiale video de-a lungul anilor, care acum pot fi folosite pentru a ne fura imaginea și a crea declarații false. În acest fel, poți să-i înșeli pe cei dragi, de exemplu, și chiar să ne distrugi reputația. S-ar putea dovedi în curând că șantajul sau frauda prin filme vor fi la fel de frecvente ca așa-zisul furt al unui „nepot”.
– avertizează Sadkovski. „De aceea este atât de important să filtram cu atenție conținutul pe care îl postăm online și să verificăm informațiile, chiar și cu oameni pe care îi cunoaștem sau în care avem încredere”, adaugă el.
„Fanatic pe tot parcursul vieții. Cititor devotat. Jucător. Antreprenor extrem.”