Immagini generate con l'AI che ritraggono mostri antropomorfi che fanno e dicono cose senza senso. Nati su TikTok Italia, hanno accumulato milioni di visualizzazioni e condivisioni in tutto il mondo. E nessuno ha ancora capito perché.
In Usa i truffatori usano l’AI per imitare le voci dei parenti delle persone e farsi dare soldi
In tanti non hanno ancora deciso da che parte stare, ma il mondo si divide sempre di più in chi considera l’intelligenza artificiale un’opportunità e chi una minaccia. Il reportage pubblicato dal Washington Post il 5 marzo sarà sicuramente piaciuto ai detrattori dell’AI, perché fornisce una prova del suo potenziale negativo, l’ennesima dimostrazione di come, in mano a persone cattive, l’intelligenza artificiale può diventare uno strumento pericoloso. Secondo quanto riportato da Pranshu Verma, è emerso che nel 2022 tantissime persone sono state imbrogliate da individui che sono riusciti a riprodurre tramite AI la voce dei loro cari per ottenere prestiti in denaro, riuscendo a sottrarre a coppie e famiglie migliaia di dollari.
A quanto pare, i software di generazione vocale AI richiedono solo poche frasi audio per produrre in modo convincente un discorso che riproduca il suono e il timbro emotivo della voce di chi parla: per le persone prese di mira, che come spesso accade quando si tratta di queste orribili truffe (pensiamo a Wanna Marchi) sono anziane, può essere difficile capire che non si tratta di una voce autentica, anche quando le circostanze di emergenza descritte dai truffatori sembrano poco plausibili. Allo stesso modo è molto difficile che una persona anziana possa immaginare che si tratti di una riproduzione creata da un’intelligenza artificiale.
Verma ha raccontanto di una coppia che ha inviato 15 mila euro tramite un terminale bitcoin a un truffatore dopo aver creduto di aver parlato con il figlio. La voce generata dall’intelligenza artificiale ha detto loro che ne aveva bisogno perché era stato coinvolto in un incidente automobilistico che aveva ucciso un diplomatico statunitense: i soldi gli servivano per coprire le spese legali. Secondo la Federal Trade Commission, questo è stato il tipo di frode più frequente segnalato nel 2022 e la seconda più dannosa dal punto di vista economico per le persone vittime di truffa. Su 36 mila segnalazioni, più di 5 mila persone sono state truffate, perdendo 11 milioni di dollari. Poiché queste truffe di impostori possono essere eseguite da qualsiasi parte del mondo, è estremamente difficile per le autorità ritracciarle, identificare i truffatori e recuperare i soldi, ma a volte è addirittura difficile decidere quali agenzie hanno giurisdizione sui singoli casi dato che i truffatori operano da Paesi diversi. L’unico modo per aiutare le persone a difendersi è renderli consapevoli dell’esistenza di questo genere di truffe: come sempre, la migliore raccomandazione è quella di contattare la persona che sembra chiedere aiuto attraverso metodi diversi da una telefonata

Immagini generate con l'AI che ritraggono mostri antropomorfi che fanno e dicono cose senza senso. Nati su TikTok Italia, hanno accumulato milioni di visualizzazioni e condivisioni in tutto il mondo. E nessuno ha ancora capito perché.