Dimostrando come la nuova funzione di ChatGPT possa essere usata a fini di discriminazione.
È appena uscita la versione audio di ChatGPT e sta già facendo discutere
Chi ha usato la versione italiana già si lamenta per la strana disparità tra le voci a disposizione: per ora, infatti, gli utenti italiani possono sceglie tra tre voci maschili e soltanto una femminile. Diversa la situazione di chi usa la versione inglese che, come si legge sul New York Times, può scegliere tra ben nove differenti voci (quattro maschili e cinque femminili). «Quando pensi a come potrebbe suonare una voce programmata dall’intelligenza artificiale», scrive Jessica Roy, «ti immagini qualcosa di robotico, con una cadenza innaturale incapace di catturare le inflessioni, la velocità e l’emozione necessarie per sembrare anche solo un po’ umani. Ma siamo nel 2024 e i robot hanno fatto un serio upgrade. Ora possono imitare voci, accenti e intonazione a un livello quasi inquietante, nel bene e nel male».
Lanciata la scorsa settimana, la nuova modalità Advanced Voice Mode di ChatGPT permette di chiacchierare con l’intelligenza artificiale anche vocalmente. Chi utilizza ChatGPT, quindi, potrà scegliere se chattare, e ricevere risposte scritte, oppure fare domande a voce – quindi, in pratica, mandare dei vocali – e ricevere risposte audio. Ma è un po’ più complicato e interessante di così: chi ha già utilizzato questa modalità, infatti, ha dimostrato come attraverso la conversazione e i prompt testuali, sia possibile insegnare a queste voci a parlare come vogliamo, imitando un accento o un modo di parlare specifico. Alcuni utenti hanno già caricato su TikTok delle dimostrazioni, dalla ragazza che ha chiesto a ChatGPT di imitare il suo accento del New Jersey, al ragazzo che ha chiesto alla voce di fare una parlata “super gay”.
Sebbene la maggior parte degli utenti sta utilizzando l’Advanced Voice Mode per scopi di intrattenimento, la modalità stata ovviamente pensata per svolgere funzionalità pratiche, ad esempio aiutare gli studenti con i compiti o permettere di fare traduzioni in tempo reale. Come si sottolinea nell’articolo del New York Times, la nuova modalità potrebbe incrementare l’uso di ChatGPT che già tante persone hanno sperimentato con la versione classica, quella di terapista sostitutivo. «Sono una grande sostenitrice della terapia e dei terapisti umani», ha detto l’esperta di AI interrogata dal Nyt, «ma se non puoi permettertelo e hai solo bisogno di un orecchio che ti ascolti, parlare con questa cosa può sembrare molto simile a parlare con una persona che sta empatizzando con te, che ti fa domande, che sta cercando di capire come ti senti». Se state pensando a Her di Spike Jonze, state pensando giusto. OpenAI, la società proprietaria di ChatGPT, ha pubblicato un report in cui avverte che le persone potrebbero sviluppare dipendenza emotiva dalla funzionalità.