«Ho creato il mio clone con l’AI e ho ingannato la banca e la mia famiglia». L’esperimento della giornalista del Wall Street Journal


Si può creare un clone di sé stessi grazie all’intelligenza artificiale? Una giornalista del Wall Street Journal, Joanna Stern, ci ha provato. Il clone è riuscito senza fatica a entrare nel sistema di gestione della carta di credito grazie al riconoscimento vocale e – superando le aspettative della columnist – ha convinto anche diversi suoi parenti, che parlando al telefono erano convinti di interloquire con la vera Stern. «Dato che lavoro molto con audio e video, ho pensato di provare a vedere se l’AI mi avrebbe aiutato a diventare più produttiva», racconta la giornalista nel resoconto della propria esperienza sul quotidiano statunitense. Affidandosi a un software chiamato Synthesia, ha creato il proprio avatar virtuale. Sono servite alcune ore di sample vocali, qualche clip del proprio mezzobusto e una settimana di tempo per ottenere la Stern virtuale.
Videochiamate e TikTok
Peccato che ai più fosse molto chiaro che non si trattava di un essere umano. La giornalista ha provato a usare l’avatar per presenziare alle videochiamate al posto suo. Ma i colleghi non ci hanno messo molto a rendersi conto che i movimenti erano rigidi, monotoni, e che le mani non gesticolavano in nessun modo. È andata un po’ meglio su TikTok, «dove gli utenti hanno la soglia dell’attenzione di un pesce rosso», commenta Stern. La giornalista ha chiesto a ChatGPT di scrivere un video e ha poi dato il dialogo creato dal bot in pasto al proprio avatar, che l’ha recitato pochi minuti dopo. Per alcuni la differenza è passata inosservata, ma in tanti hanno fatto notare nei commenti che c’era qualcosa che non andava, puntando il dito proprio contro l’intelligenza artificiale.
@wallstreetjournal Joanna Stern, personal technology columnist, dives into an obscure iPhone feature—Back Tap gestures. Be sure to watch until the end 狼 : Bloomberg #joannastern #iphone #iphonetips #tech #ai #chatgpt #wsj #wallstreetjournal #thewallstreetjournal #ForYouPizza ♬ Neon Bass – Tangelene Bolton
La sintesi vocale che ha ingannato i genitori, la sorella e la banca
Stern si è quindi affidata a un altro software, di sola sintesi vocale: ElevenLabs. In questo caso i risultati sono stati migliori in termini di impersonificazione. Solo dopo diversi minuti di chiamata, la sorella della giornalista si è resa conto che non era al telefono con lei ma con il suo avatar, che Stern comandava scrivendo cosa dire su ChatGPT. E a tradire l’AI nella conversazione con lei e i genitori non sono stati dei veri difetti della voce, bensì la mancanza di pause, che dopo un po’ è apparsa innaturale. L’AI non ha bisogno di respirare, e quindi, a meno che non glielo si dica, non si ferma. Ma ciò non ha impedito al sistema di riconoscimento vocale della banca della giornalista di autorizzare l’avatar a effettuare ogni modifica consentita agli esseri umani per via telefonica.
Il pericolo falsi e come evitarlo
Un esperimento che la giornalista ha commentato così: «Certo, il mio clone video chiaramente non sono io. Ma se nemmeno mia sorella e i miei genitori riescono a riconoscere che la mia voce è creata dall’AI, come posso aspettarmi che ci riescano gli altri?». Il messaggio sottintende una preoccupazione che diverse aziende che operano nel campo percepiscono. E alcune stanno cercando di porvi rimedio. Adobe, ad esempio, ha organizzato un’iniziativa per aggiungere al materiale audiovisivo i dati su come è stato creato, in modo che, anche online, sia possibile capire se si tratta di qualcosa generato dagli esseri umani o meno. E Synthesia – il software usato da Stern per creare il proprio avatar – ha già aderito.
Leggi anche:
- ChatGPT torna disponibile in Italia, accolte le richieste del Garante della Privacy
- Usa 2024, i Repubblicani disegnano i disastri di un eventuale Biden-bis con l’intelligenza artificiale: «Il presidente più debole di sempre» – Il video
- La Russia sfodera il rivale di ChatGPT: arriva GigaChat. Un risponditore automatico in salsa machista?