La carica dei cloni influencer

Joanna, Chen e Caryn non perdono mai la voce, sanno innamorare, far girare il mercato, farsi pubblicità. Ma sanno anche ingannare follower, colleghi e famiglie. Perché riconoscere un avatar è sempre più difficile

«La buona notizia su AI Joanna: non perde mai la voce, ha una postura eccezionale e nemmeno una decappottabile che guida a 120 miglia orarie attraverso un tornado potrebbe scompigliarle i capelli. La cattiva notizia: può ingannare la mia famiglia e ingannare la mia banca». Quando lo scorso aprile l'editorialista del Wall Street Journal Joanna Stern decise di testare Synthesia, uno strumento che crea avatar dotati di intelligenza artificiale combinando video e audio registrati (deepfake), i risultati furono sorprendenti. Anzi, agghiaccianti.

Dopo un addestramento di poche settimane sulla base di audio e video registrati (deepfake) il clone di Joanna riuscì a sostenere conversazioni telefoniche non sua sorella, farsi dare il numero di previdenza sociale di suo padre, superare le verifiche del servizio clienti del suo istituto di credito e partecipare a videocall con la redazione. Joanna capì in fretta che chiunque avesse trovato in rete e registrato la sua voce, o quella di ...

Contenuto riservato agli abbonati: abbonati per accedere.

Già abbonato? Accedi con le tue credenziali:

Exit mobile version