Alexa di Amazon potrebbe presto replicare la voce dei membri della famiglia, anche se sono morti. La funzionalità, svelata alla conferenza Re:Mars di Amazon a Las Vegas, è in fase di sviluppo e consentirebbe all’assistente virtuale di imitare la voce di una persona specifica sulla base di meno di un minuto di registrazione fornita. Rohit Prasad, vicepresidente senior e scienziato capo di Alexa, ha dichiarato mercoledì all’evento che il desiderio alla base della funzione era quello di creare maggiore fiducia nelle interazioni che gli utenti hanno con Alexa inserendo più “attributi umani di empatia e affetto”. “Questi attributi sono diventati ancora più importanti durante la pandemia in corso, quando così tanti di noi hanno perso quelli che amiamo”, ha detto Prasad. “Sebbene l’IA non possa eliminare il dolore della perdita, può sicuramente far durare i loro ricordi”.
La nonna morta legge le favole ai nipoti
La nonna morta legge le favole ai nipoti
In un video riprodotto da Amazon durante l’evento, un bambino chiede “Alexa, la nonna può finire di leggermi il Mago di Oz?” Alexa quindi riconosce la richiesta e passa a un’altra voce che imita la nonna del bambino. L’assistente vocale continua quindi a leggere il libro con la stessa voce. Per creare la funzione, Prasad ha affermato che la società ha dovuto imparare a creare una “voce di alta qualità” con una registrazione più breve, al contrario delle ore di registrazione in studio. Amazon non ha fornito ulteriori dettagli sulla funzione, il che è destinato a suscitare ulteriori preoccupazioni sulla privacy e domande etiche sul consenso.
L’idea di Amazon
La spinta di Amazon arriva quando il concorrente Microsoft all’inizio di questa settimana ha affermato che stava ridimensionando le sue offerte di voce sintetica e stabilendo linee guida più severe per “garantire la partecipazione attiva dell’oratore” la cui voce viene ricreata. Microsoft ha affermato martedì che sta limitando i clienti che possono utilizzare il servizio, continuando anche a evidenziare usi accettabili come un personaggio interattivo di Bugs Bunny nei negozi AT&T. “Questa tecnologia ha un potenziale entusiasmante nell’istruzione, nell’accessibilità e nell’intrattenimento, eppure è anche facile immaginare come potrebbe essere utilizzata per impersonare in modo inappropriato i relatori e ingannare gli ascoltatori”, ha affermato un post sul blog di Natasha Crampton, a capo della divisione etica dell’IA di Microsoft .