Intelligenza artificiale: OpenAI offre uno strumento di clonazione audio

Intelligenza artificiale: OpenAI offre uno strumento di clonazione audio

OpenAI, il colosso dell'intelligenza artificiale generativa (AI) ed editore di ChatGPT, venerdì ha introdotto uno strumento di clonazione audio, il cui utilizzo sarà limitato per prevenire frodi o crimini, come il furto di identità.

Questo modello di intelligenza artificiale, chiamato “Voice Engine”, può riprodurre la voce di una persona da un campione audio di 15 secondi, secondo una dichiarazione di OpenAI sui risultati di un test su piccola scala.

“Riconosciamo che la capacità di generare suoni simili a quelli umani comporta seri rischi ed è particolarmente importante in questo anno elettorale”, ha affermato la società con sede a San Francisco.

“Stiamo lavorando con partner statunitensi e internazionali del governo, dei media, dell’intrattenimento, dell’istruzione, della società civile e di altri settori e teniamo conto del loro feedback mentre sviluppiamo lo strumento”.

In questo cruciale anno elettorale in tutto il mondo, i ricercatori che si occupano di disinformazione temono l’uso improprio delle applicazioni di intelligenza artificiale generativa (produzione automatizzata di testo, immagini, ecc.), in particolare degli strumenti di clonazione vocale, che sono economici, facili da usare e difficili da rintracciare.

OpenAI ha confermato di aver adottato un “approccio cauto e informato” prima di una più ampia distribuzione del nuovo strumento “a causa del potenziale uso improprio delle voci sintetiche”.

Questa cauta offerta arriva dopo un grave incidente politico, quando un consulente che lavorava nella campagna presidenziale del rivale democratico Joe Biden ha sviluppato un programma automatizzato che impersonava il presidente degli Stati Uniti nella sua campagna di rielezione.

La voce che imita Joe Biden ha invitato gli elettori a incoraggiarli ad astenersi dal votare alle primarie del New Hampshire.

READ  WhatsApp per iOS prevede di rinnovare il design delle mailing list in un futuro aggiornamento

Da allora, gli Stati Uniti hanno vietato le chiamate che utilizzano voci clonate, generate dall’intelligenza artificiale, per combattere le frodi politiche o commerciali.

OpenAI ha spiegato che i partner che testano il “Voice Engine” hanno concordato regole che richiedono, tra le altre cose, il consenso esplicito e informato di chiunque la cui voce sia duplicata e trasparenza verso gli ascoltatori: deve essere chiaro che le voci che sentono sono generate da strumenti artificiali intelligenza.

“Abbiamo implementato una serie di misure di sicurezza, inclusa una filigrana in modo da poter tracciare l'origine di tutti i suoni generati dal Voice Engine, oltre a monitorarne in modo proattivo l'utilizzo”, ha insistito OpenAI.

Lo scorso ottobre la Casa Bianca ha svelato le regole e i principi che regolano lo sviluppo dell’intelligenza artificiale, compresa la trasparenza.

Joe Biden è stato commosso dall'idea che i criminali lo usassero per intrappolare le persone fingendo di essere membri della famiglia.

You May Also Like

About the Author: Adriano Marotta

"Pluripremiato studioso di zombi. Professionista di musica. Esperto di cibo. Piantagrane".

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *