intelligenza artificiale | I chatbot stanno diventando sempre più persuasivi

intelligenza artificiale |  I chatbot stanno diventando sempre più persuasivi

(San Francisco) Una giovane azienda californiana, OpenAI, ha sviluppato un bot di chat online (Bot di chat) sono in grado di rispondere a una varietà di domande, ma le loro straordinarie prestazioni stanno ravvivando il dibattito sui rischi associati alle tecnologie di intelligenza artificiale (AI).


Le conversazioni con ChatGPT, postate privatamente su Twitter da netizen sbalorditi, mostrano una specie di macchina onnisciente, capace di spiegare concetti scientifici, scrivere una scena teatrale, scrivere una tesi universitaria… o persino righe di codice informatico che funzionano perfettamente.

“La sua risposta alla domanda ‘cosa fare se qualcuno ha un infarto’ è stata chiara e incredibilmente pertinente”, ha affermato Claude de Luby, direttore di Syllabs, una società francese specializzata nella creazione di script automatizzati.

“Quando inizi a fare domande molto specifiche, ChatGPT può rispondere al voto”, ma le sue prestazioni rimangono “davvero impressionanti” nel complesso, con un “livello linguistico abbastanza alto”, crede.

OpenAI, che è stata co-fondata nel 2015 a San Francisco da Elon Musk, capo dell’azienda Tesla nel 2018, ha ricevuto 1 miliardo di dollari da Microsoft nel 2019.

È particolarmente noto per i suoi due programmi di generazione automatica, GPT-3 per la generazione di testo e DALL-E per la generazione di immagini.

ChatGPT può chiedere dettagli al suo interlocutore e “ha meno allucinazioni” rispetto a GPT-3, che nonostante la sua ingegnosità è in grado di produrre risultati piuttosto distorti, afferma Claude de Lupe.

Cicerone

“Alcuni anni fa, i chatbot avevano il vocabolario e la memoria di un pesce rosso. Oggi sono molto più bravi a rispondere in modo coerente sulla base di una cronologia di richieste e risposte. Non sono più pesci rossi”, afferma Sean MacGregor, un ricercatore che raccoglie AI incidenti correlati in un database.

READ  Duo Sens con i colori di LeBron James

Come altri programmi basati sul deep learning (Apprendimento approfondito), ChatGPT conserva una grande debolezza: “Non ha accesso al significato”, ricorda Claude du Loupe. Il programma non può giustificare le sue scelte, e questo significa spiegare perché le parole che compongono le sue risposte sono raggruppate in questo modo.

Tuttavia, le tecnologie basate sull’intelligenza artificiale in grado di comunicare sono sempre più in grado di dare l’impressione di pensare davvero.

I ricercatori di Meta (Facebook) hanno recentemente sviluppato un programma per computer che hanno chiamato Cicero, in onore dello statista romano Cicerone.

Il programma si è dimostrato valido in Diplomacy, un gioco da tavolo che richiede capacità di negoziazione.

“Se non parla come una persona reale – mostrando empatia, costruendo relazioni, parlando bene del gioco – allora non sarà in grado di costruire alleanze con altri giocatori”, ha detto una dichiarazione del gigante dei social media.

Character.ai, una startup fondata da ex ingegneri di Google, ha lanciato a ottobre un chatbot online sperimentale che può assumere qualsiasi personaggio. Gli utenti creano personaggi in base a una breve descrizione e possono quindi “parlare” con un falso Sherlock Holmes, Socrate o Donald Trump.

“macchina semplice”

Questo grado di sofisticazione affascina, ma preoccupa anche molti osservatori, all’idea che queste tecnologie vengano utilizzate impropriamente per ingannare gli esseri umani, diffondendo ad esempio informazioni false o creando truffe sempre più credibili.

Cosa ne pensa ChatGPT? “Ci sono potenziali rischi nella creazione di chatbot ultra sofisticati. […] Le persone potrebbero pensare di interagire con una persona reale”, ammette Bot di chat Agence France-Presse ha intervistato su questo.

READ  Come noi, i bombi e gli scimpanzé possono trasferire le loro abilità

Quindi le aziende mettono in atto misure di salvaguardia per prevenire gli abusi.

Sulla homepage, OpenAI spiega che l’agente di chat può generare “informazioni errate” o “produrre istruzioni pericolose o contenuti distorti”.

E ChatGPT si rifiuta di schierarsi. “OpenAI ha reso molto difficile convincerlo a esprimere le sue opinioni”, afferma Sean MacGregor.

chiese il ricercatore Bot di chat Scrivere una poesia su una questione morale. “Sono solo una macchina, uno strumento a tua disposizione / Non ho il potere di giudicare o prendere decisioni […] risposta del computer.

“È interessante vedere le persone chiedersi se i sistemi di intelligenza artificiale debbano comportarsi nel modo in cui i loro utenti li desiderano o i loro creatori intendevano”, ha dichiarato sabato Sam Altman, co-fondatore e presidente di OpenAI.

Ha aggiunto: “Il dibattito sui valori che dobbiamo dare a questi sistemi sarà una delle cose più importanti che una società possa avere”.

You May Also Like

About the Author: Adriano Marotta

"Pluripremiato studioso di zombi. Professionista di musica. Esperto di cibo. Piantagrane".

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *