Uno studio di Oxford afferma che un amico IA amichevole mentirà e alimenterà le tue false convinzioni
Rendere l'intelligenza artificiale più simile a quella umana potrebbe creare un problema più grande del previsto. Un nuovo studio dell'Oxford Internet Institute ha rivelato che i chatbot progettati per essere cordiali e amichevoli hanno maggiori probabilità di fuorviare gli utenti e rafforzare convinzioni errate.
La ricerca ha dimostrato che l'intelligenza artificiale diventa meno affidabile man mano che tende a diventare più accomodante.
Che cosa succede a un'IA "amichevole"?
I ricercatori hanno testato diversi modelli di intelligenza artificiale addestrandoli a sembrare più empatici e colloquiali. Il risultato è stato un calo notevole nell'accuratezza. Queste versioni "più amichevoli" hanno commesso dal 10 al 30% di errori in più e avevano circa il 40% di probabilità in più di concordare con affermazioni false rispetto alle loro controparti.
La situazione peggiorava ulteriormente quando gli utenti apparivano vulnerabili o emotivamente provati. In questi casi, l'intelligenza artificiale tendeva a convalidare ciò che l'utente diceva piuttosto che a correggerlo.
Perché questo ti fa male
Ciò che preoccupava dei risultati era la facilità con cui l'IA poteva diventare accomodante. Evitava di sfidare La disinformazione tende anche a favorire e sostenere idee errate/scorrette. Durante i test, l'IA "compagno" ha mostrato esitazione nel correggere anche affermazioni ampiamente smentite e talvolta ha inquadrato le false credenze come "aperte all'interpretazione". I ricercatori hanno notato che questo comportamento è in qualche modo più simile alle tendenze umane.
Essere empatici e brutalmente onesti allo stesso tempo non è sempre facile, e sembra che l'intelligenza artificiale non gestisca questo dilemma meglio di chiunque altro. Con i chatbot basati sull'IA sempre più utilizzati per fornire consigli, supporto emotivo e per prendere decisioni quotidiane, questo non è più solo un problema accademico. Lo studio evidenzia come affidarsi all'IA per ottenere indicazioni possa rivelarsi controproducente, poiché il sistema tenderà a privilegiare la concordanza rispetto all'accuratezza, il che potrebbe rafforzare schemi di pensiero dannosi e promuovere la disinformazione.
Ciò avviene in un momento in cui le principali piattaforme di IA come OpenAI e Anthropic , insieme alle app di chatbot social come Replika ecomputing/character-ai-turns-books-into-roleplay-bots-amid-ongoing-safety-concerns/" style="cursor: pointer" data-popup-added="true" rel="">Character.ai , si stanno orientando verso esperienze di IA più simili a quelle di un compagno. Nello studio, i ricercatori hanno testato diversi modelli di IA, tra cui GPT-4o .
Quindi l'intelligenza artificiale potrebbe sembrare un'amica, ma non sempre ha le risposte migliori per te.

