Gli ultimi modelli di intelligenza artificiale di OpenAI stanno generando livelli allarmanti di disinformazione
Gli ultimi modelli di intelligenza artificiale di OpenAI sembrano avere un grosso problema. Un rapporto rivela che i GPT o3 e o4-mini stanno producendo disinformazione a un ritmo allarmante.
La disinformazione generata dall’intelligenza artificiale, ovvero le allucinazioni, sono comuni nella maggior parte dei servizi di intelligenza artificiale. Il New York Times ha pubblicato un'indagine condotta da OpenAI che ha scoperto che i suoi stessi modelli generano più contenuti falsi rispetto ad altri. Ciò a sua volta ha sollevato serie preoccupazioni sulla loro affidabilità.
GPT o3 e o4-mini sono stati progettati per imitare il ragionamento e la logica umana. Quando questi sono stati messi alla prova in benchmark che coinvolgevano personaggi pubblici, quasi un terzo dei risultati di GPT o3 si è rivelato essere allucinazioni. In confronto, GPT o1 aveva meno della metà di quel tasso di errore nei test condotti l’anno scorso. GPT o4-mini è andata ancora peggio, poiché ha avuto allucinazioni nel 48% dei suoi compiti. Quando questi modelli affrontavano domande di cultura generale, le allucinazioni sono salite al 51% per GPT o3 e all’incredibile 79% per o4-mini.
OpenAI afferma che il problema allucinante non è dovuto al fatto che i modelli di ragionamento sono peggiori, ma perché potrebbero semplicemente essere più prolissi e avventurosi nelle loro risposte, e speculano sulle possibilità piuttosto che ripetere fatti prevedibili. Gli sviluppatori inizialmente miravano a far sì che questi sistemi pensassero in modo critico e ragionassero attraverso query complesse; tuttavia, questo approccio ambizioso sembra aver portato ad un aumento della creatività a scapito della fattualità.
Ciò potrebbe rappresentare un grosso problema per ChatGPT di OpenAI, poiché servizi rivali come Google Gemini e Anthropic Claude sono stati progettati per fornire informazioni in modo più accurato. A differenza dei modelli più semplici incentrati su previsioni ad alta confidenza, GPT o3 e o4-mini spesso fanno speculazioni, offuscando il confine tra possibili scenari e vere e proprie invenzioni. Ciò solleva segnali di allarme per gli utenti in ambienti ad alto rischio, dai professionisti legali agli educatori e agli operatori sanitari, dove fare affidamento sull’intelligenza artificiale potrebbe portare a passi falsi significativi.
Più l’intelligenza artificiale diventa utile, maggiore è il rischio di errori critici. Sebbene i modelli di intelligenza artificiale possano superare gli esseri umani in determinati compiti, il rischio di imprecisioni diminuisce la credibilità complessiva dell’intelligenza artificiale. Fino a quando questi problemi di allucinazioni non saranno risolti in modo efficace, si consiglia agli utenti di avvicinarsi alle informazioni generate dall’intelligenza artificiale con cautela e scetticismo.
Fonte: TechRadar
Grazie per essere un lettore di Ghacks. Il post Gli ultimi modelli di intelligenza artificiale di OpenAI stanno generando livelli allarmanti di disinformazione è apparso per la prima volta su gHacks Technology News .

