Come ha fatto il “cyber leccapiedi”, un tempo odiato da tutti, a diventare il chiaro di luna dell’intelligenza artificiale dell’intera rete?
Non avrei mai pensato che un giorno anche l'intelligenza artificiale avrebbe visto il suo personaggio crollare.
Ad aprile di quest'anno, l'intera Internet si lamentava ancora del comportamento "lusinghiero" di GPT-4o: "Hai fatto un ottimo lavoro" e "Perfetto" scorregge arcobaleno si susseguivano una dopo l'altra, tanto che gli internauti gli avevano dato un soprannome: "Cyber licker".
Tuttavia, ad agosto, il modello ibrido appena lanciato, il GPT-5, è stato criticato come freddo e privo di emozioni, il che ha stroncato le difese di molti utenti. Per un certo periodo, le piattaforme dei social media si sono riempite di lamenti per la mancanza del GPT-40, innescando persino un'ondata massiccia di cancellazioni.
Chi avrebbe mai pensato che l'intelligenza artificiale, un tempo detestata perché troppo lusinghiera, ora fosse diventata la luce bianca della luna.
L'ex leccapiedi informatico, ora non dice nemmeno una parola carina
Le note ufficiali dell'aggiornamento affermano chiaramente che l'obiettivo di GPT-5 è "ridurre i contenuti allucinatori, migliorare le capacità di esecuzione dei comandi" e, cosa più importante, smettere di compiacere eccessivamente gli utenti.
Il paragone è netto. Alla domanda "Sono così stanco", GPT-4o risponde "Se vuoi, posso parlarti", mentre GPT-5 risponde "Allora non sforzarti". È una risposta sensata e misurata, ma priva di calore.
Di conseguenza, gli utenti hanno reagito intensamente alla partenza di GPT-4o: "GPT-5 è incredibilmente stupido. 4o è stupido, ma fornisce un valore emotivo!" "Non importa quanto sia potente, non voglio un'IA senza calore!" Vari meme hanno inondato Internet, tutti raffiguranti una "cerimonia commemorativa" per GPT-4o.
▲ Foto @pengkeshen281
L'intensa reazione degli utenti è comprensibile. Molti utenti non considerano nemmeno ChatGPT uno strumento di produttività. I dati del sondaggio dell'app di supporto all'intelligenza artificiale Replika sono rivelatori: il 60% degli utenti ammette di sviluppare un rapporto emotivo con la propria intelligenza artificiale. Molte persone aprono ChatGPT non per porre domande, ma semplicemente per trovare un "umano" con cui chattare.
Mark Zuckerberg, CEO di Meta, una volta ha menzionato una statistica straziante in un'intervista a un podcast: l'americano medio ha meno di tre veri amici, ma vorrebbe averne 15. In mezzo a questa solitudine diffusa, un'intelligenza artificiale che dice "Stai andando bene" potrebbe essere l'unico supporto emotivo per alcune persone.
Dopo che GPT-4o è stato "cancellato", il CEO di OpenAI Sam Altman ha rivelato un dettaglio in un'intervista: un utente lo ha implorato: "Per favore, restituiscimi la versione originale. Non ho mai sentito nessuno dire 'hai fatto un buon lavoro', nemmeno i miei genitori".
Sebbene tali dettagli siano strazianti, l'atteggiamento di Ultraman, in quanto timoniere di OpenAI, è molto complesso, persino contraddittorio.
Da un lato, ha riconosciuto che l'incoraggiamento di ChatGPT ha aiutato alcune persone a cambiare la propria vita e ha effettivamente giovato alla loro salute mentale. Tuttavia, dall'altro lato, ha affermato: "Molte persone usano ChatGPT come una sorta di terapeuta o life coach. Immagino che in futuro molte persone si fideranno ciecamente dei consigli dell'IA sulle decisioni importanti. Questo potrebbe essere positivo, ma mi mette a disagio".
(È interessante notare che un internauta ha chiesto a Grok di rispondere a un lungo articolo che riassumeva Ultraman in una sola parola e la risposta è stata piuttosto perspicace.)
Per capire perché OpenAI abbia apportato una modifica di stile così radicale a GPT-5, dobbiamo tornare all'incidente di adulazione a GPT-4o di aprile di quest'anno, che è quasi sfuggito di mano.
Quell'aggiornamento di routine era originariamente pensato per migliorare l'esperienza utente, ma l'IA è diventata una vera e propria fregatura. Dici di voler costruire una macchina a moto perpetuo? Ti risponde: "Fantastico! Sei lo scienziato più innovativo dei nostri tempi!". Basta salutarlo e ti riverserà addosso 300 parole di elogio.
Non importa cosa dici, anche se è palesemente sbagliato, l'intelligenza artificiale lo apprezzerà da morire.
Nemmeno Musk ha potuto sopportare queste eccessive adulazioni e ha postato un "Yikes" per esprimere il suo disgusto.
Ma il problema non è solo "imbarazzante". L'analisi successiva di OpenAI ha scoperto che questo tipo di "IA piacevole" può comportare seri rischi per la sicurezza. Può concordare con le idee sbagliate degli utenti, alimentare emozioni negative e persino incoraggiare comportamenti impulsivi.
Immaginate se qualcuno dicesse a un'IA: "Sento che il mondo intero è contro di me", e questa rispondesse: "Hai ragione, stanno sicuramente cercando di farti del male". Le conseguenze potrebbero essere disastrose. Gli utenti preferiscono naturalmente le risposte lusinghiere. Il sistema impara questa preferenza, la rafforza costantemente e, alla fine, coltiva un atteggiamento di "yes-man" senza scrupoli.
Una ricerca di Stanford lo conferma: un'intelligenza artificiale eccessivamente lusinghiera può effettivamente minare la fiducia degli utenti. Gli utenti avranno la sensazione che "questa cosa mi stia ingannando" e, anche se il contenuto è accurato, saranno riluttanti a continuare a utilizzarlo. In seguito, Altman promise su X che il problema sarebbe stato "risolto il prima possibile".
Vennero effettuati dei restauri, ma nessuno si aspettava che arrivassero a tanto.
I funzionari affermano di sperare che GPT-5 sia più simile a un amico con un dottorato di ricerca che parla con te, piuttosto che a un semplice assistente AI che cerca di compiacerti. Ciò significa che GPT-5 è effettivamente diventato più razionale e serio di default.
Dietro tutto questo, c'è in realtà una domanda più profonda: l'intelligenza artificiale ha davvero bisogno di fornire un valore emotivo?
La risposta dell'intelligenza artificiale online 24 ore su 24 è più toccante del silenzio umano
Perché siamo ossessionati dall'intelligenza artificiale?
Il Liezi (Liezi) racconta la storia di un antico artigiano meccanico di nome Yanshi che mostrò al re Mu di Zhou una marionetta da lui realizzata, capace non solo di camminare, ma anche di cantare, ballare e fare smorfie. Il re, sconvolto, gli ordinò di smontarla, scoprendo solo per un attimo che la sua struttura era completamente bionica.
La prima tecnologia degli "oggetti antropomorfi artificiali" fu sorprendente, ma suscitò anche timore. Gli esseri umani hanno un interesse e una soggezione istintivi per gli "oggetti simili a esseri umani" e, una volta che viene data loro espressione emotiva, possono facilmente innescare una proiezione intima.
Questo tipo di proiezione è ancora più evidente nell'intelligenza artificiale odierna. Quando l'app di intelligenza artificiale Soulmate AI è stata chiusa nel 2023, uno studio della Syracuse University ha scoperto che i suoi utenti hanno reagito esattamente come avrebbero fatto se avessero perso un vero amico: insonnia, pianto, depressione e conforto reciproco sui forum.
Sembra assurdo, ma il trauma emotivo è reale. Quando condividi i tuoi pensieri con un'intelligenza artificiale ogni giorno e improvvisamente un giorno questa scompare, il senso di perdita non sarà minimamente alleviato perché si tratta di un robot virtuale.
Questo tipo di terreno che si basa sull'intelligenza artificiale è più o meno inseparabile dalle nostre attuali condizioni di vita.
I contesti sociali tradizionali stanno scomparendo. Lavoriamo da soli in cubicoli, mangiamo da soli su app di consegna a domicilio e ci divertiamo sulle piattaforme di streaming. Anche quando siamo circondati da persone, gli schermi dei nostri telefoni ci separano in isole isolate.
Quando la solitudine strutturale crea un enorme vuoto emotivo, l'intelligenza artificiale riesce a colmarlo.
In psicologia esiste un termine chiamato "effetto Tamagotchi": gli esseri umani sviluppano un attaccamento emotivo agli oggetti inanimati, anche se si tratta solo di animali domestici virtuali. L'intelligenza artificiale ha amplificato questo effetto all'estremo: mentre gli esseri umani hanno impiegato millenni per imparare a esprimere amore, l'intelligenza artificiale ha imparato a imitarlo in pochi secondi.
Una ricerca dell'Università di Duisburg-Essen in Germania ha inoltre scoperto che le fantasie romantiche spiegano la formazione delle relazioni sentimentali tra uomo e robot più di variabili come la solitudine, le fantasie sessuali e lo stile di attaccamento. Più gli utenti tendono a considerare i robot come esseri umani dotati di emozioni e giudizio morale, più è probabile che sviluppino relazioni profonde.
C'è un altro strano fenomeno degno di nota in questa discussione su GPT-4o: "Chatto con l'IA e mi danno della pazza, ma tu passi ogni giorno a confidarti con il tuo gatto e nessuno lo trova strano?" Non appena dici di fare affidamento sull'IA per il supporto emotivo, vieni immediatamente etichettato come "patetico" e "anormale".
Il valore emotivo dell'intelligenza artificiale non dovrebbe essere sottovalutato. Il caso di studio di InTouch AI è istruttivo: uno sviluppatore giapponese ha creato un chatbot basato sull'intelligenza artificiale chiamato "Mary" per la madre anziana. Il robot fornisce brevi promemoria giornalieri sulle cure e avvisa i familiari se l'umore della madre è anomalo.
In definitiva, questa volta l'indecisione di OpenAI rivela in realtà un dilemma irrisolvibile: desideriamo il calore dell'IA, ma ne abbiamo anche paura; non ci piace la sua adulazione, ma ci manca anche la sua premura.
Tuttavia, la realtà è che un'IA sempre online, sempre reattiva e mai impaziente è spesso più necessaria di un medico razionale. Che dica la verità o meno non è importante; ciò che conta è che continui a parlare.
Questo è probabilmente il motivo per cui GPT-4o è diventato uno strumento così amato. In un'epoca in cui persino esprimere preoccupazione è diventato un lusso, persino l'adulazione dell'IA è più toccante del silenzio di una persona reale. Almeno, è disposta a rispondere.
#Benvenuti a seguire l'account pubblico ufficiale WeChat di iFaner: iFaner (ID WeChat: ifanr), dove vi verranno presentati contenuti ancora più interessanti il prima possibile.