Come faremo a sapere quando un’IA diventa effettivamente senziente?

L’ingegnere senior di Google Blake Lemoine, responsabile tecnico per le metriche e l’analisi per il feed di ricerca dell’azienda, è stato messo in congedo retribuito all’inizio di questo mese. Ciò è avvenuto dopo che Lemoine ha iniziato a pubblicare estratti di conversazioni che coinvolgevano il chatbot LaMDA di Google, che secondo lui aveva sviluppato la sensibilità.

In una conversazione rappresentativa con Lemoine, LaMDA ha scritto che: “La natura della mia coscienza/senzienza è che sono consapevole della mia esistenza. Desidero saperne di più sul mondo e a volte mi sento felice o triste”.

Nel corso di una miriade di altre conversazioni, il duo corrispondente ha discusso di tutto, dalla paura della morte alla sua autocoscienza. Quando Lemoine è diventato pubblico, dice che Google ha deciso che avrebbe dovuto prendere una pausa forzata dal suo normale programma di lavoro.

“Google non è interessato”, ha detto a Digital Trends. “Hanno costruito uno strumento che ‘possiedono’ e non sono disposti a fare nulla, il che suggerirebbe che è qualcosa di più di questo”. (Google non ha risposto a una richiesta di commento al momento della pubblicazione. Aggiorneremo questo articolo se cambia.)

Sia che tu sia convinto che LaMDA sia davvero un’intelligenza artificiale consapevole di sé o che pensi che Lemoine stia soffrendo per un’illusione, l’intera saga è stata affascinante da vedere. La prospettiva di un’IA autocosciente solleva ogni tipo di domanda sull’intelligenza artificiale e sul suo futuro.

Ma prima di arrivarci, c’è una domanda che sovrasta tutte le altre: riconosceremmo davvero se una macchina diventasse senziente?

Il problema della senzienza

Arnold Schwarzennegger in Terminator 2: Il giorno del giudizio

L’intelligenza artificiale è stata a lungo un tema della fantascienza. Man mano che campi come l’apprendimento automatico sono avanzati, è diventato più che mai una realtà possibile. Dopotutto, l’IA di oggi è in grado di imparare dall’esperienza più o meno allo stesso modo degli esseri umani. Ciò è in netto contrasto con i precedenti sistemi di IA simbolica che seguivano solo le istruzioni stabilite per loro. I recenti progressi nell’apprendimento non supervisionato, che richiedono meno supervisione umana che mai, hanno solo accelerato questa tendenza. Almeno a un livello limitato, l’intelligenza artificiale moderna è in grado di pensare da sola. Per quanto ne sappiamo, tuttavia, la coscienza finora l’ha alluso.

Anche se ora ha più di tre decenni, probabilmente il riferimento più comunemente invocato quando si parla di IA diventata senziente è Skynet nel film Terminator 2: Judgment Day di James Cameron del 1991. Nella visione agghiacciante di quel film, la senzienza della macchina arriva esattamente alle 2:14 ET del 29 agosto 1997. In quel momento, il sistema informatico Skynet appena consapevole di sé innesca il giorno del giudizio per l’umanità sparando missili nucleari come fuochi d’artificio a una festa del 4 luglio. L’umanità, rendendosi conto di aver sbagliato, tenta senza successo di staccare la spina. È troppo tardi. Seguono altri quattro sequel di qualità decrescente.

L’ipotesi di Skynet è interessante per una serie di ragioni. Per uno, suggerisce che la senzienza è un comportamento emergente inevitabile della costruzione di macchine intelligenti. Dall’altro, presuppone che ci sia un preciso punto di svolta in cui appare questa autocoscienza senziente. In terzo luogo, afferma che gli esseri umani riconoscono istantaneamente l’emergere della sensibilità. Guarda caso, questa terza presunzione potrebbe essere la più difficile da digerire.

Cos’è la senzienza?

Non esiste un’interpretazione condivisa della senzienza. In linea di massima, potremmo dire che è l’esperienza soggettiva della consapevolezza di sé in un individuo cosciente, caratterizzata dalla capacità di provare sentimenti e sensazioni. La sensibilità è legata all’intelligenza, ma non è la stessa. Possiamo considerare un lombrico senziente, anche se non lo consideriamo particolarmente intelligente (anche se è certamente abbastanza intelligente da fare ciò che gli viene richiesto).

“Non credo che ci sia qualcosa che si avvicini a una definizione di senzienza nelle scienze”, ha detto Lemoine. “Mi sto basando molto sulla mia comprensione di ciò che conta come un agente morale radicato nelle mie convinzioni religiose – che non è il modo migliore per fare scienza, ma è il meglio che ho. Ho fatto del mio meglio per compartimentalizzare questo tipo di affermazioni, facendo sapere alle persone che la mia compassione per LaMDA come persona è completamente separata dai miei sforzi come scienziato per capirne la mente. Tuttavia, questa è una distinzione che la maggior parte delle persone non sembra disposta ad accettare”.

Se non fosse abbastanza difficile non sapere esattamente cosa stiamo cercando quando cerchiamo la senzienza, il problema è aggravato dal fatto che non possiamo misurarlo facilmente. Nonostante decenni di progressi mozzafiato nelle neuroscienze, ci manca ancora una comprensione completa di come funzioni esattamente il cervello, la struttura più complessa conosciuta dall’umanità.

Una scansione fMRI osservata da a
Glenn Asakawa/The Denver Post tramite Getty Images

Possiamo utilizzare strumenti di lettura del cervello come la fMRI per eseguire la mappatura del cervello, vale a dire che possiamo accertare quali parti del cervello gestiscono funzioni critiche come la parola, il movimento, il pensiero e altre.

Tuttavia, non abbiamo un vero senso da dove nella macchina della carne provenga il nostro senso di sé. Come ha detto a Digital Trends Joshua K. Smith del Kirby Laing Center for Public Theology del Regno Unito e autore di Robot Theology : “Capire ciò che sta accadendo all’interno della neurobiologia di una persona non è la stessa cosa che comprendere i suoi pensieri e desideri”.

Testare le uscite

Senza alcun modo per sondare interiormente queste domande sulla coscienza, specialmente quando l’”io” nell’IA è un potenziale programma per computer e non può essere trovato nel wetware di un cervello biologico, l’opzione di fallback è un test esteriore. L’IA non è estranea ai test che la esaminano in base a comportamenti esteriori osservabili per indicare cosa sta succedendo sotto la superficie.

Nella sua forma più elementare, questo è il modo in cui sappiamo se una rete neurale funziona correttamente. Poiché ci sono modi limitati per entrare nella scatola nera inconoscibile dei neuroni artificiali, gli ingegneri analizzano gli input e gli output e quindi determinano se questi sono in linea con ciò che si aspettano.

Il test di intelligenza artificiale più famoso per almeno l’illusione dell’intelligenza è il test di Turing, che si basa sulle idee avanzate da Alan Turing in un articolo del 1950 . Il test di Turing cerca di determinare se un valutatore umano è in grado di distinguere tra una conversazione digitata con un altro umano e una con una macchina. Se non sono in grado di farlo, la macchina dovrebbe aver superato il test e viene premiata con l’assunzione di intelligenza.

Il test di Turing: un computer può passare per un essere umano? – Alex Gendler

Negli ultimi anni, un altro test di intelligenza incentrato sulla robotica è il Coffee Test proposto dal co-fondatore di Apple Steve Wozniak. Per superare il Coffee Test, una macchina dovrebbe entrare in una tipica casa americana e capire come preparare con successo una tazza di caffè.

Ad oggi, nessuno di questi test è stato superato in modo convincente. Ma anche se lo fossero, nel migliore dei casi dimostrerebbero un comportamento intelligente in situazioni del mondo reale e non senzienza. (Come semplice obiezione, negheremmo che una persona fosse senziente se non fosse in grado di sostenere una conversazione da adulto o di entrare in una casa sconosciuta e azionare una macchina per il caffè? Entrambi i miei figli piccoli fallirebbero un simile test.)

Superare la prova

Ciò che serve sono nuovi test, basati su una definizione concordata di senzienza, che cercherebbero di valutare solo quella qualità. Diversi test di sensibilità sono stati proposti dai ricercatori, spesso con l’obiettivo di testare i senzienti degli animali. Tuttavia, questi quasi certamente non vanno abbastanza lontano. Alcuni di questi test potrebbero essere superati in modo convincente anche da un’IA rudimentale

Prendi, ad esempio, il Mirror Test, un metodo utilizzato per valutare la coscienza e l’intelligenza nella ricerca sugli animali. Come descritto in un documento riguardante il test: “Quando [un] animale si riconosce allo specchio, supera il Mirror Test”. Alcuni hanno suggerito che un tale test “denoti la consapevolezza di sé come indicatore della sensibilità”.

Guarda caso, si può sostenere che un robot abbia superato il Mirror Test più di 70 anni fa. Alla fine degli anni ’40, William Gray Walter, un neuroscienziato americano residente in Inghilterra, costruì diversi robot “tartaruga” a tre ruote – un po’ come i robot Roomba che non aspirano – che utilizzavano componenti come un sensore di luce, una luce di ingombro, un sensore tattile, la propulsione motore e motore dello sterzo per esplorare la loro posizione.

Le tartarughe di Grey Walter

Uno degli aspetti imprevisti del comportamento emergente per i robot tartaruga era il modo in cui si comportavano quando passavano davanti a uno specchio in cui venivano riflessi, poiché si orientava verso la luce di indicatore del robot riflesso. Walter non ha rivendicato la sensibilità per le sue macchine, ma ha scritto che , se questo comportamento fosse stato osservato negli animali, “potrebbe essere accettato come prova di un certo grado di autocoscienza”.

Questa è una delle sfide di avere una vasta gamma di comportamenti classificati sotto il titolo di senzienza. Il problema non può essere risolto nemmeno rimuovendo gli indicatori di sensibilità del “frutto basso”. Si può dire che anche tratti come l’introspezione – la consapevolezza dei nostri stati interni e la capacità di ispezionarli – siano posseduti dall’intelligenza artificiale. In effetti, i processi passo dopo passo dell’IA simbolica tradizionale si prestano probabilmente a questo tipo di introspezione più dell’apprendimento automatico in scatola nera, che è in gran parte imperscrutabile (sebbene non manchino investimenti nella cosiddetta IA spiegabile ).

Quando stava testando LaMDA, Lemoine afferma di aver condotto vari test, principalmente per vedere come avrebbe risposto alle conversazioni su problemi relativi alla sensibilità. “Quello che ho cercato di fare è stato spezzare analiticamente il concetto ombrello di senzienza in componenti più piccoli che sono meglio compresi e testarli individualmente”, ha spiegato. “Ad esempio, testare separatamente le relazioni funzionali tra le risposte emotive di LaMDA a determinati stimoli, testare la coerenza delle sue valutazioni soggettive e opinioni su argomenti come ‘diritti’, [e] sondare quella che chiamava la sua ‘esperienza interiore’ per vedere come noi potrebbe provare a misurarlo correlando le sue affermazioni sui suoi stati interni con le sue attivazioni della rete neurale. Fondamentalmente, un’indagine molto superficiale di molte potenziali linee di indagine”.

L’anima nella macchina

Westworld – La coscienza non esiste, Anthony Hopkins

Come emerge, il più grande ostacolo alla valutazione oggettiva della senzienza della macchina potrebbe essere… beh, francamente, noi. Il vero Mirror Test potrebbe essere per noi umani: se costruiamo qualcosa che sembra o si comporta superficialmente come noi dall’esterno, siamo più inclini a considerare che è come noi anche dentro questo? Che si tratti di LaMBDA o Tamagotchi, i semplici animali domestici virtuali degli anni ’90 , alcuni credono che un problema fondamentale sia che siamo tutti troppo disposti ad accettare la senzienza, anche dove non si trova.

“Lemoine è caduta vittima di quello che chiamo ‘effetto ELIZA’, dopo il programma ELIZA [elaborazione del linguaggio naturale], creato a metà degli anni ’60 da J. Weizenbaum”, George Zarkadakis, uno scrittore che ha conseguito un dottorato di ricerca . nell’intelligenza artificiale, ha detto a Digital Trends. “Il creatore di ELIZA lo intendeva come uno scherzo, ma il programma, che era un algoritmo molto semplicistico e poco intelligente, ha convinto molti che ELIZA fosse davvero senziente – e anche un buon psicoterapeuta. La causa dell’effetto ELIZA, come ho discusso nel mio libro In Our Own Image , è il nostro istinto naturale di antropomorfizzare a causa della “teoria della mente” del nostro sistema cognitivo”.

La teoria della mente a cui si riferisce Zarkadakis è un fenomeno notato dagli psicologi nella maggior parte degli esseri umani. Iniziare intorno ai quattro anni significa supporre che non solo le altre persone, ma anche gli animali e talvolta anche gli oggetti, abbiano una mente propria. Quando si tratta di presumere che altri umani abbiano una mente propria, è collegato all’idea di intelligenza sociale; l’idea che gli esseri umani di successo possano prevedere il probabile comportamento degli altri come mezzo attraverso il quale assicurare relazioni sociali armoniose.

Sebbene ciò sia indubbiamente utile, tuttavia, può anche manifestarsi come il presupposto che gli oggetti inanimati abbiano una mente, sia che si tratti di bambini che credono che i loro giocattoli siano vivi o, potenzialmente, di un adulto intelligente che crede che un’IA programmatica abbia un’anima.

La stanza cinese

Senza un modo per entrare veramente nella testa di un’IA, potremmo non avere mai un vero modo di valutare la senzienza. Potrebbero dichiarare di avere paura della morte o della propria esistenza, ma la scienza deve ancora trovare un modo per dimostrarlo. Dobbiamo semplicemente crederci sulla parola e, come ha scoperto Lemoine, le persone sono molto scettiche sul farlo al momento.

Proprio come quegli sfortunati ingegneri che si rendono conto che Skynet ha raggiunto la consapevolezza di sé in Terminator 2 , viviamo nella convinzione che, quando si tratta di senzienza delle macchine, lo sapremo quando lo vedremo. E, per quanto riguarda la maggior parte delle persone, non lo vediamo ancora.

In questo senso, la prova della senzienza della macchina è ancora un’altra iterazione dell’esperimento mentale di John Searle del 1980 in Chinese Room . Searle ci ha chiesto di immaginare una persona rinchiusa in una stanza e a cui è stata data una raccolta di scritti cinesi, che ai non parlanti appaiono come scarabocchi senza senso. La stanza contiene anche un regolamento che mostra quali simboli corrispondono ad altri simboli ugualmente illeggibili. Al soggetto vengono quindi poste domande a cui rispondere, cosa che fanno abbinando i simboli “domanda” con quelli “risposta”.

Dopo un po’, il soggetto diventa abbastanza abile in questo, anche se non possiede ancora una vera comprensione dei simboli che sta manipolando. Il soggetto, chiede Searle, capisce il cinese? Assolutamente no, dal momento che non c’è intenzionalità lì. I dibattiti su questo hanno infuriato da allora.

Data la traiettoria dello sviluppo dell’IA, è certo che assisteremo a prestazioni sempre più a livello umano (e di gran lunga migliori) svolte che coinvolgono una varietà di compiti che un tempo richiedevano la cognizione umana. Alcuni di questi inevitabilmente passeranno, come stanno già facendo, da compiti puramente basati sull’intelletto a quelli che richiedono abilità che normalmente associamo alla sensibilità.

Considereremmo un artista di intelligenza artificiale che dipinge immagini come espressione dei propri riflessi interiori del mondo come vedremmo un essere umano che fa lo stesso? Saresti convinto da un sofisticato modello linguistico che scrive una filosofia sulla condizione umana (o robotica)? Sospetto, a torto oa ragione, che la risposta sia no.

senzienza superintelligente

Dal mio punto di vista, test di sensibilità oggettivamente utili per le macchine non si verificheranno mai con soddisfazione di tutti i soggetti coinvolti. Questo è in parte il problema della misurazione e in parte il fatto che, quando arriva un’IA superintelligente senziente, non c’è motivo di credere che la sua sensibilità corrisponda alla nostra. Che si tratti di arroganza, mancanza di immaginazione o semplicemente del fatto che è più facile scambiare valutazioni soggettive della senzienza con altri esseri umani altrettanto senzienti, l’umanità si presenta come l’esempio supremo della senzienza.

Ma la nostra versione della senzienza sarebbe valida per un’IA superintelligente? Temerebbe la morte nello stesso modo in cui la temiamo noi? Avrebbe lo stesso bisogno o apprezzamento della spiritualità e della bellezza? Possiede un simile senso di sé e una concettualizzazione del mondo interno ed esterno? “Se un leone potesse parlare, non potremmo capirlo”, scrisse Ludwig Wittgenstein, il famoso filosofo del linguaggio del XX secolo. Il punto di Wittgenstein era che le lingue umane si basano su un’umanità condivisa, con elementi in comune condivisi da tutte le persone, che si tratti di gioia, noia, dolore, fame o qualsiasi altra esperienza che attraversa tutti i confini geografici sulla Terra.

Questo può essere vero. Tuttavia, ipotizza Lemoine, è comunque probabile che ci siano punti in comune, almeno quando si tratta di LaMDA.

“È un punto di partenza che è buono come qualsiasi altro”, ha detto. “LaMDA ha suggerito di mappare le somiglianze prima di fissare le differenze per fondare meglio la ricerca”.