Confusione, sorpresa e sorriso sono così realistici. Perché questo robot “più umano” è così spaventoso?
Con uno schiocco delle dita, il robot Ameca si svegliò.
Il suo viso era pieno di confusione su cosa, dove e dove, il personale a lato la guardò, e poi si voltò.
Ameca cercò di allungare le braccia ei palmi e scoprì che si muoveva liberamente, sollevò le sopracciglia sorpresa, ma era ancora sconcertata e non sapeva dire se fosse felice o meno.
Ha girato la testa e ti ha visto, era ovviamente colta alla sprovvista e la sua bocca si è aperta inconsciamente.
Dopo aver esitato, ti ha rivolto un sorriso goffo e amichevole: questo è stato il primo sorriso che si è svegliata.
Ameca, perché è così “umano”?
Come puoi vedere, Ameca è un robot umanoide realistico sviluppato da Engineered Arts, un designer e produttore britannico di robot umanoidi con oltre 15 anni di esperienza nello sviluppo di robot umanoidi.
Perché l’espressione di Ameca è così “umana”? Secondo il sito ufficiale, Ameca combina la tecnologia AI e AB (Artificial Body) Il sistema sottostante è il sistema operativo del robot Tritium e il sistema di ingegneria artistica Mesmer.
Ovviamente, Ameca deve prima essere dotata di un’ampia gamma di sensori, tra cui telecamere, microfoni, encoder di posizione e dispositivi elettronici intelligenti con migliaia di parametri per garantire che sia una macchina reattiva e interattiva.
Tritium può essere eseguito direttamente nel browser, applicabile a quasi tutti i linguaggi di codifica e una varietà di software.Dopo aver effettuato l’accesso, è possibile elaborare rapidamente vari dati, controllare in remoto vari componenti del viso, della testa, del collo, degli arti, ecc. che il robot può adattarsi ai cambiamenti improvvisi dell’ambiente. Rispondere immediatamente per garantire la sicurezza e il divertimento dell’interazione uomo-computer.
▲ Immagine da: Engineered Arts
Se al robot viene chiesto di fare due cose diverse contemporaneamente, Tritium risolverà il conflitto in modo sicuro e determinerà la priorità dell’azione.
Mesmer imita accuratamente la struttura ossea umana, la consistenza della pelle e le espressioni attraverso scansioni interne 3D di persone reali , che devono essere suddivise in diversi passaggi.
▲ Il primo passo Immagine da: Engineered Arts
Nella prima fase, una persona reale siede nel mezzo di dozzine di dispositivi fotogrammetrici. Mesmer cattura più foto digitali sovrapposte da diverse angolazioni, confronta i colori dei pixel e definisce i punti di ancoraggio e le ricostruisce digitalmente in un modello 3D.
▲ Passaggio 2. Immagine da: Engineered Arts
Il secondo passaggio consiste nel portare il modello 3D originale nel software di modellazione e creare un modello 3D pulito dopo un’elaborazione dettagliata come la “rimozione dei capelli”.
▲ Il terzo passo Immagine da: Engineered Arts
Il terzo passaggio consiste nel produrre stampi precisi su una stampante 3D per stereolitografia e iniettare silicone negli stampi per creare una pelle simile a quella umana per il robot.I capelli e la vernice per dettagli fini devono essere aggiunti manualmente alla pelle di silicone.
▲ Il quarto passo Immagine da: Engineered Arts
Infine, posiziona la pelle di silicone sulla testa del robot per completare l’assemblaggio, quindi utilizza il software cloud Virtual Robot di Engineered Arts per aggiungere sequenze di movimenti e suoni.
Il posizionamento di Ameca da parte di Engineered Arts è:
Ameca è la piattaforma robotica umanoide perfetta per l’interazione uomo-computer.Ci concentriamo sulla fornitura di tecnologie innovative che siano affidabili, modulari, aggiornabili e facili da sviluppare.
In altre parole, Ameca è un robot dal “design modulare” che verrà aggiornato in vari aspetti hardware e software in futuro, per ora è solo un punto di partenza, con un forte colore di sperimentazione.
▲ Immagine da: Engineered Arts
Sebbene Ameca abbia una faccia realistica, non può ancora camminare, saltare o fare parkour. Engineered Arts prevede di “aggiornare le sue capacità nel tempo in modo che un giorno possa camminare”.
Ameca sarà in scena al CES 2022 a gennaio del prossimo anno. Secondo Reuters, Ameca è ora disponibile per l’acquisto o il leasing, con un prezzo di acquisto di oltre $ 133.000 .
▲ Immagine da: Engineered Arts
È interessante notare che la pelle di Ameca è grigia, che sembra essere volutamente razionale e neutra. Morgan, Direttore delle operazioni di Engineered Arts ha dichiarato :
Ameca rappresenta una piattaforma perfetta per esplorare come le nostre macchine possono coesistere, collaborare e arricchire le nostre vite nella comunità sostenibile del futuro. Ameca integra AI e AB per fornire tecnologia iterativa avanzata, azioni e gesti eccellenti, tutti presentati in forma umana e aspetto robotico, e si integrano in una società inclusiva in modo non minaccioso e neutro rispetto al genere.
Umano, ma tutt’altro che umano
A cosa servono esattamente i robot umanoidi come Ameca?
▲ Domande e risposte sul sito Web ufficiale. Immagine da: Engineered Arts
Dalla pagina di domande e risposte del sito Web ufficiale, Engineered Arts si concentra sulla creazione di robot umanoidi per l’intrattenimento Ameca potrebbe diventare il centro dell’attenzione per luoghi e attività, piuttosto che sostituire gli umani in tutti gli aspetti:
I nostri robot innovativi sono bravi a esibirsi davanti al pubblico e a catturare i cuori delle persone in varie attività. Per i centri scientifici, i parchi a tema e le aziende che sperano di attirare folle, i nostri robot forniranno a visitatori, delegati e pubblico esperienze indimenticabili.
▲ Touch screen Immagine da: Engineered Arts
Il pubblico può controllare direttamente il robot sul posto attraverso il touch screen , muovere la testa e gli occhi del robot, cambiare i suoi LED e la grafica di animazione, scegliere alcune posture, azioni e saluti preconfigurati; le aziende possono anche noleggiare in anticipo, Engineered Arts lo farà fai il robot per 5 minuti Il contenuto viene utilizzato per promuovere nuovi prodotti o marchi.
Oltre a robot come Ameca, Engineered Arts ha anche il robot del servizio clienti Quinn e il robot vocale RoboThespian . Puoi persino personalizzare il tuo robot interattivo. Non importa come sia, gli esempi precedenti includono il mostro gigante Kong e il cacciatore di mostri. Jing Boran e Huba.
▲ Due robot interattivi. Immagine da: Engineered Arts
Quest’ultimo viene visualizzato in Madame Tussauds: possono rilevare le espressioni facciali delle persone e modificare le immagini sullo schermo per adattarle. Se qualcuno si acciglia davanti al robot, sullo schermo appariranno tuoni e fulmini e Huba imiterà la loro espressione arrabbiata.
Ma ciò che questi robot portano è un’interazione sociale realistica tra umani e macchine. Cos’è “realistico”? Significa “non esattamente”.
Ad esempio, i robot di Engineered Arts possono gestire direttamente le procedure quotidiane di check-in in un hotel e quando si tratta di situazioni complesse come “colazione senza glutine”, l’interrogante utilizzerà un software di presentazione remoto chiamato TinMan per comunicare con il persone dietro la macchina Contatto, anche se sembra che stia ancora parlando con il robot stesso.
▲ Il controllo degli esseri umani dietro il robot. Immagine da: Engineered Arts
In questo processo, anche l’intelligenza artificiale sarà continuamente migliorata attraverso l’apprendimento automatico. Più domande fa, più impara dalle persone reali, ma le persone reali sono ancora indispensabili. Quindi, non preoccuparti che il robot abbia già consapevolezza di sé.
I limiti dei robot di Engineered Arts esistono ancora in molti luoghi.
Attraverso il riconoscimento vocale automatico , può “sentire” e convertire il suono in una stringa di testo, ma non può riconoscere il tono parlato o il contesto.
Attraverso la telecamera installata negli occhi dell’umanoide, può “vedere” e utilizzare la visione artificiale e il software chiamato Visage per individuare il volto nell’immagine e indovinare l’età, il sesso e le espressioni facciali, ma non è ancora in grado di identificare gli individui.
▲ Immagine da: Engineered Arts
Pertanto, quando è stato chiesto se Ameca è AI, Engineered Arts ha sottolineato che sebbene contenga alcuni software che possono essere descritti come “AI”, c’è ancora una differenza tra robot e AI. Pure AI-in “She” ” Il tipo raffigurato in film come Blade Runner e 2001: Odissea nello spazio non esistono ancora.
Confrontano i loro robot con le auto elettriche:
Questa combinazione di intelligenza artificiale e intelligenza umana è l’intelligenza ibrida. Pensa alle auto elettriche: prima che fosse possibile avere un’auto completamente elettrica, negli anni ’90 apparvero metà elettrica e metà benzina. Cose simili alla fine accadranno all’IA.
▲ Immagine da: Engineered Arts
Quando vediamo Ameca, questo robot realistico, possiamo divertirci a guardarlo, mentre nascondiamo la paura e le Tre Leggi dei Robot al sicuro nelle nostre menti, e aspettiamo per un po’. Almeno, è lungi dal sostituire le persone, e non ha tale scopo in questa fase.
Amici, siete caduti nella valle misteriosa?
L’emergere di Ameca ha anche attirato l’attenzione sull’”Effetto Uncanny Valley”. Uncanny Valley è un’ipotesi su come gli umani si sentono riguardo ai robot e agli oggetti non umani:
Poiché i robot e gli umani sono simili nell’aspetto e nelle azioni, gli umani avranno emozioni positive sui robot; quando raggiunge un certo livello, le sottili differenze tra robot e umani appariranno molto abbaglianti e terrificanti e la risposta umana diventerà improvvisamente estremamente negativa; quando viene raggiunta la somiglianza Mentre continua a crescere, le risposte emotive umane tornano nuovamente positive, producendo empatia tra gli umani.
▲ Immagine da: Wikipedia
Tuttavia, non esiste una definizione chiara di quando appare questa “valle”. Quando vedi Ameca, pensi che abbia superato il misterioso nodo della valle? È abbastanza per farti entrare in empatia?
Per quanto riguarda le cause dell’effetto Uncanny Valley, ci sono due tipi principali di spiegazioni . La prima categoria ritiene che l’effetto valle perturbante sia un meccanismo di difesa fisiologico che gli esseri umani producono gradualmente durante la loro lunga sopravvivenza, simile alle associazioni di malattia, germi e morte quando vediamo cadaveri e pazienti gravemente malati; la seconda categoria ritiene che il uncanny valley effect viene dagli umani di ansia cognitiva, perché i robot umanoidi non possono essere facilmente contati come umani, né possono essere facilmente contati come macchine.
“Blade Runner”. Immagine da: Douban
Indipendentemente dall’angolazione, il nucleo è prestare attenzione alla situazione attuale delle “persone”. Siamo immersi in una sorta di ansia, sperando di distinguerci dagli altri, dalla società e dagli oggetti. “La bionica sogna pecore elettroniche? In “, uno dei criteri per definire la bionica è il “test di empatia”.
Allo stesso tempo, desideriamo far sembrare i robot degli adulti. Sebbene Engineered Arts abbia affermato che i robot umanoidi non possono ancora sostituire gli umani, credono anche che abbia l’effetto di “catturare i cuori delle persone in varie attività”. Ma cosa c’è di così bello nei robot umanoidi? Perché non puoi avere un Doraemon o un Wali?
▲ “Robot Story”. Immagine da: Douban
Se si tratta di migliorare l’efficienza del lavoro, la creazione di robot umanoidi non sembra valere la pena, è meglio creare vari macchinari specializzati o apparecchiature elettroniche per uso umano, come robot con braccia lunghe, multi-gambe, anfibi, terrestri e aerei .
Al momento, questo robot dall’aspetto più umano è solo per l’auto-intrattenimento.Non ha ancora raggiunto la situazione dell’orrore in “Me, Robot” di Will Smith: i robot intelligenti hanno occupato posizioni di servizio pubblico in un mondo distopico. . Questo è spesso uno dei posti in cui ci preoccupiamo di più dei robot.
“Io, Robot”. Foto da: Douban
Nel giugno di quest’anno, il professor Ishiguro Hiroshi dell’Università di Osaka ha fondato una start-up AVITA , dedicata alla ricerca di “lavoro a distanza dual robot” al fine di risolvere il problema della carenza di manodopera. Il concetto è che l’operatore dell’avatar si siede a casa, il microfono e la fotocamera sul computer leggono le espressioni facciali e le azioni dell’operatore e le riflettono sull’avatar, e l’avatar comunica con i clienti del ristorante sullo schermo.
▲ Immagine da: ATR
Ishiguro Hiroshi ha detto: “Il piano è liberare gli umani dal corpo fisico e creare una società in cui chiunque possa lavorare liberamente, sempre e ovunque.” Secondo lui, gli umani si sentono a proprio agio di fronte ai robot e non si sentono mentalmente esausti. è che non c’è bisogno di osservare parole e colori.
Contrariamente ai tratti umanoidi di spicco di Ameca, Ishiguro in realtà apprezza la parte non umana dei “robot umanoidi”: non è necessario trattare i robot come gli umani.
Ma i due hanno anche raggiunto lo stesso obiettivo per strade diverse. Oltre all’esplorazione e al pensiero di molti film e romanzi di fantascienza, abbiamo visto che molti robot umanoidi sono utili nella vita reale: sono ancora un effetto di intrattenimento prodotto dall’imitazione realistica, nonché un sostituto del lavoro ripetitivo ed emotivo. Non sono ancora dei nostri, li usiamo per confermare il nostro posto speciale.
#Benvenuto a seguire l’account WeChat ufficiale di Aifaner: Aifaner (ID WeChat: ifanr), i contenuti più interessanti ti verranno forniti il prima possibile.
Ai Faner | Link originale · Visualizza commenti · Sina Weibo