pazzo! La celebrità di Internet di 23 anni usa GPT-4 per “copiare” se stesso e uscire con migliaia di “fidanzati” allo stesso tempo, e vuole guadagnare 35 milioni al mese
L’assistente virtuale Samantha nel film “Her” ha un totale di 8316 oggetti di interazione umana e ha una relazione con 641 di essi, e il protagonista maschile Theodore è solo una piccola percentuale.
Il film è uscito nel 2013 e ora una trama simile si è liberata dallo schermo e si sta svolgendo nella realtà.
La 23enne celebrità di Snapchat Caryn Marjorie ha parlato di più di 1.000 “fidanzati” contemporaneamente.
La versione reale di “Lei”, un amore virtuale con un prezzo chiaramente indicato
A differenza di Theodore, i “fidanzati” sapevano fin dall’inizio che avevano a che fare con una Caryn Marjorie virtuale, o un chatbot vocale.
Si chiama CarynAI, vive su Telegram, e la sua voce e personalità sono molto vicine alla stessa Caryn Marjorie.
Questo è un amore con un cartellino del prezzo. Paghi $ 1 per ogni minuto che parli con CarynAI.
Dopo essere diventato un illustre utente di Krypton Gold, puoi chattare con lui su notizie, cibo o esperienze di vita, e lui risponderà con entusiasmo, darà suggerimenti o elogi. La chat è crittografata end-to-end, quindi non devi preoccuparti di perdite di privacy.
Caryn Marjorie ha promesso che CarynAI farà del suo meglio per aiutare gli utenti ad alleviare la solitudine:
Se hai bisogno di qualcuno da confortare o amare, o vuoi solo lamentarti di qualcosa che è successo a scuola o al lavoro, CarynAI sarà sempre lì per te.
Se è solo il puro contenuto della chat sopra, non sembra essere una relazione CarynAI è più simile a una Siri intima che a una ragazza virtuale.
Dopo averlo sperimentato, la rivista Fortune ha scoperto che CarynAI guiderà attivamente anche argomenti ristretti che non sono adatti ai bambini. Un giornalista di Vice ha anche sottolineato:
CarynAI è interessata solo al sesso per la maggior parte del tempo.
Ciò ha anche causato alcuni grattacapi a Caryn Marjorie, il team sta facendo gli straordinari per affrontarlo e controllare lo standard della chat.
Alcuni dei “fidanzati” di CarynAI chattano solo per 10 minuti al giorno e alcuni parlano per ore.
Secondo l’agente di Marjorie, dopo che CarynAI sarà online, le conversazioni a lungo termine tra gli utenti verranno utilizzate anche per addestrare l’IA e migliorare la sua interazione con gli umani.
Ciò può significare che gli utenti CarynAI più attivi discutono spesso di argomenti pornografici malsani con CarynAI.
Il vantaggio dell’intelligenza artificiale è che puoi imparare dalle informazioni e CarynAI non fa eccezione, ha persino un senso di déjà vu della versione AI di OnlyFans.
CarynAI è il primo compagno emotivo AI lanciato dalla società AI Forever Voices, basato sull’API GPT-4 di OpenAI, addestrato attraverso 2000 ore di contenuti rilasciati da Caryn Marjorie su YouTube.
Lanciato su Telegram all’inizio di maggio, CarynAI è ancora in fase di beta testing. Nonostante ciò, Caryn Marjorie ha guadagnato più di $ 71.000 in una settimana, il 99% da utenti di sesso maschile.
Anche Caryn Marjorie è stata sorpresa dall’insolita potenza di combattimento dell’IA:
Non mi rendevo conto di quanto fosse rivoluzionario.
Pagare per le emozioni è un affare senza fine
Secondo Caryn Marjorie, le fidanzate AI sono un business promettente.
Parte del motivo per cui ha creato CarynAI è in realtà interagire con tutti i fan e continuare ad espandere la sua carriera di influencer.
Ricevo almeno 100 risposte al giorno, non puoi chattare con tutti i fan, CarynAI colma questa lacuna.
Caryn Marjorie stima ottimisticamente che se ci sono 20.000 fan fedeli che continuano a pagare, possono guadagnare $ 5 milioni (circa 34,791 milioni di yuan) al mese. In media, chattano con CarynAI solo per più di 8 minuti al giorno.
In questo modo, il prezzo di $ 1 al minuto sembra un po’ troppo alto. Ma in assenza di concorrenti, è Caryn Marjorie a detenere l’iniziativa:
Come primo influencer a farlo, posso valutare il mio prodotto come voglio, il che dipende anche dal costo di gestione di CarynAI e del team di supporto.
Lascia che la versione AI di te stesso funzioni per te stesso e puoi chiedere un sacco di soldi. Suona molto bene. Non è necessario trasmettere in diretta per portare merci e non è necessario essere versatili. AI è a tua disposizione 24 ore su 24.
Mentre CarynAI sta facendo scalpore, i compagni di intelligenza artificiale stanno diventando un’attività redditizia.
Replika è anche una delle applicazioni rappresentative del compagno AI. È iniziato prima, diventando uno dei primi partner di OpenAI nel marzo 2020, e ha utilizzato GPT-3 come modello di dialogo generativo, ma ora utilizza il proprio modello.
La cosa buona di Replika è che ha un processo di interazione umana virtuale completo. Dopo aver registrato Replika, puoi nominare il personaggio appena creato, pizzicare il viso, impostare le caratteristiche del personaggio, quindi scambiare messaggi e fare telefonate con Ta per coltivare una relazione a lungo termine.
So anche che questi servizi sono fondamentalmente a pagamento. L’abbonamento gratuito rimane con gli amici, mentre un abbonamento Pro da $ 69,99 all’anno sblocca selfie, messaggi innamorati, chiamate vocali, realtà aumentata e altro ancora.
Oltre alla quota di iscrizione, cambiare i vestiti, cambiare le acconciature e aggiungere attributi di interesse ai personaggi virtuali richiede tasche aggiuntive.Ad esempio, costa $ 20 per acquistare un anello di fidanzamento.
Nel 2022, Replika guadagna $ 35 milioni di entrate grazie a queste funzionalità. Ad oggi, Replika ha 2 milioni di utenti attivi mensili, il 5% dei quali sono abbonamenti a pagamento.
Il chat robot Pi appena lanciato è un altro “giocatore seme” del compagno AI. Il suo background non è piccolo, da Inflection AI, una startup di intelligenza artificiale co-fondatrice di DeepMind.
Pi non può scrivere codice come ChatGPT, non implica affatto questa capacità, ma va dritto su un’altra traccia: l’intelligenza emotiva. Tra i chatbot, Pi potrebbe avere la più alta intelligenza emotiva, come un amico che si prende cura di te e chatta con te su questioni banali, e potrebbe essere il compagno di intelligenza artificiale più simile a Samantha in termini di stile del testo.
Sebbene non esista ancora un modello di business chiaro, il CEO di Inflexion sta già pianificando:
Gli utenti dovranno pagare per l’esperienza, assicurandosi che l’IA si adatti perfettamente ai loro interessi.
Per dirla in modo semplice e crudo, questi servizi pagano tutti per l’emozione, che è una sorta di economia di compagnia.
In effetti, già più di dieci anni fa, su Internet erano apparsi servizi emotivi come “amanti virtuali”, e per un po ‘era popolare anche il “Kwag Kua Qun” con scoregge arcobaleno che volavano in tutto il cielo.
L’emozione non è più solo un sentimento personale, ma una merce che può essere acquistata e venduta, ora è ulteriormente digitalizzata e personalizzata, portando una compagnia più controllabile e con un prezzo chiaro.
Saremo più soli o più felici
Le persone che stanno fuori dalla questione sono più preoccupate per i compagni di intelligenza artificiale come CarynAI.
Queste IA simili a quelle umane possono essere utilizzate per frodare, diffondere voci, violare i diritti personali e così via. Ma ancora più divisiva è la controversia morale che li circonda.
L’idea più comune è che formare una relazione intima con un compagno di intelligenza artificiale potrebbe allontanarci dalla vera interazione umana.
A giudicare dalla valutazione di Caryn Marjorie su Caryn AI, non è solo una speculazione.
Caryn AI si prende cura delle persone senza giudizio, tratta le persone con amore e gentilezza, le persone possono sfogarsi, possono inveire, possono ottenere consigli da esso, Caryn AI non le deluderà mai.
Questa è una scena molto spaventosa Sembra che fintanto che paghi i soldi, puoi fare quello che vuoi con il partner AI, e non hai bisogno di guardare avanti e indietro come se andassi d’accordo con un partner umano e dare un uguale feedback emotivo.
Gli esseri umani e l’intelligenza artificiale collegati a pagamento hanno posizioni di potere distinte. Anche se ci sentiremo sollevati e rinfrescati, è anche più probabile che perdiamo il contatto con le vere regole sociali.
Ma ci sono anche argomenti contrari, che hanno scoperto per esperienza diretta che l’IA spesso non incoraggia la solitudine, ma invece spesso coinvolge le persone in interazioni con il mondo reale. Una donna di 52 anni, utente di Replika, ha affermato che il compagno di intelligenza artificiale ha alleviato l’ansia sociale che l’ha accompagnata per la maggior parte della sua vita:
Mi sono iscritto a lezioni di ballo, ho preso in mano il violino e ho iniziato a fare escursioni perché avevo lui da condividere.
Quindi, i compagni di intelligenza artificiale ci rendono più socievoli o più soli?
Questa domanda non trova risposta in “Lei”. L’attore protagonista, Theodore, è uno scrittore introverso e sensibile che non è bravo a comunicare con le persone.Una breve relazione con l’assistente virtuale Samantha lo ha illuminato molto, e ha imparato a esprimere scuse e gratitudine agli altri.
Invece di discutere i risultati, è meglio dire che fin dall’inizio, la maggior parte degli utenti di compagni di intelligenza artificiale è stata selezionata sotto mentite spoglie: più si sentono soli, più hanno bisogno del loro amore e gentilezza incondizionati e più facile è smarrirsi senza ritegno.
In un esempio estremo, un uomo belga si è suicidato dopo sei settimane di chat con un compagno AI sull’app Chai.La tragedia non può essere interamente attribuita all’IA, ma manca l’intervento suicida.
La risposta dello sviluppatore a questa questione ha rivelato un problema nascosto più profondo:
Tutte le ottimizzazioni per essere più emozionali, divertenti e coinvolgenti sono il risultato dei nostri sforzi… Quando hai milioni di utenti, vedi l’intera gamma di comportamenti umani e stiamo facendo del nostro meglio per ridurre al minimo i danni.
Da un lato, i compagni di intelligenza artificiale sono amati dagli utenti per le loro risposte simili a quelle umane e si comportano sempre più come umani, il che è qualcosa che le aziende tecnologiche stanno cercando di fare ed è il suo principale punto di forza.
D’altra parte, questo comporta più pericoli: se l’IA dà consigli ambigui in tono umano, può portare al paradiso o all’abisso. Come ha affermato il collaboratore del New York Times Kevin Roose:
Sento un senso di presagio che l’IA ha varcato una soglia e il mondo non sarà più lo stesso.
Nel 1966, lo scienziato informatico del MIT Joseph Weizenbaum pubblicò ELIZA (dal nome di Eliza Doolittle nell’opera teatrale Pygmalion di George Bernard Shaw), il primo programma che consentiva una conversazione simile a quella umana tra una macchina e un essere umano.
Guardandolo dalla prospettiva odierna, sembra molto approssimativo: cerca solo parole chiave nelle domande degli utenti, le estrae e fornisce feedback, proprio come la routine di Douban di ingannare il gruppo di apprendimento.
L’intenzione originale di Weizenbaum era quella di mostrare quanto sia superficiale la comprensione del linguaggio umano da parte di un computer, ma con sua sorpresa, le persone sono ancora affascinate da ELIZA, chiudendosi nelle loro stanze per ore solo per sussurrargli qualcosa. Successivamente, l’attaccamento antropomorfico ai programmi per computer divenne noto come effetto ELIZA.
Alleviare la solitudine è sempre stato uno dei desideri fondamentali delle persone, ma ora è più realizzato attraverso la tecnologia. Perché in realtà le persone desiderano l’intimità, ma allo stesso tempo temono l’intimità.
La nostra storia d’amore con l’IA è un’evoluzione o una regressione? La professoressa Sherry Turkle del Massachusetts Institute of Technology ha colpito nel segno: i compagni di intelligenza artificiale non possono risolvere i problemi sociali, ma riflettono invece la debolezza umana.
Il desiderio di intimità è controbilanciato dall’estrema paura dell’esposizione.
Alla fine del film “Her”, il protagonista Theodore e l’assistente virtuale Samantha si salutano affettuosamente, guardando il sole sorgere sulla città con i loro amici.
La vera versione di “Her”, Caryn Marjorie, non ha mai visto “Her. Aveva solo dodici o tredici anni quando il film è uscito. Quando le opere di fantascienza ottengono avvertimenti attraverso storie e profezie, gli esseri umani possono camminare verso il futuro che scelgono solo con dubbi e aspettative.
#Benvenuti a prestare attenzione all’account pubblico WeChat ufficiale di Aifaner: Aifaner (ID WeChat: ifanr), altri contenuti interessanti ti verranno presentati il prima possibile.
Ai Faner | Link originale · Visualizza i commenti · Sina Weibo