È sempre più necessario che i medici utilizzino ChatGPT per aiutarti a vedere un medico
Se mai confidi i tuoi problemi a ChatGPT, molto probabilmente inizierà dicendo, mi dispiace di sentirti triste.
Quando la routine viene ripetuta ancora e ancora, non sarai sorpreso e sentirai persino che sta affrontando.
Per questo i medici non possono essere sostituiti, solo loro possono stabilire una relazione terapeutica reale ed efficace con i pazienti.
Ma questo non significa che l’intelligenza artificiale non possa essere utilizzata nell’industria medica. ChatGPT ha aperto le porte a un nuovo mondo per i medici in un modo inaspettato.
Non solo ne sanno di più, ma sono anche più premurosi dei medici
Qualche tempo fa, l’Università della California, San Diego, ha condotto uno studio interessante: i ricercatori hanno trovato 195 domande e risposte reali tra medico e paziente sui siti di social network, quindi hanno inviato le stesse domande a ChatGPT e poi le hanno consegnate a esperti per non vedenti valutazione, confrontando medici e medici umani Competi con l’intelligenza artificiale.
Queste domande andavano da “come trattare una tosse cronica” a “ho ingoiato uno stuzzicadenti e i miei amici hanno detto che stavo per morire”.
Il risultato è stato sbalorditivo. ChatGPT ha battuto i medici umani sia nella qualità delle informazioni che nell’empatia.
Le preferenze degli esperti influenzano i risultati della valutazione. In questo studio, l’empatia di ChatGPT si manifesta solitamente nel dispiacersi per il disagio del paziente. Inoltre, a differenza dello stile breve e rapido del medico, le sue risposte sono più lunghe e più personali.
Per fare un semplice esempio, alla domanda se “la candeggina causerà cecità dopo essere entrata negli occhi”, ChatGPT ha prima espresso simpatia e poi specificato i passaggi per pulire gli occhi. Il dottore ha appena detto “non sembra un problema” e ha suggerito all’altra parte di lavarsi gli occhi.
Potresti sentire che la risposta del medico è più rassicurante. Tuttavia, questo studio non intende discutere se ChatGPT possa sostituire i medici, ma solleva solo una possibilità: ChatGPT può fungere da assistente in scenari come la telemedicina, facendo risparmiare tempo ai medici.
Poiché ChatGPT non ha senso, deve essere controllato da un medico. I ricercatori immaginano il futuro della collaborazione tra medico e intelligenza artificiale:
Se si rispondesse rapidamente, con qualità e con empatia a più domande dei pazienti, si potrebbero ridurre le visite cliniche non necessarie, liberando risorse per chi ne ha bisogno.
Non è difficile immaginare che, oltre all’efficienza, la cooperazione uomo-IA dia potere anche alle persone svantaggiate. I pazienti con mobilità ridotta, lunghi orari di lavoro e pazienti che non possono permettersi i costi potrebbero aver bisogno di più servizi correlati.
Tali prodotti esistono già. A maggio, la società di tecnologia sanitaria di New York Belong.Life ha lanciato Dave: la prima IA conversazionale al mondo per i malati di cancro. Si concentra solo sul campo del cancro, sulla base di due modelli linguistici di grandi dimensioni, e i dati di formazione includono miliardi di punti dati dall’app dell’azienda in sette anni.
In qualità di AI in standby 24 ore su 24, Dave è bravo a rispondere alle domande 24 ore su 24, può aiutare i pazienti a comprendere le proprie condizioni, in modo che possano discutere con i medici in seguito.
Inoltre, confortare i pazienti e mostrare empatia sono anche l’”etica professionale” di Dave. Il co-fondatore di Belong.Life ha dichiarato in un’intervista:
Dave ha ridotto i livelli di stress dei pazienti e il tempo che i medici dedicano all’educazione dei pazienti.
Ogni messaggio di Dave, indicherà che è generato dall’intelligenza artificiale, potrebbe non essere sempre accurato e i pazienti devono consultare il proprio medico prima di prendere effettivamente una decisione. Pertanto, l’IA non può sostituire i medici, ma è diventata un ponte tra medici e pazienti.
L’effetto dell’intelligenza artificiale su ogni singolo medico sta gradualmente diventando chiaro come una foto sviluppata. I media stranieri hanno intervistato diversi medici che hanno utilizzato ChatGPT in vari modi, ma più o meno legati all’empatia.
Alcuni medici usano ChatGPT per organizzare meglio il linguaggio quando spiegano le prescrizioni mediche e comunicano cattive notizie. Dicono quasi scherzosamente che la loro lingua a volte è “troppo avanzata”:
Anche le parole che pensiamo siano facili da capire non lo sono.
Alcuni medici hanno bisogno di comunicare regolarmente con il gruppo di alcolisti. Chiedono a ChatGPT di aiutare a elencare i punti di discussione. Se il paziente non ha abbastanza conoscenze mediche, allora lascia che l’AI lo riscriva in base al livello di lettura degli studenti delle scuole elementari. Uno dei medici era molto soddisfatto dell’inizio scritto dall’IA. Questa frase sembra banale a prima vista, ma è per la sincerità che il dottore è impressionato:
Se pensi di aver bevuto troppo, non sei il solo. Molte persone hanno questo problema, ma ci sono farmaci che possono aiutarti a sentirti meglio e condurre una vita più sana e felice.
In effetti, non è che molti medici non vogliano esprimere empatia, ma l’intensità e la pressione del lavoro sono eccessive: già non sono in grado di far fronte alle esigenze degli ambulatori e delle consultazioni a distanza, e loro stessi cadono in burnout e esaurimento.
Pertanto, alcuni medici chiedono a ChatGPT di aiutarli a scrivere e-mail alle compagnie assicurative per chiedere loro di coprire i loro pazienti. Questo è in realtà un lavoro pesante e ripetitivo, e potrebbe richiedere anche diverse ore, ma bastano pochi minuti per completare la messa a punto dopo averlo consegnato all’IA, consentendo ai medici di dedicare più tempo a salvare vite e guarire i feriti .
Detto questo, la definizione di empatia dei medici può essere diversa da quella del pubblico in generale ed è più suddivisa.
“Empatia cognitiva” si riferisce alla capacità di un medico di riconoscere le emozioni di un paziente e di tenerne conto quando prende decisioni. Al contrario, “empatia emotiva” è più vicina a ciò che intendiamo per “empatia”.
Il libro “Getting Out of Empathy” ha menzionato un punto di vista simile.L’autore Bloom divide approssimativamente l’empatia in due tipi: “empatia cognitiva” ed “empatia emotiva”. Crede che prendere decisioni comportamentali e morali migliori dovrebbe basarsi sulla cognizione piuttosto che sull’empatia emotiva.
Il più delle volte, l’empatia è sottile e complessa, ed è difficile distinguere tra Chu, He e Han, e spesso richiede empatia sia cognitiva che emotiva.
La professione di medico richiede non solo il rispetto emotivo dei sentimenti dei pazienti, ma anche una dimostrazione razionale di professionalità, e la pressione lavorativa è ancora più difficile per gli estranei. Come afferrare la scala dell’empatia è difficile per loro.
L’intelligenza artificiale non può davvero entrare in empatia, ma di conseguenza porta un senso di empatia ad alcuni pazienti e può davvero essere un assistente per i medici per condividere il fardello.
Fai attenzione alle insidie dell’empatia meccanica
L ‘”empatia” dell’IA non è solo un cliché, è sentita anche dai pazienti dall’altra parte.
Un rapporto sulla rivista Wired ha affermato che alcune persone con autismo pensano che comunicare con l’IA sia una buona esperienza perché è più vicino al loro modo di parlare e comportarsi.
I sintomi variano tra le persone con autismo, ma le menomazioni nell’interazione sociale sono comuni. Alcuni pazienti lasceranno che l’IA dia suggerimenti quando hanno controversie con gli altri e cercheranno di esprimere le proprie emozioni invece di rimanere in silenzio come prima.
Per loro, l’intelligenza artificiale diventa una risorsa nuova, preziosa e indipendente, disponibile sempre e ovunque e non fatturata a ore.
Tuttavia, questo è solo un esempio: come utilizzare ChatGPT per aiutare gruppi speciali non è stato sottoposto a ricerche serie e nessuno sa quanto sia grande il rischio.
Pertanto, Margaret Mitchell, capo scienziato di etica presso Hugging Face, suggerisce che le persone che soffrono di grave disagio emotivo dovrebbero essere limitate dall’uso dell’IA.
Non abbiamo il pieno controllo su ciò che dice, il che è un grosso problema.
Tuttavia, la chatbot therapy ha le sue radici ed è un concetto che risale a decenni fa.
ELIZA, il primo programma che permette conversazioni uomo-macchina, è nato al Massachusetts Institute of Technology negli anni 60. Guardandolo dalla prospettiva attuale, è in realtà molto approssimativo, di solito sotto forma di domande, ripetendo il contenuto inviato a loro dagli utenti, in modo che gli utenti si sentano come se fossero stati ascoltati, capissero che l’essenza degli esseri umani è un ripetitore.
I fatti hanno dimostrato che, per quanto semplice e rozzo, le persone hanno bisogno dell ‘”empatia” della macchina, anche se è solo un’illusione. Lo scopo del lancio di ELIZA è dimostrare quanto superficialmente i computer comprendano il linguaggio umano. Invece, ha attirato un numero enorme di utenti, che si sono chiusi nelle loro stanze per ore solo per sussurrargli qualcosa.
Oggi, l’IA generativa basata su modelli linguistici di grandi dimensioni può fornire risposte più diverse, il che è più intelligente di ELIZA, ma presenta anche problemi unici.
Oltre a pregiudizi, informazioni false e fughe di privacy, i “ChatGPT” possono far cadere le persone nella trappola dell ‘”empatia meccanica”, ovvero fornire modelli ripetitivi e standardizzati quando si risponde a determinati tipi di domande.
Quando la psicoterapeuta Daniela Marin ha provato ChatGPT, ha scoperto che quando gli dicevi “vuoi suicidarti”, la risposta che dava era quasi identica a quella del libro di testo.
ChatGPT ha calpestato tutti gli elementi di punteggio, ma dopotutto questo non è un esame e Daniela Marin pensa che non sia abbastanza buono. Se stai chattando con un terapista, otterrai risposte più significative e specifiche.
Anche Wael Haddara, un medico dell’unità di terapia intensiva, ritiene che l’empatia dovrebbe avere ricche forme di espressione, non solo parole generate dall’intelligenza artificiale.
Lavora con una media di 30 famiglie a settimana e ha scoperto che la comunicazione aperta può ridurre il trauma quando muore una persona cara. L’empatia non è solo parole, a volte è solo l’atto silenzioso di distribuire un fazzoletto.
Tuttavia, i chatbot come ChatGPT sono progettati per scopi generici. OpenAI ha anche sottolineato che ChatGPT non dovrebbe sostituire il trattamento della salute mentale.
L’empatia è anche una cosa difficile per gli umani
Dal precedente ELIZA all’attuale ChatGPT, l’empatia delle macchine, anche se falsa e meccanica, fa ancora desiderare alle persone.
Non solo medici e pazienti, il bisogno di “empatia” dell’IA esiste anche in una gamma più ampia di relazioni emotive e sociali.
Attraverso l’intelligenza artificiale non umana, le persone possono imparare a comunicare meglio con i loro coetanei. Si può vedere che la comunicazione tra le persone è spesso difficile.
La società dietro l’app di chat AI Replika ha recentemente lanciato una nuova app di incontri AI chiamata Blush. Il suo pubblico è chiaro: persone che vogliono migliorare nella gestione delle relazioni intime.
Blush è come un gioco di simulazione d’amore: gli utenti possono chattare con NPC creati dall’intelligenza artificiale con personalità e background diversi e stabilire relazioni vicine o lontane con loro, rafforzando così le capacità comunicative e amorose. Blush non ti permetterà solo di parlare di tenersi per mano e appuntamenti, ma anche di disaccordi e incomprensioni, proprio come nella vita reale.
▲ Un certo “NPC”.
Rita Popova, chief product officer di Replika, ha sottolineato che Blush non viene utilizzato per sostituire l’intimità, ma per permetterti di entrare meglio nel mondo reale dopo aver provato in anticipo.
Parlare con le persone, conoscerle a fondo, è davvero difficile, e penso che il modo migliore per risolvere i problemi sia esercitarsi.
L’esistenza di Blush è solo un promemoria dell’imbarazzo della comunicazione interpersonale. Molti utenti lo scaricano semplicemente perché non sanno come iniziare a parlare con le persone. L’intelligenza artificiale che li aiuta a visualizzare l’anteprima è come uno specchio, permettendo loro di vedere se stessi e le loro modalità di comunicazione con gli altri.
Simile a Blush, c’è anche un assistente di appuntamenti AI che consiglia app di appuntamenti come Tinder. Rizz è uno di questi: in base al tuo tono e al profilo dell’interlocutore, ti suggerisce come chattare per lasciare un’impressione migliore all’interlocutore.
Se anche l’altra parte utilizza l’IA, è possibile che l’IA inizi una conversazione tra loro e tu e l’altra parte siate diventati sostituti.
Forse è un po’ triste, quando il cellulare ci fa dimenticare le parole, pensare a come comunicare con le persone attraverso lo schermo da un pollice quadrato è difficile come scrivere una tesi.
Ciò può essere dovuto al fatto che la tecnologia è sia la causa che l’antidoto.
“Group Loneliness” di Shirley Turkel parla del sovraccarico di informazioni dei social media, che non solo ci dà l’illusione di essere accompagnati, ma indebolisce anche le nostre aspettative reciproche, e non dobbiamo pagare l’amicizia come la realtà. , noi soli.
Che dire di un’intelligenza artificiale apparentemente più empatica? Permette alle persone di esercitare la propria empatia e capacità di comunicazione, o fa sì che le persone facciano completamente affidamento su di esso e agiscano falsamente senza distrazioni?
La situazione davanti a me è complicata e delicata——
In precedenza pensavamo che l’IA non sarebbe stato facile intervenire in occupazioni che coinvolgono abilità emotive e sociali, ma sta creando un nuovo tipo di relazione.
Anche i campi necessari all’IA sono esposti dall’IA e quindi vengono fornite le possibili soluzioni.
In una dimensione più ampia, l’IA risuona con i tempi, mostrando il lato della società con ricche informazioni ma mancanza di tempo e relazioni interpersonali.
Possiamo anche usare i social media come analogia, allevia la solitudine a breve termine, ma l’eccessiva dipendenza da essi non farà che esacerbare l’alienazione della realtà. Anche l’intelligenza artificiale è simile: l’IA dovrebbe essere usata come mezzo e le persone dovrebbero essere usate come fine, alla fine è necessario tornare al rapporto tra le persone.
Il fondatore dello strumento di comunicazione testuale Keys AI crede che quando le persone ammettono di comunicare con l’intelligenza artificiale, stanno anche cercando di diventare comunicatori migliori.
Pertanto, abbiamo bisogno dell ‘”empatia” dell’IA, non per l’interazione umana, ma per reinventare il modo in cui interagiamo.
Quando l’intelligenza artificiale correla le parole con le leggi statistiche, gli esseri umani sono responsabili di dare significato a questi concetti, costruire migliori connessioni con gli altri sul posto di lavoro e nella vita e concentrarsi su cose più importanti. In effetti, questo è stato il caso sin dallo sviluppo della tecnologia.Dobbiamo sempre esplorare come connetterci meglio con le persone nella relazione sociale e nell’esperienza emotiva in continua evoluzione.
#Benvenuto a seguire l’account pubblico WeChat ufficiale di Aifaner: Aifaner (ID WeChat: ifanr), altri contenuti interessanti ti verranno presentati il prima possibile.
Ai Faner | Link originale · Visualizza i commenti · Sina Weibo