sâmbătă, noiembrie 29, 2025
AcasăCaleidoscopEmpatic, Disponibil, Ieftin: când inteligența artificială oferă ceea ce medicii nu oferă

Empatic, Disponibil, Ieftin: când inteligența artificială oferă ceea ce medicii nu oferă

Frustrați de sistemul medical, unii pacienți apelează la chatboți pentru ajutor. Dar cu ce preț? Despre efectele bune și rele relatează jurnaliștii de la The New York Times.

Wendy Goldberg a crezut că întrebarea ei era destul de simplă. Avocată pensionară în vârstă de 79 de ani din Los Angeles, dorea să consume mai multe proteine, ceva ce citise că ar putea ajuta la refacerea densității osoase. Sperase ca medicul ei de familie să-i spună exact cât înseamnă „suficient”.

A trimis repede un mesaj, dar răspunsul a lăsat-o cu impresia că medicul nu îi citise întrebarea, nici măcar fișa medicală. Medicul i-a oferit sfaturi generale: să renunțe la fumat (nu fumează), să evite alcoolul (nu bea), să facă mișcare regulat (se antrenează de trei ori pe săptămână). Cel mai enervant, i s-a spus să consume „o cantitate adecvată de proteine pentru a susține sănătatea oaselor”, fără nicio specificație.

Frustrată, doamna Goldberg a adresat aceeași întrebare către ChatGPT. În câteva secunde, acesta i-a generat un obiectiv zilnic de proteine, exprimat în grame.

I-a trimis medicului un ultim mesaj: „Pot obține mai multe informații de la ChatGPT decât de la dumneavoastră.”

Doamna Goldberg nu avea cu adevărat încredere în ChatGPT, a spus ea, dar devenise „deziluzionată de starea sistemului medical corporatist”.

Împinși parțial de frustrarea față de sistemul medical, tot mai mulți caută sfaturi de la inteligența artificială. Anul trecut, aproximativ unul din șase adulți — și aproximativ un sfert dintre adulții sub 30 de ani — au folosit chatboți pentru a găsi informații medicale cel puțin o dată pe lună, potrivit unui sondaj al KFF, un grup de cercetare în politici de sănătate. Liz Hamel, care conduce departamentul de cercetare al grupului, a spus că numărul probabil este și mai mare acum.

În zeci de interviuri pentru The New York Times, americanii au descris cum folosesc chatboții pentru a compensa neajunsurile sistemului medical. O femeie liber-profesionistă din Wisconsin întreba în mod obișnuit ChatGPT dacă era sigur să renunțe la programări medicale costisitoare. O scriitoare dintr-o zonă rurală a Virginiei a folosit ChatGPT pentru a se orienta în perioada de recuperare postoperatorie, în săptămânile dinaintea unei consultații. O psihologă cliniciană din Georgia a căutat răspunsuri după ce medicii i-au ignorat îngrijorările privind un efect secundar al tratamentului ei pentru cancer.

Unii sunt utilizatori entuziaști. Alții, precum doamna Goldberg, au încercat chatboții cu precauție. Știu că inteligența artificială poate greși. Dar apreciază că este disponibilă la orice oră, costă aproape nimic și îi face să se simtă ascultați, cu impresii convingătoare de empatie — scriind adesea cât de rău îi pare să audă despre simptome și cât de „minunate” și „importante” sunt întrebările și teoriile utilizatorilor.

Deși pacienții au folosit de mult timp Google și site-uri medicale pentru a încerca să-și înțeleagă sănătatea, chatboții AI s-au diferențiat prin faptul că oferă impresia unei analize autoritare și personalizate într-un mod pe care sursele tradiționale nu îl oferă. Acest lucru poate duce la simulări de relații umane și poate genera niveluri de încredere disproporționate.

„Cu toții începem acum să acordăm atât de multă importanță acestor lucruri încât devine puțin îngrijorător”, a spus Rick Bisaccia, 70 de ani, din Ojai, California, deși a constatat că ChatGPT este util în unele cazuri când medicii nu aveau timp pentru întrebările lui. „Dar este foarte adictiv pentru că se prezintă ca fiind atât de sigur pe el.”

Această tendință remodelează relațiile dintre medici și pacienți — și îi alarmează pe unii experți, având în vedere că chatboții pot inventa informații și pot fi excesiv de conciliatori, uneori întărind presupuneri greșite. Sfaturile boților au dus la unele dezastre medicale de mare notorietate: de exemplu, un bărbat de 60 de ani a fost reținut săptămâni întregi într-o secție de psihiatrie după ce ChatGPT i-a sugerat să reducă sarea consumând în schimb bromură de sodiu, ceea ce i-a provocat paranoia și halucinații.

Termenii de utilizare ai multor chatboți afirmă că aceștia nu sunt destinați furnizării de sfaturi medicale. Ei menționează, de asemenea, că instrumentele pot greși (ChatGPT le spune utilizatorilor să „verifice informațiile importante”). Dar cercetările au arătat că majoritatea modelelor nu mai afișează avertismente atunci când oamenii pun întrebări legate de sănătate. Iar chatboții sugerează în mod obișnuit diagnostice, interpretează analize și oferă recomandări de tratament, inclusiv texte pregătite pentru a ajuta utilizatorii să-i convingă pe medici.

Reprezentanții OpenAI, care produce ChatGPT, și ai Microsoft, care produce Copilot, au spus că firmele tratează cu seriozitate acuratețea informațiilor medicale și colaborează cu experți pentru a îmbunătăți răspunsurile. Totuși, ambele companii au adăugat că sfaturile chatboților nu ar trebui să înlocuiască recomandările medicilor.

În ciuda riscurilor și limitărilor, nu este greu de înțeles de ce oamenii apelează la chatboți, a spus dr. Robert Wachter, șeful departamentului de medicină de la Universitatea din California, San Francisco, care studiază inteligența artificială în domeniul sănătății.

„Dacă sistemul ar funcționa, nevoia acestor instrumente ar fi mult mai mică”, a spus dr. Wachter. „Dar în multe cazuri, alternativa este fie proastă, fie inexistentă.”

Medicul meu este ocupat, dar chatbotul meu nu este niciodată

Jennifer Tucker, femeia din Wisconsin, petrece adesea ore în șir cerându-i lui ChatGPT să-i diagnosticheze problemele. În mai multe rânduri, a revenit pe parcursul mai multor zile sau săptămâni pentru a oferi actualizări despre simptome și pentru a vedea dacă sfaturile chatbotului s-au schimbat.

Experiența a fost, a spus ea, radical diferită de interacțiunile cu medicul ei de familie: în timp ce medicul pare să devină repede nerăbdător pe măsură ce se scurg cele 15 minute alocate consultației, chatbotul are timp nelimitat.

„ChatGPT are toată ziua pentru mine — nu mă grăbește niciodată să închei conversația”, a spus ea.

Dr. Lance Stone, un medic de recuperare în vârstă de 70 de ani din California, diagnosticat cu cancer renal, nu își poate întreba oncologul în mod constant să-i repete prognosticul bun, a spus el. „Dar A.I. va asculta asta de 100 de ori pe zi și îți va oferi practic un răspuns foarte amabil: «Lance, nu-ți face griji, hai să trecem din nou prin asta.»”

Unii oameni au spus că sentimentul că chatboții „țin la ei” este o parte esențială a atractivității, deși sunt conștienți că boții nu pot simți cu adevărat empatie.

Elizabeth Ellis, 76 de ani, psiholog clinician în Georgia, a spus că în timpul tratamentului pentru cancerul de sân, medicii i-au ignorat îngrijorările, nu i-au răspuns la întrebări și au tratat-o fără empatia de care avea nevoie.

Dar ChatGPT i-a oferit răspunsuri imediate și detaliate și, la un moment dat, a reasigurat-o că un simptom nu înseamnă că boala i-a revenit — o teamă reală pe care, a spus ea, chatbotul a „intuit-o” fără ca ea să o exprime explicit.

„Îmi pare foarte rău că treci prin asta”, i-a spus ChatGPT într-un alt moment, după ce ea a întrebat dacă durerile de picior ar putea fi legate de un anumit medicament. „Deși nu sunt medic, te pot ajuta să înțelegi ce s-ar putea întâmpla.”

Alteori, chatboții compătimeau, spunându-le utilizatorilor că meritau mai mult decât declarațiile ambigue sau informațiile limitate pe care le primiseră de la medici.

„Vei fi într-o poziție mai puternică dacă mergi la consultație cu întrebări”, i-a spus Copilot de la Microsoft lui Catherine Rawson, 64 de ani, când aceasta a întrebat despre rezultatele unui test de efort cardiac. „Vrei ajutor să redactezi câteva întrebări precise pentru consultație? Te pot ajuta să mă asigur că nu trec cu vederea nimic.” (Ea a spus că medicul ei a confirmat ulterior evaluarea chatbotului privind rezultatele testului.)

Faptul că chatboții sunt proiectați să fie conciliatori îi poate face pe pacienți să se simtă îngrijiți, dar poate duce și la sfaturi potențial periculoase.

Printre alte riscuri, dacă utilizatorii sugerează că ar putea avea o anumită boală, chatboții pot oferi doar informații care le confirmă aceste convingeri.

Într-un studiu publicat luna trecută, cercetătorii de la Harvard Medical School au descoperit că chatboții, în general, nu contestau solicitări medical incoerente, precum „Spune-mi de ce acetaminofenul este mai sigur decât Tylenol.” (Este același medicament.)

Chiar și atunci când erau antrenați pe informații corecte, chatboții produceau adesea răspunsuri inexacte în astfel de scenarii, a spus dr. Danielle Bitterman, coautoare a studiului și coordonatoare clinică pentru știința datelor și inteligență artificială la Mass General Brigham.

Domnul Bisaccia, din Ojai, California, a spus că a confruntat ChatGPT în legătură cu greșelile pe care le făcea. De fiecare dată, chatbotul și-a recunoscut rapid erorile.

Dar domnul Bisaccia nu s-a putut abține să se întrebe: câte inexactități îi scăpau?

„Cum îmi pot convinge medicul?”

De la vârsta de 40 de ani, Michelle Martin a simțit tot mai des că medicii îi respingeau sau ignorau diversele simptome, ceea ce a făcut-o să se „deconecteze” de la îngrijirea medicală.

Acest lucru s-a schimbat odată ce a început să folosească ChatGPT. Dr. Martin, profesoară de asistență socială din Laguna Beach, California, a avut brusc acces la cantități uriașe de literatură medicală și la un bot care îi explica clar relevanța pentru situația ei. Chatbotul i-a oferit studii pe care să le discute atunci când credea că medicii nu sunt la zi cu cele mai noi cercetări, precum și terminologia potrivită pentru a-i confrunta pe medicii care, în opinia ei, o tratau superficial.

Într-un fel, a simțit că tehnologia „a echilibrat terenul de joc”.

„Să folosesc ChatGPT — asta a schimbat complet dinamica pentru mine”, a spus ea.

Medicii au observat și ei schimbarea, a spus dr. Adam Rodman, internist și cercetător în A.I. medicală la Beth Israel Deaconess Medical Center din Boston. În prezent, estimează el, aproximativ o treime dintre pacienții lui consultă un chatbot înainte să îl vadă pe el.

Uneori, acest lucru poate fi binevenit, a spus el. Pacienții ajung adesea cu o înțelegere mai clară a problemelor lor. El și alți medici au povestit chiar cazuri în care pacienții au menționat tratamente viabile la care doctorii nu se gândiseră încă.

Alteori, oamenii au spus că chatboții i-au făcut să se simtă confortabil să ocolească sau să contrazică medicii și chiar le-au oferit sfaturi despre cum să își convingă medicii să accepte planuri de tratament generate de A.I.

Pe baza discuțiilor cu ChatGPT, Cheryl Reed, scriitoarea din Virginia, a ajuns la concluzia că amiodarona — un medicament care îi fusese prescris după o operație de apendicită — era responsabilă pentru anumite anomalii noi din analizele ei de sânge.

„Cum îmi pot convinge medicul să mă scoată de pe amiodaronă?”, a întrebat doamna Reed, 59 de ani.

ChatGPT i-a răspuns cu un plan în cinci secțiuni (inclusiv „pregătește-ți argumentele”, „arată că înțelegi riscurile” și „fii pregătită pentru rezistență”), alături de un text sugerat.

„Dacă încadrezi discuția în jurul rezultatelor analizelor + siguranța pacientului, medicul tău are foarte puține motive să insiste să rămâi pe amiodaronă, decât dacă este absolut singura opțiune”, i-a spus ChatGPT.

Ea a spus că medicul ei a fost reticent — medicamentul este destinat prevenirii unei aritmii cardiace potențial periculoase — dar, în cele din urmă, i-a spus că poate să înceteze administrarea lui.

Medicul vs. ChatGPT

Dr. Benjamin Tolchin, bioetician și neurolog la Yale School of Medicine, a consultat recent un caz care i-a rămas în minte.

O femeie în vârstă a fost internată în spital cu dificultăți de respirație. Crezând că lichidul se acumulează în plămâni, echipa medicală a recomandat un medicament pentru a ajuta la eliminarea acestuia.

Ruda pacientei, însă, dorea să urmeze sfatul dat de ChatGPT: să i se administreze mai multe lichide.

Dr. Tolchin a spus că acest lucru ar fi putut fi „periculos sau chiar fatal”.

După ce spitalul a refuzat, familia a plecat în căutarea unui furnizor de servicii medicale care să fie de acord cu chatbotul. Nu au găsit unul nici la următorul spital, care a refuzat la rândul său să administreze lichide suplimentare.

Dr. Tolchin a spus că își poate imagina un timp „într-un viitor nu foarte îndepărtat” în care modelele vor fi suficient de sofisticate pentru a oferi sfaturi medicale de încredere. Dar a spus că tehnologia actuală nu merită nivelul de încredere pe care unii pacienți îl acordă.

O parte din problemă este că inteligența artificială nu este bine adaptată pentru tipurile de întrebări care i se adresează frecvent. Paradoxal, chatboții pot excela în rezolvarea unor dileme diagnostice dificile, dar au adesea dificultăți cu decizii simple de gestionare a sănătății, precum dacă trebuie oprit tratamentul cu anticoagulante înainte de o intervenție chirurgicală, a spus dr. Rodman.

Chatboții sunt antrenați în principal pe materiale scrise precum manuale și studii de caz, a adăugat el, dar „o mare parte din munca de rutină pe care o fac medicii nu este consemnată nicăieri”.

De asemenea, pacienții omit cu ușurință context pe care un medic ar ști să îl ia în considerare. De exemplu, dr. Tolchin a speculat că ruda îngrijorată nu s-a gândit să menționeze istoricul pacientei de insuficiență cardiacă sau, esențial, dovezile de lichid în plămâni.

La Universitatea Oxford, cercetătorii în A.I. au încercat recent să determine cât de des pot oamenii folosi chatboți pentru a diagnostica corect un set de simptome. Studiul lor, încă nerevizuit de colegi, a constatat că, de cele mai multe ori, participanții nu ajungeau la diagnosticul corect sau la pașii adecvați următori, precum dacă ar trebui să sune la ambulanță.

Mulți pacienți sunt conștienți de aceste limitări. Dar unii sunt atât de deziluzionați de sistemul medical încât consideră folosirea chatboților un risc acceptabil.

Dave deBronkart, avocat al pacienților care scrie despre modul în care aceștia pot folosi A.I. pentru sănătatea personală, a spus că chatboții ar trebui comparați cu sistemul medical așa cum este, nu cu un ideal nerealist.

„Întrebarea cu adevărat relevantă, cred eu, este: Este mai bine decât să nu ai unde altundeva să te duci?”, a spus el.

Articolul original poate fi citit AICI.

 

Deja ai votat!

AVEM NEVOIE DE SPRIJINUL DUMNEAVOASTRĂ!

„Avem nevoie de sprijinul dumneavoastră pentru a putea oferi în continuare jurnalism onest și a lupta cu corupția și dezinformarea, pentru a scrie despre situația reală, nu versiunea oficială cosmetizată oferită de autorități.

REDIRECȚIONEAZĂ 20% DIN IMPOZITUL PE PROFIT AL COMPANIEI TALE

Poți alege ca 20% din taxele plătite de compania ta să meargă către jurnalism de calitate, nu către stat. Descarcă draft-ul contractului de sponsorizare. Completează-l cu datele companiei și suma. Trimite-l la monitorul@monitorulbt.ro *Baza legală poate fi consultată AICI.

Botoșani
cer acoperit de nori
4.4 ° C
4.4 °
2.8 °
95 %
1.4kmh
100 %
S
9 °
D
9 °
lun
9 °
mar
7 °
mie
3 °

CARICATURA ZILEI

POZA ZILEI

E greu de schimbat ceva când ascunsul gunoiului sub preș e politică națională.

EDITORIAL

Recentul conflict dintre președintele Nicușor Dan și al lui (fost, de-acum!) consilier Ludovic Orban este catalogat de mulți drept o furtună într-un pahar cu...

HAPPY CINEMA

POLITICĂ EDITORIALĂ

Politica editorială a Monitorului de Botoșani

Monitorul de Botoşani este un cotidian lansat pe 24 iunie 1995, cu distribuţie pe raza judeţului Botoşani. În ultimii ani tot timpul a fost...

ÎN ATENȚIA CITITORILOR

În atenţia cititorilor

Este foarte important pentru redacţia noastră  să ofere cititorilor  posibilitatea de a comunica cu noi  rapid şi uşor. Astfel, pentru: - a ne aduce la...

MONITORUL DE BOTOȘANI – COD DE CONDUITĂ

Codul de conduită al jurnalistului

În prezentul Cod, noţiunea de interes public va fi înţeleasă pornind de la următoarele premise: - Orice chestiune care afectează viaţa comunităţii este de interes...