Categories: Ştiri sănătate

Experții din domeniul medical avertizează asupra riscurilor tot mai mari pe care le aduce Inteligența Artificială

Experții din domeniul medical avertizează asupra riscurilor tot mai mari pe care le aduce Inteligența Artificială. Un pericol major al IA are legătură cu modul în care este utilizată frecvent de adolescenți.

 

Oricine folosește Snapchat are acum acces gratuit la My AI, chatbot-ul de inteligență artificială încorporat în aplicație, lansat in februarie ca funcție plătită. Experții în sănătate consideră că IA are potențialul de a reduce anumite lacune din sănătatea mintală, dar avertizează asupra riscurilor uriașe, potrivit FoxNews.

 

Chabot-ul de IA poate avea câteva scopuri practice, cum ar fi oferirea unor sfaturi pentru cumpărarea cadourilor, planificarea călătoriilor, sugerarea rețetelor și răspunsul la întrebări de cunoștințe generale, potrivit Snap. Cu toate acestea, deși nu este considerată o sursă de consiliere medicală, unii adolescenți au apelat la My AI pentru asistență în domeniul sănătății mintale, alertându-i pe medici.

 

Ce spun cei care au folosit IA pe post de ”psiholog”

 

Un utilizator My AI a scris pe Reddit: „Răspunsurile pe care le-am primit au fost valide, reconfortante. Au fost sfaturi reale, care mi-au schimbat perspectiva într-un moment în care mă simțeam copleșit și stresat. Da, nu este om, dar cu siguranță se apropie destul de mult (și în unele cazuri mult mai bine!)”. Alți utilizatori sunt mai sceptici. „Răspunsurile de la IA sunt prietenoase, dar apoi îți dai seama că nu este o persoană reală”, a scris un utilizator. ”Este doar un program, doar linii și linii de cod. Asta mă face să fiu cam trist. Practic, invalidează toate lucrurile frumoase pe care le spune”, a comentat un altul.

 

Riscuri majore

 

Unii medici cred că chatbot-ul poate ajuta, pe ici pe colo, la susținerea bunăstării mintale generale, pe fondul deficitului de specialiști la nivel național. „Soluțiile bazate pe tehnologie pot fi o cale de a întâlni indivizi, de a îmbunătăți accesul și de a oferi  ponturi legate de utilizarea și identificarea tiparelor de limbaj sau de comportament online, care pot indica o problemă de sănătate mintală”, explică medicul psiholog. Zachary Ginder din California. „Acest acces direct la informații precise privind sănătatea mintală și la indicații adecvate nu poate ajuta însă la normalizarea sentimentelor”, a adăugat el.

 

Avertismente pe bandă rulantă

 

Medicul psihiatru Ryan Sultan, profesor de cercetare la Universitatea Columbia din New York și director medical al Integrative Psych NYC, tratează mulți pacienți tineri și nu-și face iluzii cu privire la rolul IA în ceea ce privește sănătatea mintală. „Pe măsură ce această tehnologie se îmbunătățește, pe măsură ce simulează o relație interpersonală, unii oameni pot începe să perceapă IA ca  pe o relație interpersonală predominantă în viața lor”, afirmă el. „Cea mai imortantă întrebare pe care trebuie să ne-o punem acum, ca societate, este: chiar e bine să facem asta?” , adaugă medicul.

 

Folosesc IA pentru că nu vreau să deranjez oamenii adevărați

 

„Folosesc IA pentru că sunt singur și nu vreau să deranjez oamenii adevărați”, a spus o persoană pe Reddit.

Unii utilizatori au recunoscut că, pe măsură ce folosesc tot mai mult chatbot-uri IA, au început să înlocuiască și conexiunile umane. Dr. Sultan crede că adolescenții pe care îi tratează au opinii diferite despre My AI Snapchat. „Unii au spus că este destul de limitată și oferă doar informații generale care ar putea fi găsite dacă ați căuta pe Google”, a explicat el. „Alții au spus că li se pare înspăimântător. Este ciudat să ai de-a face cu o persoană care nu răspunde la întrebări personale într-un mod personal. În plus, nu acceptă ideea că un gigant tehnologic poate deține date despre sănătatea mintală personală a unei persoane”, adaugă el.

 

Riscul de dezinformare

 

Riscul de dezinformare pare a fi o preocupare majoră în rândul specialiștilor. Testând ChatGPT, modelul de limbaj care alimentează My AI, Dr. John Ginder a descoperit că uneori acesta a oferit răspunsuri inexacte sau complet fabricate. „Există riscul de a trimite specialiștii și adolescenții cu probleme pe căi de evaluare și tratament total inadecvate nevoilor lor”, a avertizat el. „Se constată o creștere semnificativă a autodiagnosticării inexacte ca urmare a folosirii IA sau a rețelelor sociale”, a spus el. „Adolescenții par a fi mai sensibili la această tendință de auto-diagnosticare. Din păcate, are consecințe în lumea reală”, avertizează el.

 

Recent Posts

Consecințe neașteptate din cauza schimbărilor climatice

Consecințe neașteptate din cauza schimbărilor climatice care generează noi presiuni asupra sistemului de sănătate. Bunăstarea…

6 ore ago

Câți ani de vechime trebuie să ai ca să-ți crească pensia cu aproape 1500 lei la recalculare

Câți ani de vechime trebuie să ai ca să-ți crească pensia cu aproape 1500 lei…

7 ore ago

Ce se întâmplă cu creierul în prima jumătate a somnului

Există trei nevoi fundamentale ale oamenilor pentru a supraviețui: alimentația, oxigenul și somnul. Odihna este…

7 ore ago

Anii lucrați în străinătate se adaugă la calculul pensiei din România?

O întrebare tot mai frecventă în rândul românilor în ultima perioadă este dacă anii lucrați…

8 ore ago

Cele două zodii care își îndeplinesc cel mai mare vis în săptămâna 13 – 19 mai

Două zodii norocoase își îndeplinesc visurile, săptămâna aceasta. Pentru acești nativi, zilele actuale par să…

8 ore ago

Un tânăr a făcut necroză hepatică și a murit la câteva ore după ce a mâncat acest aliment reîncălzit

Un student în vârstă de 20 de ani din Belgia a făcut necroză hepatică și…

9 ore ago

Citeste si: