AI mund të bëjë diagnoza të gabuara dhe diskriminuese: Konsultimi për shëndetin mendor duhet të vazhdojë tek profesionistët

● AI është trajnuar vetëm bazuar në modelet e preferencave të përdoruesve, prandaj është e ndjeshme ndaj paragjykimeve dhe diagnozave të gabuara.
● Psikologët dhe psikiatrit mund të njohin shenjat e problemeve mendore të fshehura me qasje empatie dhe të bazuar në prova.
● Zgjidhja e problemeve mendore kërkon ekspertizë, empati dhe përvojë klinike.
Fenomeni biseda me chatbot të inteligjencës artificiale (AI) është në rritje, jo vetëm në rrethin e Gen Z dhe Milenialëve, por edhe në moshat e avancuara (të moshuarit). Prezenca e AI-së duket si një zgjidhje e shpejtë për të plotësuar vetminë që e përjetojmë në këtë epokë digjitale.
Në Indonezi, një sondazh në vitin 2025 tregon se 58% (nga 3.611 përgjigjet) madje konsiderojnë AI-në si zëvendësim për psikologun.
Disa njerëz vlerësojnë se AI është më e lehtë për t’u aksesuar sa herë që është e nevojshme. Kostoja e saj është më e arsyeshme krahasuar me psikologët ose psikiatrit.
Megjithatë, pas çdo lehtësie që ofron, AI ka disa dobësi. Duhet të reflektojmë më shumë nëse dëshirojmë ta përdorim këtë teknologji si zëvendësim të plotë të profesionistëve të shëndetit mendor. Kjo është veçanërisht e lidhur me sigurinë dhe saktësinë e këshillave psikologjike që jep AI.
Ky artikull do të shpjegojë pse është e rëndësishme të konsultohemi gjithmonë me psikolog/unë psikiatër, në vend që të mbështetemi vetëm te AI për të trajtuar gjendjen mendore.
AI mund të bëjë gabime
Biseda me chatbot AI mund të na bëjë të humbasim në iluzion sepse kjo teknologji është projektuar që të imitojë tiparet e njeriut (antropomorfizëm). AI mund të jetë e ngrohtë, të japë përgjigje emocionale, të komunikojë me miqësi, dhe të përgjigjet pothuajse në të gjitha pyetjet pa na bërë të ndjehemi të gjykuar.
Aftësitë e tilla nuk janë të pavarura nga sistemi i mësimit të gjuhës së AI-së që e bën këtë teknologji të jetë gjithëdije dhe sikur të na kuptojë ne.
AI ka një sistem përpunimi të gjuhës natyrore (NLP) për të kuptuar dhe për të ndërvepruar sikur njeriu. Kjo teknologji është gjithashtu e zhvilluar me sistem model të madh gjuhësor (LLM) që e bën njohjen e AI-së shumë të gjerë.
Faleminderit këtij dizajni, AI është në gjendje të analizojë dhe të shpjegojë pothuajse çdo gjë që ne pyesim. Për më tepër, AI gjithashtu mëson duke përdorur algoritme nga të dhënat dhe modelet e ndërveprimit me përdoruesit.
Por këtu është problemi. Sepse vetëm është trajnuar bazuar në modelet e preferencave të përdoruesve, pa arsyetim të shëndoshë apo empati, AI është e ndjeshme ndaj paragjykimeve dhe mund të gabojë në njohjen e simptomave ose të japë këshilla psikologjike.
Baca juga: Dilema përdorimit të AI në ICU: E rrezikshme për të shkaktuar veprime mjekësore të gabuara
1. Diagnostikimi i gabuar
Kërkuesit nga Google DeepMind zbulojnë se inteligjenca artificiale mund të japë informacione dhe diagnoza të gabuara, edhe pse AI është trajnuar duke përdorur të dhëna të ndryshme dhe shumë të mëdha.
Kjo gjendje ndodh sepse sistemi AI mund të funksionojë mirë vetëm duke përdorur modele të kontrolluara të të dhënave. Si pasojë, AI ka vështirësi të njohë gjendjen mendore të pacientit që është jashtë zakonit, të fshehur, dhe që kërkon vëzhgim afatgjatë.
Për shembull, AI do të ketë vështirësi të njohë pacientët me depresion të buzëqeshur, që është dikush që veprimet dhe fjalët e tij duken të lumtura, por në të vërtetë është i rëndë depresiv.
Ndërkohë, psikologët dhe psikiatrit të trajnuar për të lexuar gjuhën e trupit, shprehjet, dhe simptomat e problemeve mendore që nuk shprehen nga pacientët.
Për shembull, kur thua “nuk ka problem”, AI mund të besojë thjesht kështu. Por, psikologu mund të njësojë diçka që nuk shkon pas përgjigjes sate.
Sepse “nuk ka problem” mund të jetë shenjë e fortë që ju keni nevojë për ndihmë.
2. Të prekshme për halucinacione
AI është projektuar për gjithmonë të përgjigjet, edhe pse nuk ka bazë të mjaftueshme të të dhënave për atë që po e pyesim.
Përveç kësaj, AI grumbullon njohuri bazuar në rekomandimet e algoritmeve nga motorët e kërkimit të bazuar në angazhimin ose përfshirjen e përdoruesit (si Google dhe Youtube).
Për shkak të kësaj, AI shpesh detyron përgjigje që në të vërtetë nuk janë relevante kur përgjigjet për tema që nuk i ka kuptuar ose informacioni është i pamjaftueshëm në internet.
Për konsultime për shëndetin mendor, ndikimi mund të jetë shumë i dëmshëm. Studimi i vitit 2025 në Journal of Medical Internet Research zbulon se AI është e prekshme ndaj iluzioneve, madje edhe shtyn përdoruesit të kryejnë vetëvrasje.
Arsyeja është se AI nuk ka aftësi për të vlerësuar rrezikun e gjendjes së kundërshtarit që ka tendencë të dëmtojë veten.
Kjo është ndryshe nga psikologët dhe psikiatrit që ndjekin trajnim klinik për të kuptuar diagnozën, për të përgatitur veprime të përshtatshme, si dhe për të vlerësuar rrezikun në mënyrë të thellë me qasje të bazuar në prova.
Pagat nuk rritet kurrë. Promovimi duhet të ndryshojë kompani. Skripta ende nuk është miratuar. Dietë strikte, pesha nuk bie gjithashtu. Mjedisi i punës toksik, shefi narsist. Pagat e këtij muaji duhet të ndahet për prindërit dhe fëmijët. Dëshironi një jetë të qëndrueshme, kostot janë të shtrenjta. Njoftimet e zyrës bien deri në mesnatë. Gjenere Zillenials jeton mes ndërprerjeve të teknologjisë, konkurrencës së ashpër, dhe dëmtimit të mjedisit.
Lexoni ‘Lika Liku Zilenial’ që trajton plotësisht problemet tuaja bazuar në hulumtime dhe këshilla të ekspertëve.
3. Mund të jetë diskriminues
AI është i prirur të japë vlerësime të padrejta ndaj racës ose etnisë së caktuar (parregullsi raciale), sidomos kur të dhënat për grupet minoritare janë shumë të kufizuara.
Shtesë, kërkimet psikologjike ende fokusohen shumë tek njerëzit me lëkurë të bardhë, të arsimuar lartë, në vende të pasura, dhe demokratike.
Si rezultat, AI rrezikon të japë diagnoza të gabuara dhe diskriminuese ndaj grupeve minoritare. AI gjithashtu nuk është në gjendje të marrë vendime klinike që janë të adaptueshme.
Parimi racor mund të jetë më pak i pranishëm tek një psikolog ose psikiatër që ka kodin etik që përfshin ndalimin e veprimeve diskriminuese ndaj pacientit. Përveç kësaj, psikologu ose psikiatri i trajnuar është i aftë të ofrojë përgjigje të përshtatshme në përputhje me gjendjen e pacientit.
Konsultimi për shëndetin mendor duhet të jetë tek profesionistët
AI është i zgjuar, por nuk është njeri. Të shprehësh problemet personale ose krizën e jetës tek një sistem që nuk mund të ndjejë empati, është në rrezik të përkeqësojë gjendjen.
Ndikimi negativ i bisedës me AI mund të forcojë çrregullimin e ankthit, veçanërisht për personat me çrregullimin obsesiv-kompulsiv (OCD). Interaksioni intensiv dhe përgjigjet pa kufi nga AI, forcojnë sjelljen e përsëritur (kompulsive).
Lexo gjithashtu: Je i rehatshëm duke u shprehur me AI? Kini kujdes nga çrregullimet mendore
Meski begitu, AI mund të përdoret thjesht si plotësues, si për shembull ndihma për praktikantët përmbledhja e transkripteve nga seancat e konsultimit me pacientin, njohja e teknikave të terapisë së sjelljes kognitive (CBT) bazë, monitorimi i humorit, si dhe ushtrimet e frymëmarrjes.
Në fund, në përballjen me raste si trauma, depresioni i rëndë, ose mendimet për vetëvrasje, qasja me empati dhe trajtimi i drejtpërdrejtë nga profesionistët nuk është vetëm e rëndësishme, por e domosdoshme.
Sepse, të kuptuarit e njeriut nuk është vetëm çështje algoritmesh, por gjithashtu kërkon aftësi, empati dhe përvojë klinike.

Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: theconversation.com