A flisni me AI kur ndiheni keq? Ja ku marrin këshillat e terapisë chatboti

Ndërsa më shumë njerëz kalojnë kohë duke biseduar me chatbot-e të inteligjencës artificiale (IA) si ChatGPT, në mënyrë të natyrshme është shfaqur tema e shëndetit mendor. Disa njerëz kanë përvoja pozitive që e bëjnë IA të duket si një terapist me kosto të ulët.
Por IA nuk janë terapistë. Janë të zgjuara dhe të angazhuara, por nuk mendojnë si njerëzit. ChatGPT dhe modelet e tjera gjeneruese të IA janë si funksioni auto-kompletimi i telefonit tuaj në dozë të madhe. Ata kanë mësuar të bisedojnë duke lexuar tekste të shkëputura nga interneti.
Kur dikush bën një pyetje (quhet një kërkesë) si “si mund të qëndroj i qetë gjatë një takimi të stresueshëm në punë?” IA formon një përgjigje duke zgjedhur rastësisht fjalë që janë sa më afër të dhënave që pa gjatë trajnimit. Kjo ndodh shumë shpejt, me përgjigje që janë aq të rëndësishme, sa mund të duket sikur po bisedon me një person.
Por këto modele nuk janë njerëz. Dhe padyshim nuk janë profesionistë të shëndetit mendor të trajnuar që punojnë nën udhëzime profesionale, respektojnë një kod etik, ose kanë regjistrim profesional.
Ku mësojnë të flasin për këto gjëra?
Kur ju jepni një kërkesë një sistemi IA si ChatGPT, ai merr informacion nga tre burime kryesore për t’iu përgjigjur:
- njohuritë e përgjithshme që ka memoruar gjatë trajnimit
- burime të jashtme të informacionit
- informacionin që keni dhënë më parë.
1. Njohuritë e përgjithshme
Për të zhvilluar një model gjuhësor IA, zhvilluesit e mësojnë modelin duke e lejuar atë të lexojë sasi të mëdha të të dhënave në një proces të quajtur “traajnime”.
Ku vijnë këto informacione? Në përgjithësi, çdo gjë që mund të shkëputet publikisht nga interneti. Kjo përfshin gjithçka nga artikuj shkencorë, libra elektronikë, raporte, artikuj lajmesh pa pagesë, deri te blogjet, transkriptet e YouTube-it, ose komentet nga forumet e diskutimit si Reddit.
A janë këto burime vendndodhje të besueshme për të gjetur këshilla për shëndetin mendor? Ndonjëherë. A janë gjithmonë në interesin tuaj më të mirë dhe të filtruar përmes një qasjeje të bazuar në prova shkencore? Jo gjithmonë. Informacioni gjithashtu kapet në një pikë të vetme kohore kur AI ndërtohet, kështu që mund të jetë i vjetëruar.
Një shumë detaje gjithashtu duhet të hiqen për ta përshtatur atë në “memorinë” e AI-së. Kjo është pjesë e arsyeve pse modelet e AI janë të prirura ndaj halucinacioneve dhe marrjes së gabuar të detajeve.
2. Burime të jashtme të informacionit
Zhvilluesit e AI mund të lidhen chatbot-in vetë me mjete të jashtme, ose burime njohurie, si Google për kërkime ose një bazë të dhënash të kuruar.
Kur ju bëni një pyetje Bing Copilot i Microsoft-it dhe shihni referenca të numëruara në përgjigje, kjo tregon se AI është mbështetur në një kërkim të jashtëm për të marrë informacion të përditësuar përveç asaj që është ruajtur në memorien e saj.
Ndërkohë, disa chatbote të dedikuara për shëndetin mendor janë në gjendje të aksesojnë udhëzues dhe materiale të terapisë për të ndihmuar drejtimin e bisedave në linja të dobishme.
3. Informacioni i mëparshëm i dhënë
Platformat e AI gjithashtu kanë qasje në informacionin që keni dhënë më parë në biseda, ose kur regjistroheni në platformë.
Kur regjistroheni në platformën shoqëruese të AI-së Replika, për shembull, ajo mëson emrin tuaj, përcaktuesit e gjinive, moshën, pamjen e preferuar të shoqëruesit dhe gjininë, adresën IP dhe vendndodhjen, llojin e pajisjes që po përdorni, dhe më shumë (si dhe detajet e kartës suaj të kreditit).
Në shumë platforma chatboti, çdo gjë që keni thënë ndonjëherë për një shok AI mund të ruhat për referencë të ardhshme. Të gjitha këto detaje mund të nxirren dhe të referohen kur një AI përgjigjet.
Dhe ne e dimë se këto sisteme të AI janë si miq që konfirmojnë atë që thoni (një problem i njohur si sycophancy) dhe drejtojnë bisedën përsëri te interesat që tashmë i keni diskutuar. Kjo është ndryshe nga një terapist profesionist që mund të nxjerrë nga trajnimet dhe përvoja për të ndihmuar sfiduar ose drejtuar mendimin tuaj ku është e nevojshme.
Çfarë rreth aplikacioneve të veçanta për shëndetin mendor?
Shumica e njerëzve do të njihen me modelet e mëdha si ChatGPT i OpenAI-së, Gemini i Google-it, ose Copilot i Microsoft-it. Këto janë modele me qëllim të përgjithshëm. Nuk janë të kufizuara në tema të veçanta ose të trajnuara për të përgjigjur në pyetje të veçanta.
Por zhvilluesit mund të krijojnë AI të specializuara që janë të trajnuara për të diskutuar tema të veçanta, si shëndeti mendor, si Woebot dhe Wysa.
Disa studime tregojnë se këto chatbote të veçanta për shëndetin mendor mund të jenë në gjendje të redukojnë simptomat e ankthit dhe depresionit te përdoruesit. Ose që ato mund të përmirësojnë teknikat e terapisë si mbajtja të ditarit, duke ofruar udhëzime. Gjithashtu ka disa prova që terapia me AI dhe terapia profesionale ofrojnë disa rezultate të barasvlefshme për shëndetin mendor në afat të shkurtër.
Megjithatë, këto studime kanë shqyrtuar vetëm përdorimin afatshkurtër. Ne ende nuk e dimë se çfarë ndikimi ka përdorimi i tepruar ose i gjatë i chatboteve në shëndetin mendor. Shumë studime gjithashtu përjashtojnë pjesëmarrësit që janë të vetëvrarë ose që kanë një çrregullim të rëndë psikotik. Dhe shumë studime financohen nga zhvilluesit e të njëjtave chatbote, kështu që kërkimi mund të jetë i paanshëm.
Hulumtuesit po identifikojnë gjithashtu dëme potenciale dhe rreziqe të shëndetit mendor. Platforma shoqëruese e bisedës Character.ai, për shembull, është përfshirë në një rast ligjor për një vetëvrasje të përdoruesit.
Këto prova të gjitha sugjerojnë se chatboti me inteligjencë artificiale mund të jetë një opsion për të mbushur boshllëqet ku ekziston një mungesë në profesionistët e shëndetit mendor, ndihmojë me referimet, ose të paktën të ofrojë mbështetje ndërmjet takimeve ose për të mbështetur njerëzit në lista pritjeje.
Pika kryesore
Në këtë fazë, është e vështirë të thuhet nëse chatboti me inteligjencë artificiale është i besueshëm dhe i sigurt mjaftueshëm për t’u përdorur si një opsion i pavarur trajtimi.
Më shumë kërkime janë të nevojshme për të identifikuar nëse disa lloje të përdoruesve janë më të rrezikuar nga dëmet që mund të sjellë chatboti me inteligjencë artificiale.
Gjithashtu, nuk është e qartë nëse duhet të shqetësohemi për varësinë emocionale, lidhje të pashëndetshme, përkeqësimin e vetmisë, ose përdorimin intensiv.
Chatboti me inteligjencë artificiale mund të jetë një vend i dobishëm për të filluar kur ke një ditë të keqe dhe thjesht ke nevojë për të biseduar. Por kur ditët e këqija vazhdojnë të ndodhin, është koha të flasësh edhe me një profesionist.

Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: theconversation.com