Mund të jetë se AI tani është po aq i mirë sa njerëzit në njohjen e emocioneve, bindjeve politike dhe sarkazmës në bisedat online

Kur shkruajmë diçka për një person tjetër, përmes email-it ose ndoshta në rrjete sociale, mund të mos shprehim gjëra drejtpërdrejt, por fjalët tona mund të përcjellin një kuptim të fshehtë – një nëntekst i papërshkrueshëm. Ne shpresojmë gjithashtu që ky kuptim të kalojë tek lexuesi.
Por çfarë ndodh nëse një sistem inteligjence artificiale (IA), në vend të një personi, është në anën tjetër? A mund të kuptojë IA, veçanërisht IA bisedore, kuptimin e fshehtë në tekstin tonë? Dhe nëse po, çfarë do të thotë kjo për ne?
Analiza e përmbajtjes së fshehtë është një fushë studimi që merret me zbërthimin e kuptimeve më të thella, ndjenjave dhe nuancave të integruara në tekst. Për shembull, kjo lloj analize mund të na ndihmojë të kuptojmë bindjet politike që janë të pranishme në komunikime që ndoshta nuk janë të dukshme për të gjithë.
Kuajtja e intensitetit të emocioneve të dikujt ose nëse ai është duke bërë sarkazmë mund të jetë thelbësore për mbështetjen e shëndetit mendor, përmirësimin e shërbimit ndaj klientit, dhe madje edhe për të mbajtur njerëzit të sigurt në nivel kombëtar.
Merrni lajmet tuaja nga ekspertë të vërtetë, drejtpërdrejt në kutinë tuaj postare. Abonohuni në buletinin tonë të përditshëm për të marrë të gjitha lajmet dhe kërkimet më të fundit nga The Conversation UK, nga politika dhe biznesi tek arti dhe shkenca.
Këto janë vetëm disa shembuj. Mund të imagjinojmë përfitime edhe në fusha të tjera të jetës, si kërkimi shoqëror, vendimmarrja politike dhe biznesi. Duke pasur parasysh rëndësinë e këtyre detyrave – dhe përparimin e shpejtë të IA bisedore – është thelbësore të eksplorojmë çfarë mund të bëjnë (dhe çfarë nuk mund të bëjnë) këto teknologji në këtë drejtim.
Punimet në këtë fushë janë vetëm duke filluar. Punimet aktuale tregojnë se ChatGPT ka pasur sukses të kufizuar në njohjen e bindjeve politike në faqet e lajmeve. Një studim tjetër që u fokusua në dallimet në njohjen e sarkazmës midis modeleve të mëdha gjuhësore – teknologjia pas chatbotëve si ChatGPT – tregoi se disa janë më të mirë se të tjerët.
Së fundi, një studim tregoi se LLM-të mund të parashikojnë “vlerën emocionale” të fjalëve – ndjenjën pozitive ose negative të trashëguar që lidhet me to. Studimi ynë i ri, i botuar në Scientific Reports, testoi nëse IA bisedore, duke përfshirë GPT-4 – një version relativisht i ri i ChatGPT – mund të lexojë midis rreshtave të teksteve të shkruara nga njeriu.
Qëllimi ishte të kuptojmë sa mirë modelet e mëdha gjuhësore simulojnë kuptimin e ndjenjës, bindjet politike, intensitetin emocional dhe sarkazmën – duke përfshirë kështu shumë kuptime të fshehura në një studim. Ky studim vlerësoi besueshmërinë, qëndrueshmërinë dhe cilësinë e shtatë modeleve të mëdha gjuhësore, duke përfshirë GPT-4, Gemini, Llama-3.1-70B dhe Mixtral 8 × 7B.
Gjetëm se këto modele janë rreth po aq të mira sa njerëzit në analizimin e ndjenjës, bindjeve politike, intensitetit emocional dhe njohjes së sarkazmës. Studimi përfshiu 33 subjekte njerëzore dhe vlerësoi 100 elementë të përzgjedhur të tekstit.
Për të identifikuar bindjet politike, GPT-4 ishte më i qëndrueshëm se njerëzit. Kjo është e rëndësishme në fusha si gazetaresia, shkenca politike ose shëndeti publik, ku vendimet e papërsosura mund të ndikojnë në gjetje ose të humbasin modele.
GPT-4 gjithashtu tregoi aftësi për të kapur intensitetin emocional dhe veçanërisht vlerën. Nëse një tweet ishte shkruar nga dikush i cili ishte i pakënaqur lehtë ose i zemëruar thellë, AI mund ta kuptonte – megjithatë, dikush duhej ta konfirmonte nëse vlerësimi i AI ishte i saktë. Kjo ndodhte sepse AI ka tendencë të minimizojë emocionet. Sarkazma mbeti një pengesë për njerëzit dhe makinat gjithashtu.
Studimi nuk gjeti fitues të qartë në këtë fushë – prandaj, përdorimi i vlerësuesve njerëzorë nuk ndihmon shumë në njohjen e sarkazmës.
Pse kjo është e rëndësishme? Për një, IA si GPT-4 mund të reduktojë ndjeshëm kohën dhe kostot e analizës së volumit të madh të përmbajtjes online. Shkencëtarët shoqërorë shpesh kalojnë muaj duke analizuar tekstet e përdoruesve për të zbuluar tendenca. GPT-4, nga ana tjetër, hap derën për kërkime më të shpejta dhe më të përgjegjshme – veçanërisht gjatë krizave, zgjedhjeve ose emergjencave shëndetësore publike.
Gazetarët dhe kontrolluesit e fakteve gjithashtu mund të përfitojnë. Mjetet e fuqizuara nga GPT-4 mund të ndihmojnë në identifikimin e postimeve emocionale ose të prirura politike në kohë reale, duke u dhënë lajmeve një avantazh paraprak.
Megjithatë, ekzistojnë edhe shqetësime. Transparenca, drejtësia dhe bindjet politike në IA mbeten çështje. Megjithatë, studime si kjo sugjerojnë se kur bëhet fjalë për kuptimin e gjuhës, makinat po afrohen shpejt tek ne – dhe mund të bëhen shokë të vlefshëm në vend të veglave të thjeshta.
Edhe pse ky punim nuk pretendon se IA bisedore mund të zëvendësojë plotësisht vlerësuesit njerëzorë, ai sfidon idenë se makinat janë të pafat në njohjen e nuancave.
Rezultatet e studimit tonë ngritin pyetje të mëtejshme. Nëse një përdorues i bën të njëjtën pyetje IA-së në mënyra të ndryshme – ndoshta duke ndryshuar fjalitë, renditjen e informacionit ose duke modifikuar sasinë e kontekstit – a do të mbeten të qëndrueshme gjykimet dhe vlerësimet e modelit?
Studime të mëtejshme duhet të përfshijnë analiza sistematike dhe rigoroze të qëndrueshmërisë së rezultateve të modeleve. Në fund të fundit, kuptimi dhe përmirësimi i qëndrueshmërisë është thelbësor për përdorimin e gjerë të modeleve gjuhësore të mëdha, sidomos në situata me rrezik të lartë.

Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: theconversation.com