Pse Inteligjenca Artificiale gënjen kur thotë se po “mendon” – dhe pse kjo është e rëndësishme
Os avanços recentes em Inteligência Artificial (IA) criaram uma iluzion të bindshme. Sistemet si ChatGPT, Copilot ose Gemini na magjepsin për shkak të aftësisë së dukshme për të menduar. Ata përgjigjen në pyetje të ndërlikuara, prodhojnë tekste të artikuluara dhe madje duken sikur reflektojnë mbi zgjedhjet e tyre. Por mos u mashtroni: këto makina nuk kanë arsyetim logjik, as kuptim të koncepteve as vetëdije. Në praktikë, ne përballemi me sisteme që njohin modelet në gjuhën tonë, pa kuptuar në të vërtetë atë që thonë. Dhe kjo ka implikime të rëndësishme në mënyrën se si i përdorim, vlerësojmë dhe rregullojmë këto teknologji.
Si funksionon parashikimi i fjalëve
Modelet e mëdha të gjuhës (ose LLMs) funksionojnë bazuar në një parim të thjeshtë: parashikojnë se cila do të jetë fjala tjetër në një rrjedhë. Për këtë, ato janë traajnuar me volum të madh tekstesh, duke mësuar modelet që rregullojnë mënyrën se si fjalët bashkohen në kontekste të ndryshme të gjuhës sonë. Ajo që ne e quajmë “përgjigje” është, në praktikë, një zinxhir parashikimesh: çdo fjalë zgjidhet bazuar në probabilitetet që ajo të ndodhë pas fjalëve të mëparshme në atë kontekst të caktuar.
Pavarësisht nga sofistikimi, linguistët Emily Bender dhe Alexander Koller theksojnë se këto modele kapin vetëm formën e gjuhës, pa hyrë në kuptimin e saj. Ajo që duket si kuptim është, në të vërtetë, refleksi i modeleve statistikore të nxjerra nga mënyra se si njerëzit përdorin gjuhën.
Mos u besoni zinxhirit të mendimit
Aktualisht, kërkuesit kanë zhvilluar mekanizma që u mundësojnë LLM-ve të shpjegojnë zinxhirin e tyre të përpunimit hap pas hapi – teknikë e njohur si “chain-of-thought”. Në fakt, mesazhet e gjeneruara në këto raste mund të duken si një rrjet i strukturuar i arsyetimit logjik, gjë që duket shumë e habitshme.
Megjithatë, disa studime tashmë kanë treguar se këto shpjegime janë të gabuara. Kur modelet deklarojnë “po mendojnë” për një problem, ajo që bëjnë është vetëm të gjenerojnë tekst më probabilistikisht bazuar në vlera të ndërmjetme të përpunimit, pa raportuar domosdoshmërisht proceset kompjuterike të përdorura për të arritur në përgjigje.
Por trás de cada resposta, há um komplikuar i ndërlikuar i llogarive të shpërndara në shumë shtresa, një proces aq i errët sa quhet “kutia e zezë e IA”. Pra, kur kërkohet të shpjegojnë arsyetimin e tyre, modelet ndërtojnë një narrativë të besueshme dhe, shpesh, sugjerojnë se ndjekën një logjikë të strukturuar, kur në të vërtetë kryen vetëm llogaritje tekstuale probabilistike.
Një studim i ri tregoi se edhe operacionet matematikore zgjidhen kryesisht bazuar në modele statistikore mbi sekuenca tekstuale, dhe jo në rregulla logjike formale. Madje, një hulumtim i fundit vërejti se, edhe kur përgjigjja përfundimtare është e saktë, arsyetimi i paraqitur mund të jetë i gabuar ose jologjik. Në fakt, Apple sapo publikoi një artikull duke identifikuar kufizimet e modeleve të IA që thonë se janë të afta për arsyetim, veçanërisht për probleme logjike dhe që kërkojnë llogaritje të sakta matematikore.
Iluzioni antropomorfik
Tendenca për t’i atribuar mendimin njerëzor këtyre sistemeve ka rrënjë të thella në psikologji. Fenomeni i pareidolia kognitive – prirja jonë për të gjetur modele të njohura aty ku nuk ekzistojnë – na çon të projektojmë qëllime dhe kuptim në sisteme që nuk kanë këto karakteristika.
Emily Bender vë në dukje se ndërfaqja tekstuale e LLM-ve eksploron këtë vulnerabilitet kognitiv njerëzor. Kur një sistem përgjigjet në person të parë, duke përdorur përemra si “unë” dhe duke deklaruar se është “duke menduar”, truri ynë – i cili është programuar evolutivisht për ndërveprime shoqërore – i atribuon automatikisht agjenci dhe vetëdije makinës. Shkencëtarët e kompjuterikës po theksojnë pikërisht këtë: këto mjete janë projektuar për të tingëlluar bindshëm, jo për të menduar vërtet si njerëzit.
Një artikull i fundit në The Atlantic thekson rreziqet e atribuimit të ndërgjegjes së rreme te IA-të, si “psikoza e shkaktuar nga ChatGPT”, ku përdoruesit zhvillojnë besime të çmendura se po ndërveprojnë me entitete të ndërgjegjshme ose hyjnore.
Kjo keqkuptim themelor — ngatërrimi i aftësisë statistikore për parashikimin e tekstit me mendimin e vërtetë — ka lejuar tregtimin e zëvendësuesve artificialis për marrëdhënie njerëzore thelbësore si terapeutë, miq dhe madje partnerë romantikë, duke shfrytëzuar tendencën tonë natyrore për të lidhur gjuhën me ndërgjegjen. Përdoruesit përfundojnë duke krijuar lidhje emocionale me makinat që nuk janë të afta për reciprocitet të vërtetë, duke sakrifikuar ndërveprime të vërteta personale në favor të simulimeve të personalizuara që mungojnë karakteristikat themelore të marrëdhënieve njerëzore.
Pasojat praktike dhe etike
Kjo kuptim që modelet nuk mendojnë ka pasoja për mënyrën se si i përdorim dhe i rregullojmë këto teknologji. Ngatërrimi i gabuar i aftësive njohëse njerëzore te LLM-të mund të na çojë në:
- Vlerësimin e tepruar të aftësive të tyre në detyra që kërkojnë mendim të vërtetë;
- Vlerësimin e ulët të rreziqeve të besimit tek ata për vendimmarrje kritike;
- Vështirësimin e çështjeve të rëndësishme mbi përgjegjësinë dhe transparencën.
Siç paralajmëroi shkencëtarja e kompjuterëve Melanie Mitchell, në librin “Inteligjenca Artificiale: Një Udhëzues për Njerëzit që Mendojnë”, kjo antropomorfizim çon në pritshmëri të papërputhshme dhe vlerësime të pasakta. Studimet tregojnë se këto modele dështojnë sistematikisht në detyra që kërkojnë mendim shkakësor ose kuptim të zakonshëm – pikërisht sepse nuk kanë strukturat njohëse që bazojnë mendimin njerëzor.
Pavarësisht aftësive të tyre mbresëlënëse, LLM-të kanë kufizime të rëndësishme. Shpesh, ato prodhojnë informacione të rreme me besim të dukshëm (të ashtuquajturat “halucinacione të IA”), riprodhojnë paragjykje nga të dhënat e trajnimit, nuk qasen në informacione në kohë reale dhe nuk verifikojnë fakte në mënyrë të pavarur.
Përveç kësaj, kanë vështirësi me arsyetimin logjik matematikor, abstraksionet, mbajtjen e kontekstit në ndërveprime të gjata dhe përdorimin efektiv të kujtesës. Por, mbi të gjitha, ata nuk kanë asnjë formë të ndërgjegjes ose përvoje të botës fizike, gjë që i pengon të bëjnë gjykime të sinqerta për situata që përfshijnë empati, dilema etike ose përvoja njerëzore.
Përfundimi: një pamje më e saktë
Një njohje e LLM-ve për atë që janë në të vërtetë — mekanizma të sofistikuar të lidhjes gjuhësore, dhe jo entitete menduese — nuk e zvogëlon dobishmërinë e tyre. Përkundrazi, ajo na lejon të përdorim me pritshmëri më reale dhe kritere kontrolli më të përshtatshme.
Këto sisteme dallohen në detyra të ndryshme që përfshijnë gjuhën natyrore, si përmbledhja e teksteve, përkthimi, organizimi i të dhënave dhe gjenerimi i shpjegime didaktike. Në programim, ata ndihmojnë në shkrimin dhe rishikimin e kodeve. Gjithashtu janë të dobishëm në automatizimin e detyrave të përsëritura, si formatimi i dokumenteve, konvertimi i skedarëve ose përgjigjja e email-eve.
Me rritjen e teknologjisë dhe integrimin e saj në përditshmërinë tonë, kuptimi i mënyrës se si funksionojnë ato në të vërtetë bëhet thelbësor. Janë mjete të fuqishme, por vetëm kur përdoren me qartësi për aftësitë dhe kufijtë e tyre. Projektimi i cilësive njerëzore, si arsyetimi, sensi i përbashkët ose ndërgjegjja morale, është një gabim që mund të ketë pasoja të rënda. Modelet e gjuhës nuk janë krijuar për të zëvendësuar njerëzit, por për t’u mbështetur në ta. Kur përdoren mirë, ato mund të zgjerojnë aftësinë tonë për përpunim dhe komunikim, duke na ndihmuar të marrim vendime gjithnjë e më të mira, në dobi të shoqërisë së gjithanshme.
Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: theconversation.com