Inteligjenca Artificiale gjithnjë e më e përdorur për mashtrime në shpërndarjen shkencore dhe mashtrime të tjera

Ergon Cugler, Mestre em Administração Pública e Governo, e pesquisador para a estratégia nacional contra a desinformação, Fundação Getulio Vargas
8 min lexim
Politikë

Ju hapni rrjetet sociale dhe shihni një postim nga Dra. Rosemary Galbraith, referencë në shëndetësi në Favignana, Itali. Në profilin e Rosemary, një foto me xhaketë të bardhë, stetoskop në qafë dhe përmbajtje me zë të ngadalshëm autoritar. Ajo flet për shërime të mrekullueshme, suplemente sekrete dhe terapie revolucionare. Problemi? Rosemary nuk ekziston. Dhe në fakt është vetëm një nga më shumë se 1.000 llogari të rreme të identifikuara në META, krijuar nga inteligjenca artificiale, për të promovuar shërime të mrekullueshme.

As nuk kemi nevojë të kalojmë oqeanin, mjeku vetë Drauzio Varella ka denoncuar disa herë se mashtruesit po përdorin fytyrën dhe zërin e tij në video me inteligjencë artificiale për të shitur që nga kolagjen i mrekullueshëm, deri te recetat për të supozuar shërimin e artrozës, osteoporozës dhe largimin e dhimbjeve në gjunjë. Drauzio raportoi se madje edhe u përpoq të njoftonte Big Techs, por, pasi u përpoq shumë, arriti në përfundimin se “[Big Techs] thjesht nuk japin vëmendje”. Bëhet fjalë për besueshmërinë e një jete të tërë të dedikuar në mjekësi, të rrëmbyer në sekonda nga algoritmet.

Me mjete si Veo 3, inteligjenca artificiale e re e videove nga Google, çdo fytyrë ose zë mund të rrëmbehet. IA është bërë një furçë që riprodhon me besnikëri pozën e autoritetit. Por nëse arti i falsifikuar vetëm ngatërron muzetë, shkenca e falsifikuar mund të vrasë. Dhe është në këtë skenë të re digjitale, ku besimi u kthye në një burim të shfrytëzueshëm, që shpërndarja shkencore fillon të jetë objektiv. Drauzio është i njohur, një nga pionierët e shpërndarjes shkencore në shëndetësi në Brazil. Por çfarë ndodh kur një mjek nga një qytet i vogël ka fytyrën, zërin dhe CRM-in e tij të rrëmbyer për të mbështetur një treg të suksesshëm që abuzon me heshtjen e platformave?

Kur xhaketë e bën figurë

Edhe në fushën e shëndetësisë, urologistja Kgomotso Mathabe, nga Afrika e Jugut, kishte imazhin e saj të përdorur në reklama për trajtime për disfunksionin erektil, me fytyrën e saj të shtuar në video dhe reklama që premtonin shërime të dyshimta.

Jonathan Shaw, endokrinolog dhe nënkryetar i Institutit Baker për Zemrën dhe Diabetin (Australi), u shënjestrua nga deepfake-t, të cilat e akuzonin për kritika ndaj recetave të metformës dhe sulmonin kolegët mjekë, duke lidhur emrin e tij me një produkt mrekullie për diabetin.

Në një shembull të mënyrës sesi edhe shtypja është kapur, në Australi, Norman Swan, prezantues i programit ABC 7.30, u shfaq në një deepfake duke promovuar suplemente për sëmundjet e zemrës dhe diabetin. Ky video mashtronte edhe prezantuesit e kanalit, dhe ekspertët vlerësojnë se këto mashtrime shkaktuan humbje prej më shumë se 2 miliardë dollarësh amerikanë vetëm brenda një viti.

Por, problemi nuk kufizohet vetëm tek shëndeti. Estetika akademike gjithashtu është kapur. Tekste me gjuhë formale, grafikë të ngjyrosur, citate të sofistikuara dhe pamje si të rishikuara nga kolegët qarkullojnë sikur të ishin kërkime shkencore të vlefshme, por në realitet, janë pjesë të dezinformimit. Vegla si ChatGPT, Gemini ose Claude mund të gjenerojnë tekste të plota me seksione të strukturuara, formatim të artikujve, referenca të rreme, DOI të shpikura dhe madje edhe lidhje institucionale të supozuara. Këto “përmbledhje” të rreme përdoren për të promovuar dieta radikale, për të mohuar ngrohjen globale, për të deformuar statistikat e dhunës, ose për të shpërndarë gënjeshtra mbi vaksinat, duke përdorur pamjen e autoritetit akademik për të mashtruar.

As edhe tregu botues shkencor nuk është shpëtuar. Kërkuesja Isabela Rocha (UnB) madje denoncoi në The Conversation Brasil se si publikimi i librit me citate të rreme ekspozon tregun që vlerëson më shumë prestigjin sesa rigorin shkencor.

Një nga rastet më alarmante vjen nga vetë BBC, e cila hulumtoi se si inteligjenca artificiale po përdoret për të mashtruar fëmijët me video të “shkencës” të falsifikuar. Raporti zbuloi dhjetëra kanale në YouTube, të prodhuara në gjuhë të ndryshme, që përdorin zëra të sintetizuar nga IA dhe imazhe tërheqëse për të përhapur dezinformata mbi tema si fizika, biologji dhe histori. Janë ato që quhen “kanale të errëta”, që nuk kanë nevojë për fytyrë, por vetëm një zë me imazhe të gjeneruara nga IA. Me estetikë të pastër, gjuhë të thjeshtëzuar dhe ritëm të shpejtë, këto video simulojnë tonin e kanaleve arsimore të vlefshme, por përhapin teori pseudoshkencore, si piramida që gjenerojnë energji ose shërime të menjëhershme me frekuencë zanore.

Algoritmi i YouTube, në shumë raste, rekomandon këto përmbajtje menjëherë pas videove të besueshme shkencore, duke krijuar një efekt lidhjeje të rrezikshme: publiku fëmijëror fillon të konsumojë, pa u kuptuar, një narrativë të paketuar si njohuri, por e programuar për t’u mashtruar. Kriza e shpërndarjes shkencore nuk është vetëm në atë që thuhet, por edhe në atë që mashtrimi ndodh dhe në këtë rast, është e ardhmja që po manipulohet.

Është e rëndësishme të rikujtohet se shpërndarja shkencore nuk është vetëm një urë mes shkencëtarëve dhe publikut. Ajo është një marrëveshje shoqërore. Një mënyrë për ta bërë njohurinë të arritshme, për të luftuar pabarazitë në qasjen në informacion, për të nxitur mendimin kritik. Nga revista popullore deri te videot në YouTube, ajo kryen funksionin demokratik të afruar shoqërinë me prodhimin e dijes. Por kjo marrëveshje fillon të shkatërrohet kur ajo që prezantohet si shkencë është, në të vërtetë, simulim. Besimi në shkencë nuk lind nga jileca ose tonet e ngadalta të zërit. Ai ndërtohet historikisht me metoda, rishikim nga kolegët, transparencë dhe korrigjime.

Inteligjenca artificiale, duke riprodhuar vetëm estetikën e shkencës, me citate, grafike dhe fjalor teknik, pa metodë, promovon një karikaturë të dijes. Dhe karikatura, kur kalon përmes së vërtetës, e kthen dyshimin legjitim në konfuzion të programuar.

Në këtë kontekst, viktima më e madhe e mashtrimit shkencor të shkaktuar nga IA nuk është vetëm individi i mashtruar, por edhe besimi publik në njohuri si e mirë kolektive. Kur publiku nuk arrin më të dallojë atë që është shkencë dhe atë që është mashtrim, gjithçka bëhet çështje mendimi. Dhe në këtë terren të pasigurisë së fabrikuar, negacionizmi gjen tokë pjellore.

Transparenca dhe përgjegjshmëria si antidotë

Ajo që është në lojë nuk është vetëm saktësia e një përmbajtjeje këtu ose atje. Është vetë ideja e shkencës si një e mirë kolektive. Shpërndarja shkencore gjithmonë ka qenë më shumë se një urë mes laboratorit dhe shoqërisë, ajo është një angazhim për kuptimin publik, një përpjekje për ta bërë njohurinë të arritshme pa hequr dorë nga rigoroziteti. Por kjo marrëveshje fillon të shkatërrohet kur çdo video me zë të ngadalshëm dhe me jilecë të stimuluar nga IA fillon të qarkullojë sikur është zbulim, provë, studim. Kur e vërteta shkencore bëhet efekt special.

Prandaj, nuk mjafton të diskutohet për moderim të përgjithshëm. Duhet të krijohen protokolle të veçanta për të mbrojtur shkencën nga rrëmbimi dixhital. Përmbajtjet që përdorin zë, fytyrë ose tekst të gjeneruar nga IA me estetikë shkencore, veçanërisht në tema si shëndeti, mjedisi dhe arsimi, duhet të jenë të etiketuar detyrimisht, me shenja të dukshme dhe të dëgjuara. Sepse simulimi i një kërkuesi për të shitur gënjeshtrën është ndryshe nga të bërit art dixhital: është falsifikim i kredencialeve. Është të vishësh kostumin e shkencës për të skenuar skenarin e mashtrimit.

Si platformat, por ajo nuk mund të vazhdojë të mendojë se është vetëm një skenë neutrale. YouTube, Instagram, TikTok dhe të tjerë duhet të adoptojnë filtra etik: nëse tashmë janë në gjendje të identifikojnë muzikën me të drejta autori, gjithashtu mund të identifikojnë video që simulojnë autoritet mjekësor ose akademik. Veçanërisht kur këto përmbajtje rekomandohen fëmijëve, të rinjve ose publikut në situatë të cenueshme. Nëse përfitojnë nga shtrirja, kanë përgjegjësi për dëmin.

Dhe ndoshta pika më strukturore: shpërndarja e shkencës sot është gjithashtu inkurajimi i dyshimit për atë që vesh si shkencë, por nuk është ndërtuar si e tillë. Aftësia shkencore duhet të dalë nga blloku i mësimit formal dhe të hyjë në kulturën digjitale. Të formosh një sy kritik për të dalluar gjuhën teknike nga rigoroziteti metodologjik. Të tregosh se citimi nuk është provë, grafiku nuk është dëshmi, dhe zëri i thellë nuk është sinonim i autoritetit.

Sepse mbrojtja e shpërndarjes shkencore nuk është vetëm për të mbrojtur studiuesit. Është për të mbrojtur të drejtën e njerëzve për të vendosur bazuar në realitet, dhe jo në versione të paraqitura. Nëse gjithçka mund të duket si shkencë, edhe absurdi, dialogu bëhet një përleshje pamjeje. Dhe në këtë teatër të simulimit, ajo që humbet nuk është vetëm e vërteta: është besimi, kurioziteti, mundësia për të mësuar. Inteligjenca artificiale nuk ka nevojë të gënjejë për të dezinformuar. Mjafton që ajo të përhapë zhurmë derisa askush më të mos dijë kujt t’i besojë. Por kur shkenca kapet nga një model biznesi që varet më shumë nga angazhimi sesa nga faktet, si mund të konkurrohet me atë që gënjen më mirë?

Informacion mbi burimin dhe përkthimin

Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.

Burimi origjinal: theconversation.com

Ndajeni këtë artikull