Epizoda e Podkastit: Ndajmë Shpresën për Inteligjencën Artificiale nga Eksitimi i Tepruar

Nëse besoni në reklamën e madhe, inteligjenca artificiale së shpejti do të marrë të gjitha punët tona, ose do të zgjidhë të gjitha problemet tona, ose do të shkatërrojë të gjitha kufijtë midis realitetit dhe gënjeshtrës, ose do të na ndihmojë të jetojmë përgjithmonë, ose do të marrë kontrollin e botës dhe do të shfarosë njerëzimin. Ky është një spekter mjaft i gjerë, dhe lë shumë njerëz shumë të konfuzuar për atë që AI në të vërtetë mund dhe nuk mund të bëjë. Në këtë episod, do t'ju ndihmojmë ta sqaroni atë: Për shembull, do të flasim pse edhe AI super inteligjent nuk mund thjesht të zëvendësojë njerëzit për shumicën e asaj që bëjmë ne, as nuk mund ta përmirësojë ose shkatërrojë botën tonë nëse nuk e lejojmë ne.

(Ju gjithashtu mund ta gjeni këtë episod në Internet Archive dhe në YouTube.)
Arvind Narayanan studion ndikimin shoqëror të teknologjive digjitale me fokus se si AI bën dhe nuk bën punë, dhe çfarë mund dhe nuk mund të bëjë. Ai beson se nëse heqim të gjitha reklamat, dhe vendosim kufij të duhur rreth trajnimit dhe përdorimit të AI-së, ajo ka potencial të jetë një teknologji thellësisht fuqizuese dhe liruarse. Narayanan bashkohet me Cindy Cohn dhe Jason Kelley të EFF për të diskutuar se si arrijmë në një botë ku AI mund të përmirësojë aspekte të jetës sonë nga arsimi deri te transporti—nëse bëjmë disa përmirësime sistematike më parë—dhe se si AI ndoshta do të funksionojë në mënyra që ne rrallë vërejmë, por që na ndihmojnë të rritemi dhe të lulëzojmë.
Në këtë episod do të mësoni rreth:
- Çfarë do të thotë të jesh një “techno-optimist” (dhe JO lloji i kapitalistit të venture-it)
- Pse nuk mund të mbështetemi te algoritmet parashikuese për të marrë vendime në drejtësinë penale, punësim, huazim, dhe aspekte të tjera të rëndësishme të jetës së njerëzve
- Si kërkojnë studime të mëdha, afatgjata, të kontrolluara për të përcaktuar nëse një aplikim i veçantë i AI-së vërtet përmbush premtimet e saktësisë së tij
- Pse “fake-të të shtrenjta” kanë tendencë të jenë më efektive (ose të barasvlefshme) se deepfake-t në mbështetjen e mbështetjes politike
- Si AI është dhe nuk është e ngjashme me Revolucionin Industrial, ardhjen e energjisë elektrike, dhe zhvillimin e linjës së montimit
Arvind Narayanan është profesor i shkencave kompjuterike dhe drejtor i Qendrës për Politikën e Teknologjisë së Informacionit në Universitetin e Princeton. së bashku me Sayash Kapoor, ai publikon buletinin AI Snake Oil, i ndjekur nga dhjetëra mijëra kërkues, politikanë, gazetarë dhe entuziastë të AI-së; ata gjithashtu janë autorë të “AI Snake Oil: What Artificial Intelligence Can Do, What It Can’t, and How to Tell the Difference” (2024, Princeton University Press). Ai ka studiuar algoritmikën e përforcimit në rrjetet sociale si një studiues i vizitueshëm i lartë në Institutin Knight First Amendment të Universitetit Columbia; bashkëautor i një libër mësimi mbi drejtësinë dhe mësimin makinerik; dhe udhëhoqi Projektin e Transparencës dhe Përgjegjshmërisë në Web të Princetonit, duke zbuluar se si kompanitë mbledhin dhe përdorin informacionin tonë personal
Burimet:
- Projekti i Zgjuarsisë Artificiale të WIRED për Zgjedhjet
- Axios: “Pas Perdes: Masakra e gjakut për punëtorët e bardhë” (28 maj, 2025)
- Bloomberg: “Klarna ngadalëson shkurtimet e punës së drejtuar nga AI me thirrje për njerëz të vërtetë” (8 maj, 2025)
- Ars Technica: “Air Canada duhet të respektojë politikën e rimbursimit të krijuar nga chatboti i linjës ajrore” (16 shkurt, 2024)
Çfarë mendoni për “Si të Rregullojmë Internetin?” Ndani mendimet tuaja këtu.
Transkript
ARVIND NARAYANAN: Njerëzit që besojnë se super inteligjenca po vjen shumë shpejt kanë tendencë të mendojnë për shumicën e detyrave që duam të bëjmë në botën reale si të ngjashme me shah, ku fillimisht bota e shahut nuk ishte shumë e mirë. Në disa pika, ata arritën barazinë me njeriun. Dhe pastaj shumë shpejt pas kësaj, thjesht duke përmirësuar harduerin dhe më vonë duke përmirësuar algoritmet, duke përfshirë përdorimin e mësimit makinerik, ata janë jashtëzakonisht, jashtëzakonisht supernjerëzor.
Nuk mendojmë se shumica e detyrave janë të tilla. Kjo është e vërtetë kur flasim për detyra që janë të integruara në botën reale, e dini, kërkojnë mendje të shëndoshë, kërkojnë një lloj kuptimi të një përshkrimi të paqartë të detyrës. Nuk është as e qartë kur ke bërë mirë dhe kur nuk ke bërë mirë.
Ne mendojmë se performanca njerëzore nuk është e kufizuar nga biologjia jonë. Ajo është e kufizuar nga niveli ynë i njohurive për botën, për shembull. Pra arsyeja pse nuk jemi më të mirë mjekë nuk është sepse nuk po llogarisim mjaft shpejt, është thjesht sepse kërkimi mjekësor na ka dhënë vetëm aq njohuri rreth mënyrës se si funksionon trupi njerëzor dhe, e dini, si funksionojnë barnat dhe kështu me radhë.
Dhe tjetra është se keni goditur tavanin e performancës. Arsyeja pse njerëzit nuk janë domosdoshmërisht më të mirë shkrimtarë është se nuk është as e qartë se çfarë do të thotë të jesh një shkrimtar më i mirë. Nuk është sikur të ketë një tekst magjik, e dini, që do të të bindë për diçka që kurrë nuk ke dashur ta besosh, për shembull, apo jo?
Nuk mendojmë se kjo lloj gjëje është edhe e mundur. Dhe këto janë dy arsye pse në shumicën dërrmuese të detyrave, mendojmë se AI nuk do të bëhet më i mirë ose të paktën shumë më i mirë se profesionistët njerëzorë.
CINDY COHN: Kjo është Arvind Narayanan duke shpjeguar pse AI-të nuk mund të zëvendësojnë thjesht njerëzit për shumicën e asaj që bëjmë. Unë jam Cindy Cohn, drejtoresha ekzekutive e Fondacionit të Frontit Elektronik.
JASON KELLEY: Dhe unë jam Jason Kelley, Drejtor i Aktivizmit në EFF. Kjo është seria jonë e podcast-it, Si të riparojmë internetin.
CINDY COHN: Në këtë emision, përpiqemi të shmangim paralajmëruesit dystopianë të teknologjisë – dhe ofrojmë hapësirë për të imagjinuar një të ardhme digjitale më shpresëdhënëse dhe pozitive që të gjithë mund ta punojmë së bashku.
JASON KELLEY: Dhe mysafiri ynë është një nga zërat më të qetë dhe më të sigurt në teknologji.
CINDY COHN: Arvind Narayanan është profesor i shkencave kompjuterike në Princeton dhe drejtor i Qendrës për Politikën e Teknologjisë së Informacionit. Ai është gjithashtu bashkë-autori i një buletini të shkëlqyeshëm të quajtur AI Snake Oil – i cili gjithashtu u bë një libër – ku ai dhe kolegu i tij Sayash Kapoor hedh poshtë nxitimin rreth AI-së dhe ofrojnë një pamje të qartë të rreziqeve dhe përfitimeve të saj.
Ai është gjithashtu një “optimist teknologjik” i vetë-shpallur, por ai e mendon këtë në një mënyrë shumë të veçantë – kështu që filluam me atë që do të thotë ky term për të.
ARVIND NARAYANAN: Mendoj se ka lloje të ndryshme të techno-optimizmit. Ekziston ai lloj i Mark Andreessen ku, e dini, le të lejojmë kompanitë teknologjike të bëjnë atë që duan dhe gjithçka do të funksionojë. Unë nuk jam ai lloj techno-optimisti. Lloji im i techno-optimizmit është i bazuar në besimin se na nevojiten njerëz që të mendojnë për atë që mund të shkojë keq dhe të përparojnë përpara me këtë në mënyrë që të mund të realizojmë atë që është e ardhmja jonë pozitive.
Pra për mua, ju e dini, AI mund të jetë një teknologji shumë fuqizuese dhe lirizuese. Në fakt, duke u kthyer te fëmijëria ime, kjo është një histori që herë pas here e tregoj, unë u rrita në Indi dhe, në mënyrë të sinqertë, sistemi arsimor ishte disi i keq. Mësuesi im i gjeografisë mendonte se India ishte në Hemisferën Jugore. Kjo është një histori e vërtetë.
CINDY COHN: O Zot. Oops.
ARVIND NARAYANAN: Dhe, e dini, nuk kishte biblioteka të mëdha pranë. Dhe shumë nga ajo që dija, dhe nuk vetëm që më duhej ta mësoja vetë, por ishte e vështirë të kaloje nëpër burime të besueshme dhe të mira të informacionit. Patëm shumë libra natyrisht, por kujtoj kur prindërit e mi kursyen për një vit të tërë dhe më blenë një kompjuter që kishte një enciklopedi CD-Rom.
Kjo ishte një moment plotësisht ndryshues i jetës për mua. E vërtet. Pra, kjo ishte hera e parë që mund të afrohesha me idenë e disponimit të të gjitha informacioneve në gishtat tanë. Madje edhe para se të kisha akses në internet. Kjo ishte një moment shumë i fuqishëm. Dhe e pashë atë si një mësim për teknologjinë e informacionit që ka aftësinë të barazojë terrenin ndërmjet vendeve të ndryshme. Dhe kjo ishte pjesë e arsyeve pse vendosa të merrem me shkencat kompjuterike.
Sigurisht, më vonë kuptova se vështrimi im i botës ishte paksa i thjeshtëzuar. Teknologjia nuk është automatikisht një forcë për të mirë. Duhet shumë përpjekje dhe agjenci për ta siguruar që do të jetë kështu. Dhe kjo më çoi në interesin tim kërkimor për aspektet shoqërore të teknologjisë në krahasim me vetë teknologjinë.
Gjithsesi, e gjitha kjo është një mënyrë e gjatë për të thënë se shoh shumë të njëjtën potencial në AI që ekzistonte në mënyrën se si qasja në internet, nëse bëhet drejt, ka potencial dhe, dhe ka sjellë, një lloj potenciali lirizues për shumë në botë që mund të mos kenë të njëjtat lloje qasjeje si ne këtu në botën perëndimore me institucionet tona dhe kështu me radhë.
CINDY COHN: Pra, le të thellojmë pak këtë sepse më pëlqen shumë kjo imazh. Dini, unë isha një vajzë e vogël që rritej në Iowa dhe shikimi i internetit më bëri të ndihem po ashtu. Si të kisha qasje në të gjitha informacionet që njerëzit që ishin në qytetet e mëdha dhe kishin shkollat e shtrenjta mund të kishin.
Pra, e dini, nga mendoj se nga e gjithë bota, ekziston kjo përvojë dhe në varësi të moshës suaj, mund të jetë se zbulove Wikipedia-n në vend të një enciklopedie CD-Rom, por është ai moment i njëjtë dhe, mendoj se kjo është premtimi që duhet të mbajmë.
Pra, si do të dukej një botë arsimore? Dini, nëse jeni student ose mësues, nëse po e bëjmë AI-n drejt?
ARVIND NARAYANAN: Po, sigurisht. Le të filloj me përvojën time. Në fakt, unë përdor shumë AI në mënyrën se si mësoj tema të reja. Kjo është diçka që më bëri të befasohem duke u gjetur duke e bërë, duke pasur parasysh kufizimet e njohura të këtyre chatboteve dhe saktësinë, por rezultoi që ekzistojnë mënyra relativisht të lehta për t’u rrethuar ato kufizime.
Uh, një shembull i një, nëse një përdorues përshtatet me të, është të jesh gjithmonë në një mënyrë kritike ku e di që nga 10 gjëra që AI të thotë, një është ndoshta e gabuar. Dhe kështu të jesh në atë gjendje skeptike, në mendimin tim, përmirëson mësimin. Dhe kjo është gjendja e duhur mendore për të qenë në çdo kohë që mëson diçka, mendoj, kështu që kjo është një lloj përshtatjeje.
Por ka edhe përshtatje teknologjike, apo jo? Vetëm shembulli më i thjeshtë: Nëse kërkon nga AI të jetë në mënyrë Sokratike, për shembull, në një bisedë, një chatbot do të marrë një rol shumë më të përshtatshëm për ndihmën e përdoruesit të mësojë sesa një rol ku studentët mund të kërkojnë përgjigje për detyrat e shtëpisë dhe, e dini, të marrin rrugë të shpejta dhe kjo në fakt kufizon mendimin kritik dhe aftësinë e tyre për të mësuar dhe për të u rritur, apo jo? Pra, ky është një shembull i thjeshtë për të bërë pikën se shumë prej kësaj nuk është për vetë AI-n, por për mënyrën se si e përdorim AI-n.
Më gjerësisht, në kuadër të një vizioni për mënyrën se si mund të integrohet kjo në sistemin arsimor, mendoj se ka shumë premtim në personalizim. Përsëri, kjo ka qenë një qëllim i shumë shitjeve të tepruara që AI mund të jetë një mësues i personalizuar për çdo individ. Dhe mendoj se kishte një histori shkencifike që ishte menduar si një shenjë paralajmëruese, por shumë njerëz në industrinë e AI-së e kanë marrë si një manual ose një vizion për atë se si duhet të duket kjo.
Por edhe në përvojat e mia me fëmijët e mi, apo jo, ata janë pesë dhe tre vjeç, madje gjëra të vogla si, e dini, unë po flisja me vajzën time për fraksionet ditën tjetër, dhe dëshiroja ta ndihmoja atë të vizualizonte fraksionet. Dhe kërkova nga Claude të bënte një lojë të vogël që do të ndihmonte në këtë. Dhe brenda, e dini, ishte 30 sekonda ose një minutë ose çfarëdo, bëri një lojë të vogël ku do të gjeneronte një fraksion të rastësishëm, si tre mbi pesë, dhe pastaj kërkonte nga fëmija të lëvizte një shirit. Dhe pastaj do të ndahej segmenti i vijës në pesë pjesë, do të theksonte tre, do të tregonte sa afër ishte fëmija me përgjigjen e saktë, dhe, e dini, jepte feedback dhe atë lloj gjëje, dhe ju mund ta krijoni atë menjëherë, apo jo?
Kështu që kjo më bind se ka në fakt shumë potencial në AI dhe personalizim nëse një fëmijë i veçantë po vuan nga diçka e veçantë, një mësues mund të krijojë një aplikacion në moment dhe ta lërë fëmijën të luajë me të për 10 minuta dhe pastaj ta hedhë atë, kurrë mos ta përdorë më. Por kjo mund të jetë në të vërtetë ndihmuese në mënyrë kuptimplotë.
JASON KELLEY: Kjo lloj bisedë rreth inteligjencës artificiale dhe arsimit është vërtet shumë e afërt me zemrën time sepse kam një mik të mirë që drejton një shkollë, dhe sapo AI u shfaq në skenë, ai ishte shumë i entuziazmuar për pikërisht ato arsye që po diskutoni ju. Por në të njëjtën kohë, shumë shkolla menjëherë vendosën masa si, ju e dini, ndalimet e Chat GPT dhe gjëra të tilla.
Dhe kemi folur pak në blogun Deep Links të EFF-së për mënyrën se si, ju e dini, kjo ndoshta është një tejkalim në kuptimin se njerëzit duhet të dinë si ta përdorin këtë, qoftë studentë ose jo. Ata duhet të kuptojnë cilat janë aftësitë e saj në mënyrë që të mund të kenë përdorime të saj që i përshtaten atyre në vend që të përpiqen menjëherë të bëjnë detyrat e tyre.
Pra, a mendoni se shkollat, duke pasur parasysh mënyrën se si i shihni ju, janë në një pozicion të mirë për të arritur në atë pikë që po përshkruani? Unë do të thoja, si, kjo duket si një e ardhme shumë larg ku shumë mësues e dinë se si funksionon AI ose sistemet shkollore e kuptojnë atë. Si mund ta bëjmë atë që po përshkruani ju sepse shumica e mësuesve janë të mbingarkuar siç janë tani.
ARVIND NARAYANAN: Saktësisht. Kjo është burimi i problemit. Mendoj se duhet të ketë ndryshime strukturore. Duhet të ketë më shumë financime. Dhe mendoj se gjithashtu duhet të ketë më shumë ndërgjegjësim në mënyrë që të ketë më pak këtë qasje armiqësore. Uh, mendoj për, ju e dini, mekanizmat për ndryshim ku unë mund të luaj një rol të vogël. Nuk mund të ndryshoj situatën e financimit të shkollave, por vetëm si një shembull i thjeshtë, mendoj se mënyra se si studiuesit po e shikojnë këtë ndoshta tani është jo shumë e dobishme dhe mund të ri-ramë në një mënyrë që është shumë më e veprueshme për mësuesit dhe të tjerë. Pra, ka shumë studime që shikojnë se çfarë është ndikimi i AI në klasë që, për mua, janë ekuivalentë me, a është ushqimi i mirë për ju? A po trajton çështjen e nivelit të gabuar të abstraksionit.
JASON KELLEY: Po.
ARVIND NARAYANAN: Nuk mund të përgjigjesh në pyetje në atë nivel të lartë sepse nuk ke specifikuar ndonjë nga detajet që kanë rëndësi. Nëse ushqimi është i mirë dhe plotësisht varet nga lloji i ushqimit, dhe nëse mënyra se si e studiuat atë ishte të shkoni në dyqanin ushqimor dhe të provoni 15 artikujt e parë që panë, po matni pronësitë e mostrës suaj të rastësishme në vend që të matni fenomenet themelore që dëshironi të studioni.
Dhe kështu mendoj se studiuesit duhet të thellohen shumë më tepër në atë se si duket AI për arsimin, apo jo? Nëse e bëni pyetjen në nivelin e a po ndihmojnë ose dëmtojnë chatboti studentët, do të përfundoni me përgjigje të pa kuptueshme. Pra, mendoj se kërkimi mund të ndryshojë dhe pastaj duhet të ndodhin ndryshime të tjera strukturore.
CINDY COHN: Dëgjuam në një podcast që folët për AI si, dhe duke thënë një pikë të ngjashme, që është se, e dini, çfarë, nëse do të vendosnim nëse automjetet janë të mira apo të këqija, apo jo? Askush nuk do të, um, të gjithë mund ta kuptojnë që kjo është shumë e gjerë përshkrimi për një pajisje me qëllim të përgjithshëm që të arrijë në ndonjë përfundim të arsyeshëm. Pra, duhet të shikoni ndryshimin midis, e dini, një kamioni, një makine, një taksie, të tjerash, e dini, të gjitha, ose, e dini, lloje të ndryshme të automjeteve për ta bërë këtë. Dhe mendoj se ju bëni një punë të mirë me këtë në librin tuaj, të paktën duke filluar të na jepni disa kategori, dhe ajo që ne jemi më shumë të fokusuar në EFF është ndryshimi midis teknologjive parashikuese, dhe llojeve të tjera të AI. Sepse mendoj si ju, kemi identifikuar këto lloje të teknologjive parashikuese si më të rrezikshmet që shohim tani në përdorim aktual. A jam i saktë për këtë?
ARVIND NARAYANAN: Kjo është pikëpamja jonë në librin tonë, po, në lidhje me llojet e AI që kanë pasojat më të mëdha në jetën e njerëzve, dhe gjithashtu ku pasojat shpesh janë shumë të dëmshme. Pra, kjo është AI në sistemin e drejtësisë penale, për shembull, e përdorur për të parashikuar kush mund të mungojë në gjykatë ose kush mund të kryejë një krim dhe pastaj t’i paragjykojë ata në bazë të kësaj, apo jo? Dhe t’ua mohojë lirinë në bazë të diçkaje që ata parashikohen të bëjnë në të ardhmen, e cila është e bazuar në sjelljen e të tjerëve të ngjashëm në të kaluarën, apo jo? Pra, ka dy pyetje këtu, një pyetje teknike dhe një pyetje morale.
Pyetja teknike është, sa të saktë mund të jeni? Dhe rezulton kur rishikojmë provat, jo shumë të saktë. Ka një seksion të gjatë në librin tonë ku përfundojmë se një mënyrë legjitime për ta parë atë është që të gjitha ato që këto sisteme parashikojnë është sa më shumë arrestime paraprake keni, aq më shumë jeni të prirur të jeni të arrestuar në të ardhmen.
Kështu që kjo është aspekti teknik, dhe kjo është sepse, e dini, thjesht nuk dihet kush do të kryejë një krim. Po, disa krime janë të parapërgatitura, por shumë të tjera janë spontane ose varen nga gjëra, gjëra të rastësishme që mund të ndodhin në të ardhmen.
Është diçka që të gjithë e njohim intuitivisht, por kur përdoren fjalët AI ose mësim makinash, disa nga vendimmarrësit këta duket se në ndonjë mënyrë shtyjnë në heshtje mendjen e zakonshme dhe besojnë në të ardhmen si diçka të parashikueshme në mënyrë të saktë.
CINDY COHN: Pjesa tjetër që kam parë që ju keni folur dhe të tjerë flasin është se e vetmja të dhëna që keni është ajo që policët bëjnë në realitet, dhe kjo nuk tregon për krimin, por tregon për atë që bëjnë policët. Pra, shokët e mi në grupin e analizës së të dhënave për të drejtat e njeriut e quajtën parashikimin e policisë më shumë sesa parashikimin e patrullimit.
Dhe e dimë që ka një ndryshim të madh midis krimit që policët përgjigjen dhe krimit të përgjithshëm. Pra, do të duket sikur njerëzit që kryejnë krime janë ata që gjithmonë kryejnë krime kur është vetëm ai përzgjedhje që policia është në gjendje të fokusohet, dhe e dimë që ka shumë paragjykime të integruara në atë gjithashtu.
Pra, nuk është vetëm brenda të dhënave, është jashtë të dhënave që duhet të mendoni përsa i përket këtyre algoritmeve të parashikimit dhe asaj që ata kapin dhe asaj që nuk kapin. A është kjo e drejtë?
ARVIND NARAYANAN: Kjo është plotësisht, po, është saktësisht e drejtë. Dhe më gjerë, e dini, përtej sistemit të drejtësisë penale, këto algoritme parashikuese gjithashtu përdoren në punësim, për shembull, dhe, dhe e dini, nuk është e njëjtë lloji i përdorimit moralisht problematik ku po mohohet dikujt liria e tij. Por shumë prej të njëjtave rreziqe vlejnë.
Mendoj se një mënyrë për ta kapur këtë në librë është që ai "vaj" i gënjeshtërt i AI-së, ose AI e prishur, siç e quajmë ndonjëherë, është tërheqëse për institucionet e prishura. Pra arsyeja pse AI është kaq tërheqëse për menaxherët e punësimit është se po, është e vërtetë që diçka është e prishur me mënyrën se si punësojmë sot. Kompanitë marrin qindra aplikime, ndoshta një mijë për çdo pozicion të hapur. Nuk janë në gjendje t'i shkojnë përmes të gjithave manualisht. Pra, ata duan të përpiqen të automatizojnë procesin. Por kjo nuk adreson në të vërtetë atë që është e prishur në sistem, dhe kur bëjnë këtë, kandidatët gjithashtu po përdorin AI për të rritur numrin e pozicioneve për të cilat mund të aplikojnë. Dhe kështu, vetëm po e rritin garën e armatimeve, apo jo?
Mendoj se arsyeja pse kjo është e prishur është se ne në thelb nuk kemi mënyra të mira për të ditur kush do të jetë i përshtatshëm për cilin pozicion, dhe kështu duke pretenduar se mund ta parashikojmë me AI, ne vetëm po e ngrisim këtë gjenerator të numrave të rastësishëm në këtë arbiter moral. Dhe mund të ketë pasojë morale për këtë gjithashtu.
Si, sigurisht, dikush që kishte merituar një punë mund të mohohet për atë punë, por kjo bëhet më e madhe kur mendon për disa prej këtyre shitësve të rekrutimit AI që ofrojnë algoritmin e tyre për 10 kompani të ndryshme. Dhe kështu çdo kompani që dikush aplikohet është duke gjykuar dikë në të njëjtën mënyrë.
Sipas mendimit tonë, mënyra e vetme për t'u larguar nga kjo është të bëhen reforma të nevojshme organizative për këto procese të prishura. Thjesht si një shembull, në softuer, për shembull, shumë kompani ofrojnë praktikime për njerëzit, veçanërisht studentët, dhe e përdorin atë për të bërë një vlerësim më të thellë të kandidatit. Nuk po them se kjo funksionon domosdoshmërisht për çdo industri ose çdo nivel të senioritetit, por ne duhet të shkojmë më thellë dhe të theksojmë elementin njerëzor në vend që të përpiqemi të jemi më sipërfaqësorë dhe të automatizuar me AI.
JASON KELLEY: Një nga temat që ju përmendni në buletin dhe në librë është vlerësimi i AI-së. Le të themi se keni një nga këto kompani me mjetin e punësimit: pse është kaq e vështirë të vlerësohet efektiviteti i këtyre modeleve të AI-së ose të dhënat pas tyre? E di që mund të jetë, e dini, e vështirë nëse nuk ke qasje në to, por edhe nëse ke, si e kuptojmë mangësitë që këto mjete në të vërtetë kanë?
ARVIND NARAYANAN: Ka disa kufizime të mëdha këtu. Le të themi se e lëmë mënjanë çështjen e qasjes në të dhëna, kompania vetë dëshiron të kuptojë sa të sakta janë këto vendime.
JASON KELLEY: Shpresojmë!
ARVIND NARAYANAN: Po. Um, po, saktësisht. Ata shpesh nuk duan të dinë, por edhe nëse dëshironi ta dini, në aspektin teknik të vlerësimit të kësaj, është vërtet e njëjtë si problemi që sistemi mjekësor ka në përcaktimin nëse një ilaç funksionon apo jo.
Dhe e dimë sa e vështirë është kjo. Kjo kërkon në fakt një provë të rastësishme, të kontrolluar. Kjo kërkon në fakt eksperimentimin me njerëz, gjë që nga ana tjetër sjell dilemna etike. Pra, ju duhet mbikëqyrje për etikën e saj, por pastaj duhet të rekrutojnë qindra, ndonjëherë mijëra njerëz, t’i ndjekin për një periudhë disa vjeçare. Dhe të përcaktojnë nëse grupi i trajtimit për të cilin ose, e dini, i dhatë ilaçin, ose në rastin e punësimit, implementuat algoritmin tuaj ka një rezultat më të mirë mesatarisht se grupi i kontrollit për të cilin ose i dhanë një placebo ose në rastin e punësimit përdorën, procedurën tradicionale të punësimit.
E pra. Kjo është në fakt ajo që kërkohet. Dhe, e dini, nuk ka thjesht motivim në shumicën e kompanive për ta bërë këtë sepse qartë ata nuk e vlerësojnë njohurinë për shkak të saj. Dhe ROI-ja thjesht nuk ia vlen. Përpjekja që do të bëjnë për këtë lloj vlerësimi nuk do të lejojë që ata të kapin vlerën nga ajo.
Ajo sjell njohuri për publikun, për shoqërinë në përgjithësi. Pra, çfarë bëjmë këtu? Pra, zakonisht në raste të tilla, qeveria supozohet të ndërhyjë dhe të përdorë financime publike për të bërë këtë lloj kërkimi. Por mendoj se jemi shumë larg nga të kuptuarit kulturor që kjo është lloji i gjëje që është e nevojshme.
Dhe ashtu si komuniteti mjekësor është mësuar ta bëjë këtë, ne duhet ta bëjmë këtë sa herë që na interesojnë rezultatet, sado? Qoftë në drejtësi penale, punësim, kudo. Pra, mendoj se do të marrë pak kohë, dhe libri ynë përpiqet të jetë një hap shumë i vogël i parë drejt ndryshimit të perceptimit publik që kjo nuk është diçka që mund ta automatikoni ndonjë mënyrë duke përdorur AI. Këto janë në fakt eksperimente me njerëz. Do të jetë shumë e vështirë për t’u bërë.
JASON KELLEY: Le të marrim një moment të shkurtër për të falënderuar sponsorizuesin tonë. “Si të rregulloni internetin” mbështetet nga Programi i Fondacionit Alfred P. Sloan për Kuptimin Publik të Shkencës dhe Teknologjisë. Pasuroni jetën e njerëzve përmes një vlerësimi më të thellë të botës sonë gjithnjë e më teknologjike dhe portretizoni njerëzimin e ndërlikuar të shkencëtarëve, inxhinierëve dhe matematicienëve.
Ne gjithashtu duam të falënderojmë anëtarët dhe donatorët e EFF. Ju jeni arsyeja pse ekzistojmë. EFF ka luftuar për të drejtat dixhitale për 35 vjet, dhe kjo luftë është më e madhe se kurrë, ndaj ju lutemi, nëse ju pëlqen ajo që bëjmë, shkoni te eff.org/pod për të dhuruar. Gjithashtu, do të donim që të na bashkoheni në çmimet e këtij viti të EFF, ku festojmë njerëzit që punojnë drejt një të ardhmeje më të mirë dixhitale që të gjithë e duam shumë. Këto janë duke ardhur më 12 shtator në San Francisko. Mund të gjeni më shumë informacion rreth kësaj në eff.org/awards.
Ne gjithashtu dëshirojmë të ndajmë që miku ynë Cory Doctorow ka një podcast të ri – dëgjoni këtë.
[TRAILERI I KURRËSIT INTERNETIN]
Dhe tani kthehemi te biseda jonë me Arvind Narayanan.
CINDY COHN: Pra, le të shkojmë në anën tjetër të botës së AI. Njerëzit që, ju e dini, i quajnë atë siguri të AI, ku ata janë vërtet të fokusuar në, ju e dini, robotët do të na vrasin. Të gjitha llojet e shqetësimeve. Sepse kjo është gjithashtu një pjesë e kësaj historie. Dhe do të doja të dëgjoja mendimin tuaj për, ju e dini, llojin e ciklit të fatkeqësisë, um, versionin e AI-së.
ARVIND NARAYANAN: Sigurisht. Po. Pra ka, uh, një kapitull të tërë në libër ku flasim për shqetësimet rreth rrezikut katastrofik nga sistemet e ardhshme më të fuqishme të AI-së, dhe gjithashtu kemi shpjeguar shumë prej tyre në një letër të re që kemi publikuar të quajtur AI si Teknologji e Normalizuar. Nëse njerëzit janë të interesuar të kërkojnë atë dhe shiko, dua të them, jam i kënaqur që njerëzit studjojnë sigurinë e AI-së dhe llojet e rreziqeve të pazakonta, le të themi, që mund të lindin në të ardhmen dhe nuk janë domosdoshmërisht përhapje direkte e rreziqeve që kemi aktualisht.
Por ku kundërshtojmë këto argumente është pretendimi se kemi mjaftueshëm njohuri dhe prova për këto rreziqe që janë aq urgjente dhe serioze sa duhet të vendosim masa të rënda politike tani, uh, si p.sh., kufizimin e AI-së së hapur të peshave, për shembull, sepse kurrë nuk e di kush do të shkarkojë këto sisteme dhe çfarë do të bëjnë me to.
Pra, kemi disa arsye pse mendojmë se llojet e argumenteve shumë të forta janë duke shkuar shumë larg. Një arsye është se llojet e ndërhyrjeve që do të kemi nevojë, nëse duam ta kontrollojmë këtë në nivelin e teknologjisë, në kundërshtim me përdorimin dhe vendosjen e teknologjisë, ato masa jo-rritjeje, siç i quajmë, në mendimin tonë, pothuajse garantohet që nuk do të funksionojnë.
Dhe madje për të përpjekur të zbatohet kjo, jeni të drejtuar pa mënyrë të pashmangshme drejt idesë së ndërtimit të një qeverie autoritare botërore që mund të monitorojë të gjitha, ju e dini, zhvillimin e AI-së kudo dhe të sigurojë që kompanitë, disa kompani që do të licencohen për ta bërë këtë, po e bëjnë atë në një mënyrë që ndërton të gjitha masat e sigurisë, masat e përshtatjes, siç i quhet komuniteti ynë, që ne duam nga këto modele të AI.
Sepse modelet që kushtuan, ju e dini, qindra miliona dollarë për t’u ndërtuar vetëm disa vite më parë tani mund të ndërtohen duke përdorur një grup makinerish të entuziastëve në një bodrum, apo jo? Dhe nëse imagjinojmë që këto rreziqe të sigurisë janë të lidhura me nivelin e aftësisë së këtyre modeleve, e cila është një supozim që shumë njerëz kanë për të kërkuar këto masa të forta politike, atëherë parashikimet që kanë dalë nga kjo linjë mendimi, në mendimin tim, janë tashmë të falsifikuara përsëritur.
Pra, kur GPT dy u ndërtua, apo jo, kjo ishte në vitin 2019, OpenAI pretendoi se kjo ishte aq e rrezikshme në aspekt të dezinformimit që ishte atje, sa do të kishte ndikime potencialisht të dëmshme në demokraci, se nuk mund ta publikojnë atë në bazë të peshave të hapura.
Kjo është një model që studentët e mi tani e ndërtojnë vetëm për të, ju e dini, në një pasdite vetëm për të mësuar procesin e ndërtimit të modeleve, apo jo? Pra, kjo është sa i lirë është bërë kjo pas gjashtë vjetësh, dhe modelet shumë më të fuqishme se GPT dy tani janë bërë të disponueshme hapur. Dhe kur shikoni ndikimin në dezinformimin e gjeneruar nga AI, bëmë një studim. Ne shikuam bazën e të dhënave Wired për përdorimin e AI-së në aktivitetet e lidhura me zgjedhjet në mbarë botën. Dhe ato frikëra që lidhen me dezinformimin e gjeneruar nga AI thjesht nuk kanë ndodhur sepse rezulton se qëllimi i dezinformimit zgjedhor nuk është të bindë dikë nga tribu tjetër, nëse mund të themi, që është skeptik, por thjesht të japë ushqim për tribunë tuaj në mënyrë që ata të vazhdojnë të mbështesin çfarëdo që jeni duke shtyrë.
Dhe për këtë qëllim, nuk duhet të jetë aq bindëse ose mashtruese, thjesht duhet të jetë kopje të lira, siç quhet. Është lloji i gjëje që çdo kush mund ta bëjë, ju e dini, në 10 minuta me Photoshop. Edhe me disponueshmërinë e gjeneratorëve të imazheve të sofistikuar të AI-së. Shumica e dezinformimit të AI që po shohim janë këto lloje të kopjeve të lira që nuk kërkojnë as atë nivel të sofistikimit për t’u prodhuar, apo jo?
Pra, shumë prej këtyre dëmeve të supozuara kanë teorinë e gabuar në mendje se si teknologjia e fuqishme do të çojë në ndikime potencialisht të dëmshme shoqërore. Një tjetër është në sigurinë kibernetike, e cila, ju e dini, unë kam punuar në këtë fushë për shumë vite para se të filloja të punoja në AI.
Dhe nëse shqetësimi është se AI do të gjejë dobësitë e softuerit dhe do t’i shfrytëzojë ato dhe do të shfrytëzojë infrastrukturën kritike, çfarëdo, më mirë se sa njerëzit. Unë, ne kaluam atë prag dhjetë vjet ose dy më parë. Metodat e automatizuara si fuzzing janë përdorur prej kohësh për të gjetur dobësi të reja kibernetike, por rezulton se ato kanë ndihmuar mbrojtësit më shumë se sulmuesit. Sepse kompanitë e softuerit mund dhe përdorin, dhe kjo është, ju e dini, pothuajse linja e parë e mbrojtjes. Përdorin këto metoda automatike për të zbuluar dobësitë dhe për të riparuar ato në softuerin e tyre para se ta publikojnë atë aty ku sulmuesit mund të gjejnë ato dobësi.
Pra, për të përmbledhur të gjitha ato, shumë prej frikërave bazohen në një teori të gabuar mbi ndërveprimin midis teknologjisë dhe shoqërisë. Uh, ne kemi mënyra të tjera për të mbrojtur, në fakt, në shumë mënyra, vetë AI është, është mbrojtja kundër disa prej këtyre kërcënimeve të mundshme të AI-së që po flasim? Dhe së fundmi, mbrojtjet që përfshijnë përpjekjen për të kontrolluar AI-në nuk do të funksionojnë. Dhe ato janë, në mendimin tonë, shumë të rrezikshme për demokracinë.
CINDY COHN: A mund të flisni pak për AI-në si teknologji e zakonshme? Sepse mendoj se ky është një botë në të cilën po shkojmë dhe ju keni menduar pak më shumë. sepse ne, e dini, nuk po kthehemi prapa.
Kushdo që shoqërohet me njerëz që shkruajnë kod kompjuterik, e di që përdorimi i këtyre sistemeve për të shkruar kod është bërë tashmë i zakonshëm. Um, dhe do të ishte e vështirë të kthehesh prapa edhe nëse do të doje. Um, kështu që më thuaj pak për, e dini, këtë, këtë version të, të AI si teknologji e zakonshme. sepse mendoj se, ndihet si e ardhmja tani, por në fakt mendoj se në varësi të, e dini, çfarë thonë, e ardhmja është këtu, është thjesht jo e shpërndarë në mënyrë të barabartë. Siç nuk është shpërndarë në mënyrë të barabartë ende. Pra çfarë duket si?
ARVIND NARAYANAN: Po, kështu, një pjesë e madhe e dokumentit merr seriozisht perspektivën e automatizimit kognitiv duke përdorur AI-në, që AI do të jetë në gjendje në një moment të kryejë, e dini, me një nivel të saktësisë dhe besueshmërisë, shumicën e detyrave kognitive që janë të vlefshme në ekonominë e sotme të paktën, dhe pyet, sa shpejt do të ndodhë kjo? Çfarë do të jenë efektet?
Pra shumë njerëz që mendojnë se kjo do të ndodhë, mendojnë se do të ndodhë këtë dekadë dhe shumë prej tyre, e dini, uh, sjell shumë frikë tek njerëzit dhe shumë mendim shumë afatshkurtër. Por dokumenti ynë e sheh atë në një mënyrë shumë të ndryshme. Pra së pari, ne mendojmë se edhe nëse arrihet kjo lloj automatizimi kognitiv, duke përdorur një analogji me revolucionin industrial, ku shumë detyra fizike u automatizuan. Nuk do të thoshte që puna njerëzore ishte e tepërt, sepse ne nuk përdorim makineri të fuqishme fizike si kranë ose çfarëdo dhe i lejojmë ato të operojnë pa mbikëqyrje, apo jo?
Pra, me ato detyra fizike që u automatizuan, kuptimi i punës tani është gjithçka rreth mbikëqyrjes së atyre makinerive fizike që janë shumë më fuqishëm fizikisht se njerëzit. Pra ne mendojmë, dhe kjo është thjesht një analogji, por kemi shumë arsyetime në dokument përse mendojmë se kjo do të jetë kështu. Çfarë do të thotë puna në një të ardhme me automatizim kognitiv është kryesisht rreth mbikëqyrjes së sistemeve të AI.
Dhe për ne, kjo është një pikëpamje shumë pozitive. Ne mendojmë se për pjesën më të madhe, kjo do të jetë ende punë plotësuese në disa sektorë. Mund të ketë ndikime katastrofike, por nuk është se në të gjithë spektrin do të keni zëvendësime të menjëhershme për punëtorët njerëzorë që do ta bëjnë punën njerëzore të pavlefshme. Ne nuk e shohim këtë të ndodhë, dhe gjithashtu nuk e shohim këtë të ndodhë brenda disa vjetësh.
Ne flasim shumë për burimet e ndryshimeve që janë të ndërtuara në adoptimin e çdo teknologjie të re, veçanërisht teknologjisë së përgjithshme si energjia elektrike. Flasim për, përsëri, një analogji historike ku fabrikat morën disa dekada për të gjetur mënyrën e zëvendësimit të boilerave të avullit të tyre në mënyrë të dobishme me energjinë elektrike, jo sepse ishte e vështirë teknikisht, por sepse kërkonte inovacione organizative, si ndryshimi i gjithë strukturës së fabrikave rreth konceptit të linjës së montimit. Pra, ne mendojmë për ato ndryshime që mund të duhet të ndodhin kur bëhet fjalë për përdorimin e AI-së. Dhe, e dini, ne themi se kemi disa dekada për të bërë këtë tranzicion dhe se, edhe kur e bëjmë tranzicionin, nuk do të jetë aq e frikshme sa shumë njerëz mendojnë.
CINDY COHN: Pra le të themi se po jetojmë në të ardhmen, të ardhmen Arvind ku kemi marrë të gjitha këto pyetje AI, apo jo. Si duket për, e dini, personin mesatar ose dikë që bën një punë?
ARVIND NARAYANAN: Sigurisht. Disa gjëra të mëdha. Dua të përdor internetin si një analogji këtu. Uh, 20, 30 vjet më parë, ne zakonisht hynim në internet, kryenim një detyrë, dhe pastaj dilnim. Por tani. Interneti është thjesht media përmes së cilës ndodh i gjithë puna e njohurive, apo jo? Pra ne mendojmë se nëse e bëjmë këtë të drejtë në të ardhmen, AI do të jetë media përmes së cilës ndodh puna e njohurive. Është disi aty në sfond dhe automatikisht bën gjëra që na duhen pa pasur nevojë të shkojmë në një aplikacion AI dhe t’i kërkojmë diçka atij dhe pastaj ta sjellim rezultatin për diçka tjetër.
Ka këtë përkufizim të famshëm të AI-së që AI është gjithçka që nuk është bërë ende. Pra, kjo do të thotë se kur një teknologji është e re dhe nuk funksionon aq mirë dhe efektet e saj janë dyshuese, atëherë jemi më të prirur ta quajmë atë AI.
Por në fund fillon të funksionojë në mënyrë të besueshme dhe disi zhduket në sfond dhe e marrim atë për të mirëqenë si pjesë e mjedisit tonë digjital ose fizik. Dhe mendojmë se kjo do të ndodhë me AI gjeneruese në një shkallë të madhe. Do të jetë thjesht duke bërë të gjitha punët e njohurive shumë më të mira në mënyrë të padukshme, dhe puna njerëzore do të jetë kryesisht për të ushtruar gjykim mbi punën e AI-së që po ndodh në mënyrë të përhapur, në vend që njerëzit të jenë ata që bëjnë, ju e dini, pjesët e rëndësishme të mendimit në çdo profesion të veçantë.
Mendoj se një tjetër është, uh, shpresoj se do të kemi. përmirësuar njohjen e gjërave që janë thelbësisht njerëzore dhe do të vendosim më shumë përpjekje njerëzore në to, se do të kemi liruar më shumë kohë dhe përpjekje njerëzore për ato gjëra që kanë rëndësi. Pra disa njerëz, për shembull, po thonë, oh, le të automatizojmë qeverinë dhe ta zëvendësojmë atë me një chat bot. Uh, e dini, ne theksojmë se kjo nuk e kupton thelbin e demokracisë, e cila është, nëse një chat bot po merr vendime, mund të jetë më efikas në një kuptim, por nuk pasqyron në asnjë mënyrë vullnetin e popullit. Pra çfarëdo shqetësimesh që njerëzit kanë me qeverinë që është e papërpunuar, automatizimi nuk do të jetë përgjigjja. Mund të mendojmë për reformime strukturore dhe sigurisht duhet, ju e dini, ndoshta do të lirojë më shumë kohë njerëzore për të bërë gjërat që janë thelbësisht njerëzore dhe vërtet kanë rëndësi, siç është si të qeverisim veten dhe kështu me radhë.
Uh. Dhe, um, ndoshta nëse mund të kem një mendim të fundit rreth asaj si duket kjo vizion pozitive e së ardhmes? Uh, unë do të kthehesha tek ajo që filluam, që është AI dhe arsimi. Mendoj se ka shumë më tepër potencial njerëzor për t’u hapur dhe AI nuk është një zgjidhje magjike këtu.
E dini, teknologjia në përgjithësi është vetëm një pjesë e vogël e saj, por mendoj se ndërsa bëhemi më të pasur në përgjithësi dhe kemi. Ju e dini, shumë reforma të ndryshme. Uh, shpresoj se një nga ato reforma do të jetë shkollat dhe sistemet arsimore, uh, duke u financuar shumë më mirë, duke qenë në gjendje të funksionojnë shumë më efektivisht, dhe, ju e dini, çdo fëmijë një ditë, duke qenë në gjendje të performojë, uh, si fëmijët më të suksesshëm sot.
CINDY COHN: Faleminderit shumë, Arvind.
ARVIND NARAYANAN: Faleminderit Jason dhe Cindy. Kjo ka qenë shumë, shumë argëtuese.
CINDY COHN: Vlerësoj shumë idenë shpresëdhënëse dhe të saktë të Arvindit se në fakt ajo që shumica prej nesh bëjnë gjatë gjithë ditës nuk është në të vërtetë e zëvendësueshme nga diçka që një makinë mund ta zëvendësojë. Se, e dini, jeta e vërtetë thjesht nuk është si një lojë shahesh ose, e dini, uh, testi që duhet ta kaloni për t'u bërë avokat ose, ose gjëra të tilla. Dhe që ekziston një hendek i madh midis, e dini, punës së vërtetë dhe asaj që AI mund ta riprodhojë.
JASON KELLEY: Po, dhe ai po mendon shumë për mënyrën se si janë formuluar debatet rreth AI në përgjithësi në këtë nivel shumë të lartë, gjë që duket e pasaktë, apo jo? Kam parasysh, është diçka si të pyesësh nëse ushqimi është i mirë për ju, a janë mjetet e transportit të mira për ju, por ai është shumë më nuancues, e dini? AI është e mirë në disa raste, jo e mirë në të tjerët. Dhe mësimi i tij kryesor për mua ishte se, e dini, njerëzit duhet të jenë skeptikë për mënyrën se si e përdorin atë. Ata duhet të jenë skeptikë për informacionin që ai u jep, dhe duhet të mësojnë se cilat metoda mund të përdorin për ta bërë AI-në të punojë me ju dhe për ju dhe, dhe si ta bëjnë atë të funksionojë për aplikacionin që po e përdorni.
Nuk është diçka që mund ta aplikoni thjesht, e dini, në mënyrë të përgjithshme për gjithçka, gjë që bën plot kuptim, apo jo? Mendoj se askush nuk mendon ndryshe, por mendoj se industritë po e lidhin AI-në me gjithçka ose po e quajnë atë AI gjithsesi. Dhe ai është shumë kritik ndaj kësaj, gjë që mendoj se është e mirë dhe, dhe shumica e njerëzve janë gjithashtu, por ajo po ndodh gjithsesi. Pra, është mirë të dëgjosh dikë që po mendon me të vërtetë kështu dhe po tregon pse kjo është e pasaktë.
CINDY COHN: Mendoj se është e drejtë. Më pëlqen ideja e normalizimit të AI-së dhe mendimit për të si një mjet me qëllim të përgjithshëm që mund të jetë i mirë për disa gjëra dhe i keq për të tjerat, në mënyrë të sinqertë, në të njëjtën mënyrë si kompjuterët, kompjuterët janë të mirë për disa gjëra dhe të keq për të tjerat. Pra, e dini, flasim për mjetet e transportit dhe ushqimin në bisedë, por në të vërtetë mund të flasim për të për, e dini, kompjuterimin në përgjithësi.
Gjithashtu më pëlqeu përgjigja e tij ndaj atyre që mendojnë se do të përfundojnë botën, duke treguar se shumë prej dëmeve që njerëzit po pretendojnë se do ta përfundojnë botën, kanë teorinë e gabuar për mënyrën se si një teknologji e fuqishme do të çojë në ndikim të keq shoqëror. E dini, ai nuk po thotë se nuk do të ndodhë, por po tregon se, e dini, në sigurinë kibernetike për shembull, disa nga metodat e AI-së që kanë qenë të pranishme për një kohë, ai foli për fuzzing, por ka edhe të tjera, e dini, që ato teknika, ndërsa ishin, e dini, të këqija për sigurinë kibernetike të vjetër, në fakt kanë nxitur mbrojtje më të madhe në sigurinë kibernetike. Dhe mësimi është se ne po mësojmë gjithmonë në siguri, sidomos si loja e macës dhe miut do të vazhdojë.
Dhe kushdo që mendon se ka mposhtur, ose në anën e mirë, ose në atë të keqe, është ndoshta i gabuar. Dhe kjo mendoj se është një njohuri e rëndësishme që, e dini, të mos bëhemi shumë entuziastë për mundësitë e AI-së, por të mos shkojmë gjithashtu deri në anën e atyre që mendojnë se do të përfundojnë botën.
JASON KELLEY: Po. E di, gjëja e zakonshme teknologjike ishte shumë e dobishme për mua, apo jo? Është diçka që, siç the me kompjuterët, është një mjet që, që ka aplikime në disa raste dhe jo në të tjera, dhe njerëzit mendonin, e di, nuk e di nëse dikush mendoi kur u zhvillua interneti që kjo do të përfundonte botën ose do ta shpëtonte atë. Mendoj se njerëzit mendonin ndoshta disa mendonin ose njëra ose tjetra, por e di, asnjëra nuk është e vërtetë. Apo jo? Dhe e di, kanë kaluar shumë vite tani dhe ne ende po mësojmë si ta bëjmë internetin të dobishëm, dhe mendoj se do të jetë shumë kohë para se të kuptojmë domosdoshmërisht se si AI mund të jetë e dobishme. Por ka shumë mësime që mund të nxjerrim nga rritja e internetit për mënyrën se si të aplikojmë AI.
E di, lavastova ime, nuk mendoj se ka nevojë të ketë wifi. Nuk mendoj se ka nevojë të ketë AI gjithashtu. Ndoshta do të përfundoj duke blerë një që ka ato gjëra sepse kështu shkon tregu. Por duket se këto janë gjëra që mund të mësojmë nga mënyra se si kemi zbuluar ku janë aplikimet për këto teknologji të përgjithshme në të kaluarën dhe është diçka që mund të vazhdojmë ta kuptojmë për AI.
CINDY COHN: Po, dhe në mënyrë të sinqertë kjo tregon për konkurrencën dhe kontrollin e përdoruesit, apo jo? Më duket se arsyeja pse shumë njerëz ndihen të bllokuar me AI është sepse nuk kemi një treg të hapur për sistemet ku mund të vendosësh, nuk dua AI në lavastovën time, ose nuk dua vëzhgje në televizorin tim.
Dhe kjo është një problem i tregut. Dhe një nga gjërat që ai tha shumë është se, e di, “thjesht shto AI” nuk zgjidh problemet me institucionet e prishura. Dhe mendoj se kjo kthehet tek fakti që nuk kemi një treg funksional, nuk kemi zgjedhje reale për konsumatorët tani. Dhe prandaj disa nga frikat për AI, nuk janë vetëm për konsumatorët, mendoj, është përzgjedhja e punonjësve, gjëra të tjera gjithashtu, është për problemet në ato sisteme në mënyrën se si funksionon pushteti në ato sisteme.
Nëse e përqendron vetëm tek teknologjia, po humbësh pamjen më të madhe dhe gjithashtu gjërat që mund të duhet të bëjmë për t'i adresuar ato. Dua të kthehem tek ajo që the për internetin sepse natyrshëm më kujton deklaratën e Barlow për pavarësinë e hapësirës kibernetike, të cilën, e di, shumë njerëz e kanë interpretuar si duke thënë që interneti do të bëjë magjikisht gjithçka më të mirë dhe, e di, Barlow më tha direkt, si, ajo që ai tha ishte se duke projeksionuar një version pozitiv të botës online dhe duke folur sikur ishte e pashmangshme, ai po përpiqej ta sjellë atë në jetë, apo jo?
Dhe mendoj se kjo mund të jetë një tjetër fushë ku ne duhet të sjellim një të ardhme më të mirë, um, dhe duhet të propozojmë një të ardhme më të mirë, por gjithashtu duhet të jemi të qartë për rreziqet dhe, e di, nëse jemi duke shkuar në drejtimin e duhur apo jo, pavarësisht nga ajo që shpresojmë.
JASON KELLEY: Dhe kjo është epizodi jonë për sot. Faleminderit shumë që na bashkohët. Nëse keni komente ose sugjerime, do të donim të dëgjonim nga ju. Vizitoni ff.org/podcast dhe klikoni në dëgjo ose feedback. Dhe ndërsa jeni aty, mund të bëheni anëtar dhe të dhuroni, ndoshta edhe të merrni disa nga mallrat dhe thjesht të shihni çfarë po ndodh në të drejtat dixhitale këtë javë dhe çdo javë.
Muzika jonë kryesore është nga Nat Keefe i Beat Mower me Reed Mathis, dhe How to Fix the Internet mbështetet nga programi i Fondacionit Alfred Peace Loan dhe kuptimi publik i shkencës dhe teknologjisë. Do të shohim në radhë tjetër. Unë jam Jason Kelley.
CINDY COHN: Dhe unë jam Cindy Cohn.
KREDITE MUZIKORE: Ky podcast është licencuar nën Creative Commons Attribution 4.0 ndërkombëtar, dhe përfshin muzikën e mëposhtme të licencuar nën Creative Commons Attribution 3.0 pa përkufizim nga krijuesit e saj: Drops of H2O, Trajtimi i Ujit të Filtruar nga Jay Lang. Muzikë shtesë, remikse temash dhe dizajn tingujsh nga Gaetan Harris.
Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: www.eff.org