Plani i Britanisë për inteligjencën artificiale në mbrojtje rrezikon integritetin etik dhe ligjor të ushtrisë

Në një klimë gjeopolitike të paqëndrueshme, rishikimi strategjik i mbrojtjes i Mbretërisë së Bashkuar u fokusua në përmirësimin e reziliencës kombëtare, nga siguria e infrastrukturës kritike deri te teknologjia dhe inovacioni. Shumë nga rekomandimet e rishikimit lidhen me transformimin e mbrojtjes përmes inteligjencës artificiale (IA) dhe autonomisë, për ta bërë forcën e armatosur “dhjetë herë më vdekjeprurëse”.
Këto rekomandime dhe investime – dronë, sisteme autonome dhe £1 miliard për një “rrjet digjital të synimeve” që do të lidhte sistemet e armëve – mund të bëjnë që forcat e armatosura të jenë më vdekjeprurëse. Por kjo vjen me një rrezik për integritetin etik dhe ligjor të ushtrisë.
Një pjesë kyçe e ligjit ndërkombëtar humanitar është parimi i parandalimeve në sulm. Ky kërkon që ata që planifikojnë një sulm duhet të bëjnë gjithçka që janë në gjendje për të siguruar që objektivat janë me natyrë ushtarake. I ngjashëm është parimi i dallimit, i cili kërkon që civilët kurrë nuk duhet të bëhen objektiv.
Në konflikt të armatosur, këto parime janë të destinuara për të mbrojtur civilët. Ato kërkojnë gjykim njerëzor — aftësinë për të vlerësuar kontekstin, qëllimin dhe rezultatet e mundshme. Por si mund të mbahen ato kur njerëzit janë të përfshirë në sisteme IA, të cilat prioritizojnë shpejtësinë dhe shkallën në vendimmarrje dhe veprim?
Merr lajmet e tua nga ekspertë të vërtetë, drejtpërdrejt në kutinë tënde postare. Regjistrohu në buletinin tonë ditor për të marrë të gjitha mbulimet më të fundit të The Conversation UK mbi lajmet dhe kërkimet, nga politika dhe biznesi deri te arte dhe shkenca.
Një rrjet digjital i synuar me inteligjencë artificiale, si ai i propozuar në rishikimin strategjik, lidh informacionin (sensorët) dhe veprimin (armët), duke mundësuar identifikimin dhe eliminimin më të shpejtë të qëllimeve të mundshme. Këto rrjete do të ishin në gjendje të identifikonin dhe sugjeronin qëllime të mundshme shumë më shpejt se sa njerëzit. Në shumë raste, duke lënë ushtarët me vetëm disa minuta, ose madje sekonda, për të vendosur nëse këto qëllime janë të përshtatshme ose legjitime në terma ligjorë ose etikë.
Një shembull tashmë në përdorim është Sistemi i Mençur Maven, i cili u ble së fundmi nga NATO. Ky sistem mund të bëjë të mundur që ekipet e vogla ushtarake të marrin deri në “1,000 vendime taktike në orë”, sipas një raporti nga qendra amerikane për Siguri dhe Teknologji të Rinj.
Studjuesit ligjorë kanë argumentuar se prioriteti i shpejtësisë me AI në konflikt “lë shumë pak hapësirë për gjykimin njerëzor” ose përmbajtje.
Ndryshe nga teknologjitë e tjera të përdorura në luftë, AI është më shumë se një instrument. Ajo është pjesë e një sistemi njohuror të njerëzve dhe makinave, i cili bën kontrollin njerëzor shumë më të komplikuar se sa operimi i një flotë tankesh.
Proponentët e armëve autonome dhe sistemeve të synimit me AI shpesh argumentojnë se kjo teknologji do ta bënte luftën më të saktë, pa emocione dhe më humane. Megjithatë, studiuesi i etikës ushtarake Neil Renic dhe unë kemi treguar se ajo mund të çojë në një erozion të frenimit moral, duke krijuar një ambient lufte ku proceset teknologjike zëvendësojnë arsyetimin moral.
Lexoni më shumë: Vendi i Silicon Valley-së për të besuar në startup-et e mbrojtjes me AI dhe çfarë do të thotë kjo për të ardhmen e luftës – podcast
Trajnimi i të dhënave
Rishikimi strategjik i mbrojtjes vlerëson autonominë si ofrues të “saktësisë më të madhe”, por kjo komplikohen nga kufizimet teknike dhe njerëzore. Në vend që të ofrojnë saktësi më të madhe në qëllim, sistemet e mbështetura nga AI kërcënojnë të minojnë parimin e dallimit dhe paraprakisë.
Sistemet me bazë AI gjithashtu përballen me sfida teknike për diçka kaq komplekse dhe dinamike sa lufta. Sistemet e mbështetura nga AI janë vetëm aq të mira sa të dhënat në të cilat janë trajnuar. Të dhëna të përshtatshme, të plota dhe të azhurnuara është e vështirë të gjenden në konflikt, dhe dinamika mund të ndryshojnë shpejt.
Kjo është veçanërisht e vërtetë në konfliktet urbane. Të kuptuarit e kompleksiteteve të një situate në terren është mjaft i vështirë për personelin ushtarak njerëzor, pa përfshirë AI-n.
Modelet e reja të AI-së, në veçanti, përballen me rreziqe. Modelet e mëdha të gjuhës së AI-së janë të njohura për të “halucinuar” – prodhuar rezultate që janë të gabuara ose të krijuara. Ndërsa këto sisteme janë të integruara në mbrojtje, rreziku i dështimit teknik bëhet më i dukshëm.

Ka gjithashtu një rrezik të konsiderueshëm që kjo teknologji të mundësojë një përshkallëzim të pakontrolluar dhe konflikt në shpejtësi – atë që studiuesit e kanë përshkruar si një “luftë shpejtësie”. Përshkallëzimi nga krizë në luftë, ose përshkallëzimi i një konflikti në një nivel më të lartë të dhunës, mund të ndodhë për shkak të sinjaleve të gabuara të sulmit, ose një gabimi të thjeshtë të sensorit ose kompjuterit.
Mund të konsideroni një sistem AI që paralajmëron komandantët për një tank armiqësor që po afrohet në një zonë kufitare. Me mundësisht vetëm disa minuta përpara, koha për verifikimin e informacionit të ardhur është e kufizuar. Komandantët mund të “prioritizojnë” përgjigjen e shpejtë mbi analizën e plotë”. Nëse tanku rezulton të jetë një autobus shkollor, kjo përgjigje mund të ketë pasoja të mëtejshme hakmarrëse.
Sistemet e papritura gjithashtu mund t'u japin udhëheqësve përshtypje të gabuara për aftësitë e tyre, duke çuar në vetëbesim të tepruar ose duke inkurajuar sulme paraprake. Kjo gjithashtu mund të çojë në një paqëndrueshmëri dhe pasiguri më të madhe globale.
AI përgjegjës
Qeveria e Mbretërisë së Bashkuar ka treguar se është e vetëdijshme për disa nga këto rreziqe. Raporti i saj i vitit 2022 mbi AI përgjegjës në mbrojtje theksoi etikën në përdorimin e AI. Ai specifikoi se vendosja “e aftësive të mbështetura në AI në konflikt të armatosur duhet të përmbushë plotësisht [ligjin ndërkombëtar humanitar]”, duke përfshirë parimet e dallimit, nevojës, njerëzimit dhe proporcionit.
Raporti gjithashtu vëren se përdorimi përgjegjës dhe etik i sistemeve të AI kërkon besueshmëri dhe kuptim njerëzor të sistemit të AI dhe vendimeve të tij.
Rishikimi strategjik i mbrojtjes, nga ana tjetër, vëren se shpejtësia me të cilën zhvillohen teknologjitë po tejkalon kornizat rregullatore. Ai thotë se “kundërshtarët e Mbretërisë së Bashkuar nuk janë të prirur të ndjekin standarde të përbashkëta etike në zhvillimin ose përdorimin e tyre”.
Kjo mund të jetë kështu, por nuk duhet të hapë derën për një zhvillim ose përdorim më pak etik dhe përgjegjës të sistemeve të tilla nga ana e Mbretërisë së Bashkuar. Etika nuk është vetëm për mënyrën se si trajtojmë të tjerët, por edhe për atë kush jemi ne.
Mbretria e Bashkuar ende ka një mundësi për të formësuar normat globale rreth AI ushtarak — para se një brez i sistemeve të pa përgjegjshme të bëhet standard. Por ajo periudhë veprimi po mbyllet shpejt.

Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: theconversation.com