Minimizimi i kërcënimeve të sigurisë së AI: Pse G7 duhet të përqafojë ‘mësimin e federuar’

Abbas Yazdinejad, Postdoctoral Research Fellow, Artificial Intelligence, University of Toronto
5 min lexim
Politikë
Minimizimi i kërcënimeve të sigurisë së AI: Pse G7 duhet të përqafojë ‘mësimin e federuar’

Inteligjenca artificiale (IA) po transformon botën, nga diagnostikimi i sëmundjeve në spitale deri te kapja e mashtrimeve në sistemet bankare. Por gjithashtu po ngrit pyetje të ngutshme.

Ndërsa udhëheqësit e G7 po përgatiten të takohen në Alberta, një çështje qëndron në plan të parë: si mund të ndërtojmë sisteme të fuqishme të IA pa sakrifikuar privatësinë?

Samiti i G7 është një mundësi për të përcaktuar tonin se si vendet demokratike menaxhojnë teknologjitë në zhvillim. Ndërsa rregulloret po avancojnë, ato nuk do të dështojnë pa zgjidhje të forta teknike.

Sipas mendimit tonë, ajo që njihet si mësimi i federuar — ose FL — është një nga mjetet më premtuese por edhe më të harruara, dhe meriton të jetë në qendër të bisedës.


Lexoni më shumë: 6 mënyra se si IA mund të bashkëpunojë me ne në kërkimin krijues, të frymëzuar nga teoricieni i medias Marshall McLuhan


Si studiues në fushën e IA-së, sigurisht që kemi parë dilemat e të dhënave në mënyrë të drejtpërdrejtë. IA lulëzon nga të dhënat, shumë prej tyre janë shumë personale — historitë mjekësore, transaksionet financiare, regjistrimet e infrastrukturës kritike. Sa më shumë të dhënat të jenë të centralizuara, aq më e madhe është rreziku i rrjedhjeve, keqpërdorimit ose sulmeve kibernetike.

Shërbimi Kombëtar i Shëndetësisë i Mbretëria e Bashkuar ndaloi një iniciativë premtuese të AI-së për shkak të frikës për trajtimin e të dhënave. Në Kanada, janë shfaqur shqetësime për ruajtjen e informacionit personal — përfshirë regjistrimet e imigracionit dhe shëndetit — në shërbime cloud të huaja. Besimi në sistemet e AI-së është i brishtë. Pasi të thyhet, inovacioni ndalon plotësisht.

Pse është përgjegjësi në rritje e AI-së qendrore?

Qasja kryesore për trajnimin e AI-së është të sjellë të gjitha të dhënat në një vend qendror. Në letër, kjo është efikase. Në praktikë, ajo krijon makth për sigurinë.

Sistemet qendrore janë tërheqëse për hakerët. Janë të vështira për t’u rregulluar, sidomos kur rrjedhjet e të dhënave ndodhin jashtë kufijve kombëtarë ose sektorialë. Dhe përqendrojnë shumë pushtet në duart e disa mbajtësve të të dhënave ose gjigantëve të teknologjisë.

Por në vend që të sjellë të dhënat tek algoritmi, FL sjell algoritmin tek të dhënat. Çdo institucion lokal — qoftë spital, agjenci qeveritare apo bankë — trajnon një model AI-je me të dhënat e veta. Vetëm përditësimet e modelit — jo të dhënat e papërpunuara — ndahen me një sistem qendror. Është si studentët që bëjnë detyrat në shtëpi dhe dorëzojnë vetëm përgjigjet përfundimtare, jo shënimet e tyre.

Kjo qasje ul ndjeshëm rrezikun e shkeljeve të të dhënave duke ruajtur aftësinë për të mësuar nga trendet në shkallë të gjerë.

Ku po funksionon tashmë?

FL mund të jetë një ndryshues i lojës. Kur kombinohet me teknika si privatësia diferenciale, kalkulimi i sigurt me shumë palë ose enkriptimi homomorfik, mund të zvogëlojë ndjeshëm rrezikun e rrjedhjes së të dhënave.

Në Kanada, studiuesit tashmë kanë përdorur FL për të trajnuar modelet e zbulimit të kancerit nëpër provinca — pa e lëvizur kurrë rekordet sensitive të shëndetit.

Inteligjenca artificiale është përdorur për të trajnuar modelet e zbulimit të kancerit. (Shutterstock)

Projektet si ato që përfshijnë Rrjeti Kanadez i Monitorimit të Parë të Kujdesit Shëndetësor kanë demonstruar se si FL mund të përdoret për të parashikuar sëmundje kronike si diabeti, duke mbajtur të gjitha të dhënat e pacientit të siguruara brenda kufijve provinciale.

Bankat po e përdorin atë për të zbuluar mashtrime pa ndarë identitetet e klientëve.Agjencitë e Sigurisë Kibernetike po eksplorojnë mënyrat për të koordinuar mes juridiksioneve pa ekspozuar regjistrat e tyre.


Lexoni më shumë: AI për kujdesin shëndetësor: Mundësitë dhe rreziqet e diagnozës përmes aplikacionit


Pse G7 duhet të veprojë tani

Qeveritë në mbarë botën po garojnë për të rregulluar Inteligjencën Artificiale. Propozimi i Kanadasë Ligji për Inteligjencën Artificiale dhe të Dhënat, Ligji i BE për AI, dhe Urdhri Ekzekutiv për AI të Sigurt, të Sigurt dhe të Besueshëm në Shtetet e Bashkuara janë të gjitha hapa të mëdhenj përpara. Por pa një mënyrë të sigurt për të bashkëpunuar në probleme të ndërlikuara me të dhëna — si pandemi, ndryshimet klimatike ose kërcënimet kibernetike — këto përpjekje mund të mos jenë të mjaftueshme.

FL lejon juridiksione të ndryshme të punojnë së bashku në sfida të përbashkëta pa kompromentuar kontrollin lokal ose sovranitetin. Ai kthen politikën në praktikë duke mundësuar bashkëpunim teknik pa komplikacione të zakonshme ligjore dhe të privatësisë.

Dhe po aq rëndësi, adoptimi i FL dërgon një sinjal politik: që demokracitë mund të udhëheqin jo vetëm në inovacion, por edhe në etikë dhe qeverisje.

Organizimi i samitit G7 në Albertë nuk është vetëm simbolik. Rajoni është shtëpia e një ekosistemi të lulëzuar të AI, institucioneve si Instituti i Inteligjencës së Makinerisë së Albertës dhe industrive — nga bujqësia tek energjia — që gjenerojnë sasi të mëdha të dhënash të vlefshme.

Imagjinoni një grup pune ndër-sektorial: fermerë duke përdorur të dhëna lokale për të monitoruar shëndetin e tokës, kompanitë e energjisë duke analizuar modelet e emetimeve, agjencitë publike duke modeluar rrezikun e zjarrit — të gjithë duke punuar së bashku, duke mbrojtur të dhënat e tyre. Kjo nuk është një fantazi e së ardhmes — është një program pilot që pret të ndodhë.

Një themel për besim?

AI është vetëm aq i besueshëm sa sistemet që qëndrojnë pas tij. Dhe shumë nga sistemet e sotme janë bazuar në ide të vjetruara për qendralizimin dhe kontrollin.

FL ofron një themel të ri — një ku privatësia, transparenca dhe inovacioni mund të lëvizin së bashku. Nuk kemi nevojë të presim një krizë për të vepruar. Veglat tashmë ekzistojnë. Ajo që mungon është vullneti politik për t’i ngritur ato nga prototipa premtuese në praktikë standarde.

Nëse G7 është serioz për të ndërtuar një të ardhme më të sigurt, më të drejtë për AI, duhet ta bëjë FL një pjesë qendrore të planit të saj — jo një shënim në fund.

The Conversation

Informacion mbi burimin dhe përkthimin

Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.

Burimi origjinal: theconversation.com

Ndajeni këtë artikull