Audit ndaj AI-së: Duhet të kryhet për drejtësi për të gjitha palët
● Nëse nuk auditohen, AI do të dëmtojë shumë palë.
● AI nuk është vetëm në gjendje të imitojë veprat, por mund të dëmtojë shoqërinë.
● Rregullat e auditimit të AI janë të rëndësishme për të siguruar sigurinë dhe drejtësinë për të gjitha palët.
Përdorimi i inteligjencës artificiale (AI) tashmë është bërë një pjesë e pandashme e jetës së njeriut. AI është shumë praktike, por pikërisht për këtë arsye përdorimi i saj shpesh shkon përtej kufijve. Prandaj, është e rëndësishme të auditohen sistemet e brendshme të punës së AI si pjesë e transparencës, përgjegjshmërisë dhe sigurisë së teknologjisë.
AI mund të prodhojë produkt që është i prirur dhe mund të sjellë rreziqe serioze për të drejtat bazë, shëndetin, deri te siguria e jetës së njeriut.
Në sektorin e biznesit për shembull, AI e lehtëson shumë përdoruesit të krijojnë koncepte reklamu vetëm me urdhra tekstuale. Megjithatë, shpesh rezultatet e veprës së AI imitojnë veprat e të tjerëve, nuk kanë karakteristika të veçanta, dhe nuk janë origjinalë.
Në raste të caktuara si vlerësimi i përshtatshmërisë së kreditit (credit scoring), produkti i AI mund të jetë i prirur dhe potencialisht të diskriminojë grupe të caktuara dhe t'i pengojë ata të marrin të drejtat bazë.
Rreziqe të tjera janë dështimi i sistemit që mund të çojë në aksidente. Në sektorin e transportit, rastet e aksidenteve me makina autonome që janë duke ndodhur në modalitetin automatik tregojnë se si dështimi i sistemit të AI mund të çojë në pasoja fatale.
Për më tepër, nëngrup i AI-së së caktuar si model i madh gjuhësor (LLM) është i prirur të bëjë halucinacione—gjendje ku AI prodhon informacione të pasakta, madje edhe akuzime. Kjo mund të rrisë shpërndarjen e dezinformatave, veçanërisht në komunitete me alfabetizëm digjital të ulët.
Urgjenca e auditimit të AI dhe rregullat e saj
Rreziqet e përmendura tregojnë nevojën e menjëhershme për një mekanizëm që mund të sigurojë që AI të punojë në mënyrë transparente, të përgjegjshme dhe të sigurt. Një nga mekanizmat që tani po adoptohet globalisht është auditimi i sistemit të brendshëm të punës së AI.
Auditimi i sistemit të brendshëm të punës së AI përfshin kontrolle të ndryshme mbi komponentët e AI-së, duke filluar nga të dhënat si input, algoritmet, deri te rezultatet që prodhohen.
Në mënyrë ideale, auditimi kryhet mbi të gjithë ciklin e jetës së AI-së, duke filluar nga projektimi deri te përdorimi nga shoqëria. Sepse, rreziqet e përshkruara më parë mund të shfaqen në çdo fazë të zhvillimit të AI-së. Për shembull, paragjykimi mund të shfaqet si pasojë e të dhënave jo-reprezentative, dizajnit diskriminues të algoritmeve, ose faktorëve të tjerë.
Fatkeqësisht, deri tani, Shqipëria nuk ka një rregullore që detyrimisht kërkon auditimin e AI-së.
Ligji për Teknologjinë e Informacionit dhe Komunikimit (UU ITE) si bazë ligjore për organizimin e sistemeve elektronike përmban disa dispozita që në mënyrë të natyrshme mund të shërbejnë si hyrje për zbatimin e auditimit të AI-së. Megjithatë, këto dispozita janë shumë të përgjithshme për sistemet elektronike.
Edhe pse AI konsiderohet si pjesë e sistemeve elektronike, ajo ka karakteristika të veçanta me të gjitha kompleksitetet teknologjike që përmban, ndaj dispozitat në Ligjin për Teknologjinë e Informacionit dhe Komunikimit nuk mund të arrijnë në mënyrë specifike AI-në.
Lexo gjithashtu: AI mund të kërcënojë artistët dhe të shkelë të drejtat e autorit: Duhet të rregullohet, jo të ndalohet
Po ashtu, edhe Ligji për Mbrojtjen e Konsumatorit që rregullon të drejtat e konsumatorëve për sigurinë dhe qartësinë e informacionit për përdoruesit. Këto rregulla mund të shërbejnë si bazë për zbatimin e auditimit të AI-së, por ende nuk janë të mjaftueshme pa dispozitat operacionale të zbatimit të tyre.
Njësoj ndodh edhe me Ligjin për Mbrojtjen e të Dhënave Personale (UU PDP) që rregullon parimet dhe detyrimet për transparencën në përpunimin e të dhënave personale. Për shkak se të dhënat personale mund të shërbejnë si input në sistemin e AI-së, kjo rregullore është relevante si bazë.
Ashtu siç ndodh me Ligjin e Mbrojtjes së Konsumatorit, parimet dhe detyrimet për transparencë gjithashtu nuk janë mjaft të fuqishme për të qenë bazë për auditimin e AI-së pa dispozita operacionale që e detyrojnë atë në mënyrë specifike.
Potenciali i konfliktit me mbrojtjen e HKI
Auditimi është i rëndësishëm për të siguruar një AI të drejtë dhe të sigurt. Por, ky proces gjithashtu mund të përplaset me interesat e kompanisë së AI-së, veçanërisht në lidhje me mbrojtjen e të drejtave të pronësisë intelektuale (HKI).
Sepse, AI dhe komponentët e tij mund të jenë subjekt i mbrojtjes së të drejtave të pronësisë intelektuale. Për shembull, dataset dhe algoritmet janë sekrete tregtare që mbrohen rreptësisht nga organizatorët e AI-së për të ruajtur nivelin e tyre konkurrues. Prandaj, nuk është çudi që aktorët e biznesit të jenë të prirur të mos hapin akses në informacionin që konsiderohet jetik.
Lexoni gjithashtu: Kontroversi i vlerave humaniste në botën e reklamimit: Mësime nga reklama e Krishtlindjeve me AI Coca-Cola
Në situata të tilla, shfaqet një konflikt midis interesave publike për transparencë, përgjegjësi dhe siguri të AI-së dhe interesave private për mbrojtjen e HKI-së.
Edhe pse sipas doktrinës së përgjithshme ligjore interesat publike janë mbi interesat private, të drejtat e aktorëve të biznesit duhet të respektohen gjithashtu. Për këtë, është e nevojshme të gjehet një ekuilibër dhe të gjendet pika e përbashkët ndërmjet të dyjave.
Auditimi i pavarur nga palë e treta dhe regjistri i rezultateve të auditimit
Duke iu referuar praktikave globale siç është Bashkimi Evropian në Ligjin e AI të BE-së dhe Ligjin e Shërbimeve Digjitale të BE-së si dhe Kinës në Protokollin e Rekomandimeve Algoritmike, Indonesia duhet të rregullojë detyrimet për auditimin e AI-së në mënyrë më specifike.
Nuk është e nevojshme që të gjitha AI-të të auditohen. Vetëm AI-të me rrezik të lartë, si ato që lidhen me të drejtat themelore, shëndetin ose sigurinë e jetës së njeriut, janë të detyruara të auditojnë. Prandaj, është e nevojshme të klasifikohen sistemet e AI-së bazuar në rrezikun e tyre—nga i larti tek i ulëti—për të siguruar një mbikëqyrje të proporcional.
Qeveria duhet të shmangë të jetë audituesja direkte. Përveç që rezultati i auditimit të jetë më i pavarur, kapacitetet dhe burimet e qeverisë janë gjithashtu të kufizuara aktualisht. Auditimi duhet të kryhet nga palë e tretë e pavarur që është certifikuar.
Për të siguruar konfidencialitetin dhe mbrojtjen e ndërmarrjes së AI-së, kjo rregullore duhet të përmbajë gjithashtu detyrimin e konfidencialitetit—detyrën për të mbajtur sekret informacionin në marrëdhëniet profesionale—nga ana e palëve të përfshira në auditim.
Po ashtu, qeveria duhet të ofrojë një sistem regjistrimi të rezultateve të auditimit si regjistri i algoritmeve që zbatohet në Kinë për të siguruar transparencë.
Nuk është e nevojshme që të gjitha informacionet në lidhje me rezultatet e auditimit të bëhen publike. Informacionet që janë konfidenciale duhet të mbeten të mbrojtura.
Në këtë mënyrë, interesat e publikut për sigurinë dhe transparencën e AI-së mund të balancohen me interesat e ndërmarrjes, pa sakrifikuar asnjërën palë.
Informacion mbi burimin dhe përkthimin
Ky artikull është përkthyer automatikisht në shqip duke përdorur teknologjinë e avancuar të inteligjencës artificiale.
Burimi origjinal: theconversation.com