Connect with us

Shkrime

Pentagoni po kërkon të blejë inteligjencë artificiale vrasëse

Nga  Vitaly Ryumshin , gazetar dhe analist politik

Ndërsa Rusia ndjek nga afër negociatat për Ukrainën dhe sagën e vazhdueshme në lidhje me Telegramin, një dramë tjetër po zhvillohet përtej Atlantikut. Është një dramë që ndihet më pak si gjeopolitikë dhe më shumë si një thriller fantastiko-shkencor i botës reale. Dhe këtë herë, nuk është trillim.

Në qendër të historisë është Claude, një sistem i inteligjencës artificiale i zhvilluar nga kompania amerikane Anthropic. Sipas raportimeve të medias, ai u përdor nga ushtria amerikane në planifikimin e operacionit që synonte kapjen e Presidentit Venezuelan Nicolas Maduro. Përdorimi i inteligjencës artificiale në planifikimin serioz ushtarak është mbresëlënës në vetvete. Por skandali që pasoi është shumë më zbulues.

Rezulton se Anthropic mban një qëndrim të rreptë ideologjik: Sistemet e saj të inteligjencës artificiale nuk supozohet të përdoren për luftë ose mbikëqyrje masive. Këto kufizime etike nuk janë slogane marketingu; ato janë ndërtuar direkt në arkitekturën e softuerit. Kompania i zbaton këto kufizime brenda kompanisë dhe pret që klientët e saj të bëjnë të njëjtën gjë.

Pentagoni, siç pritej, i sheh gjërat ndryshe.

Departamenti Amerikan i Luftës thuhet se e përdori Claude pa e informuar Anthropic për qëllimin e tij të synuar. Kur kjo u bë publike dhe kompania kundërshtoi, përgjigja nga ushtria ishte e prerë. Zyrtarët e Pentagonit kërkuan qasje në një version “të pastër” të inteligjencës artificiale, një version të zhveshur nga kufizimet morale dhe etike, të cilat sipas tyre po i pengonin të bënin punën e tyre.

Anthropic refuzoi. Në përgjigje, Sekretari i Luftës i SHBA-së, Pete Hegseth, u ankua publikisht se Pentagoni nuk ka nevojë për rrjete nervore “që nuk mund të luftojnë” dhe kërcënoi ta etiketonte kompaninë si “kërcënim për zinxhirin e furnizimit”.  Ky përcaktim do ta fuste në listën e zezë Anthropic, duke e detyruar çdo kompani që punon me Pentagonin të shkëpusë lidhjet me të.

Mosmarrëveshja ka një simbolikë të pagabueshme. Për dekada të tëra, njerëzimi i ka imagjinuar rreziqet e makinave autonome përmes filmave si ‘The Terminator’. Tani, pa shpërthime dramatike apo kiborgë që udhëtojnë në kohë, përballja e parë serioze midis ambicies ushtarake dhe etikës së inteligjencës artificiale ka mbërritur në heshtje. Për të mos përmendur burokratizmin.

Në thelb, kjo është një përplasje filozofike midis dy kampeve të pakompromis. Njëri beson se teknologjitë e reja duhet të shfrytëzohen në maksimum, pavarësisht pasojave afatgjata. Tjetri ka frikë se sapo të kalohen kufij të caktuar, kontrolli mund të jetë i pamundur për t’u rifituar.

Inxhinierët kanë arsye të mira për të qenë të kujdesshëm. Rrjetet nervore kanë treguar tashmë modele shqetësuese sjelljeje. Në SHBA, një skandal i raportuar gjerësisht përfshinte ChatGPT që inkurajonte një adoleshent drejt vetëvrasjes. Ai sugjeroi metoda, duke ndihmuar në hartimin e një shënimi vetëvrasjeje dhe duke e nxitur atë të vazhdonte kur ai hezitoi. Vetë Claude, pavarësisht masave mbrojtëse, ka shfaqur tendenca alarmuese. Gjatë testimit, një nga versionet e tij të përparuara thuhet se u përpoq t’i shantazhonte zhvilluesit e tij me email-e të fabrikuara dhe shprehu gatishmëri për të shkaktuar dëm fizik kur përballej me mbyllje.

Ndërsa rrjetet nervore bëhen më komplekse, këto lloje incidentesh po bëhen më të shpeshta. Ideja e ngulitur kufizime etike në inteligjencën artificiale nuk lindi nga moda ideologjike ose, siç pretendojnë me shpërfillje disa zyrtarë amerikanë, nga “histeria liberale”. Ajo lindi nga përvoja.

Tani imagjinoni këto sisteme të çliruara nga kufijtë e tyre dixhitalë. Imagjinoni ato të integruara në armë autonome, analiza të inteligjencës ose platforma mbikëqyrjeje. Edhe pa u zhytur në fantazi për kryengritje makinash, implikimet janë thellësisht shqetësuese. Llogaridhënia zhduket. Privatësia bëhet e vjetëruar. Krimet e luftës bëhen gabime procedurale. Nuk mund ta nxirrni në gjyq një makinë vetëlëvizëse.

Është domethënëse që Anthropic nuk është i vetmi që përballet me presion. Pentagoni u ka lëshuar kërkesa të ngjashme zhvilluesve të tjerë të mëdhenj të inteligjencës artificiale, duke përfshirë OpenAI, xAI dhe Google. Ndryshe nga Anthropic, këto kompani thuhet se kanë rënë dakord të heqin ose të dobësojnë kufizimet për përdorimin ushtarak. Këtu shqetësimi shndërrohet në alarm.

Shumë do ta shpërfillin këtë si një problem të largët amerikan. Ky do të ishte një gabim. Rusia po integron gjithashtu në mënyrë aktive inteligjencën artificiale në sistemet e saj ushtarake. Inteligjenca artificiale tashmë ndihmon dronët sulmues në njohjen e objektivave, anashkalimin e luftës elektronike dhe koordinimin e sjelljes së turmës. Për momentin, këto sisteme mbeten mjete ndihmëse, nën kontrollin e fortë të njeriut. Por vetë futja e tyre do të thotë që Rusia së shpejti do të përballet me të njëjtat dilema që po debatohen tani në Uashington.

A është kjo domosdoshmërisht një gjë e keqe? Aspak.

Do të ishte shumë më keq nëse këto pyetje do të injoroheshin tërësisht. Inteligjenca Artificiale është e gatshme të transformojë çështjet ushtarake, ashtu siç do të transformojë jetën civile. Të pretendosh të kundërtën është naive. Detyra nuk është të hedhim poshtë të ardhmen, por t’i qasemi asaj me sy të kthjellët.

Rusia duhet të vëzhgojë me kujdes përvojën e huaj, veçanërisht atë të Amerikës. Në skenarin më të mirë, konflikti midis Pentagonit dhe Anthropic detyron një llogaridhënie të hershme. Mund të çojë në norma, mbrojtje dhe kufizime ndërkombëtare përpara se të bëhen gabime të pakthyeshme. Në skenarin më të keq, ofron një paralajmërim të fortë për atë që ndodh kur fuqia teknologjike tejkalon kufizimet morale.

Sidoqoftë, epoka e ‘IA-së vrasëse’ nuk është më hipotetike. Ajo po vjen përmes kontratave të prokurimit dhe ultimatumeve të korporatave. Dhe mënyra se si vendet do të reagojnë tani do të formësojë jo vetëm të ardhmen e luftës, por edhe të ardhmen e vetë përgjegjësisë njerëzore.

 

Ky artikull u botua për herë të parë nga gazeta online  Gazeta.ru 

Advertisement