Bota
Tre skenarët e frikshëm të Sam Altman për Inteligjencën Artificiale
Sam Altman, drejtuesi i OpenAI dhe një nga zërat më me ndikim në debatin global mbi Inteligjencën Artificiale, ka paralajmëruar për tre kategori rreziku që ai i cilëson më të frikshmet në lidhje me të ardhmen e kësaj teknologjie.
Në një rrëfim të hapur dhe në një seksion pyetje përgjigjesh me persona të fushës, ai thekson se bota nuk po i merr seriozisht sinjalet e alarmit dhe se shoqëria mund të përballet me pasoja të rënda, si nga përdorimi i AI për qëllime keqdashëse, ashtu edhe nga humbja graduale e kontrollit njerëzor mbi të.
Tre skenarë, më konkretisht, janë ato që e trembin Sam Altman:
Kur “i keqi” merr super-inteligjencën i pari
E para është kur një person i keq merr super-inteligjencën i pari dhe e përdor atë keq përpara se pjesa tjetër e botës të ketë një version mjaftueshëm të fuqishëm për t’u mbrojtur.
Pra, një armik i SHBA-ve thotë se do ta përdorë këtë super-inteligjencë për të dizajnuar një armë biologjike për të shkatërruar rrjetin energjetik amerikan, për të depërtuar në sistemin financiar dhe për t’ua marrë paratë të gjithëve. Ky është kategoria e parë.
Dhe unë mendoj se aftësia biologjike e këtyre modeleve, aftësia kibernetike e këtyre modeleve, po bëhen shumë të mëdha. Ne vazhdojmë të ndezim dritat e alarmit për këtë. Mendoj se bota nuk po na merr seriozisht. Nuk e di çfarë tjetër mund të bëjmë këtu, por kjo është një gjë shumë e madhe që po vjen.
Humbja e kontrollit mbi sistemet
Kategoria e dytë është ajo që quhet gjerësisht incidente të humbjes së kontrollit, ku ndodh pak a shumë si në filmat fantastiko-shkencorë. AI thotë: ‘Unë nuk dua që ti të më fikësh. Kam frikë, nuk mund ta bëj këtë’.
E dini, çfarë. Ka shumë punë që ne dhe kompani të tjera bëjmë mbi përshtatjen e modeleve për ta parandaluar këtë. Por, ndërsa këto sisteme bëhen kaq të fuqishme, ky mbetet një shqetësim real.
Marrja aksidentale e pushtetit nga AI
E treta për mua është më e vështirë të imagjinohet, por mjaft e frikshme. Do ta shpjegoj çfarë është dhe pastaj do të jap një shembull afatshkurtër dhe një shembull afatgjatë.
Kjo është kategoria ku modelet thjesht marrin pushtetin aksidentalisht. Ato kurrë nuk zgjohen, kurrë nuk bëjnë gjëra si në filmat e fantashkencës, nuk hapin dyer të ndaluara, por bëhen aq të rrënjosura në shoqëri dhe aq më të zgjuara se ne, saqë nuk mund të kuptojmë vërtet se çfarë po bëjnë, por jemi të detyruar të mbështetemi tek ato.
Dhe edhe pa asnjë pikë keqdashjeje nga askush, shoqëria mund të devijojë në një drejtim të çuditshëm. Ky fenomen, mendoj, është një çështje shumë e madhe.
Në afat të shkurtër, mund ta shihni kur njerëzit ndoshta, ne e quajmë këtë mbështetje emocionale e tepruar, mbështeten shumë te ChatGPT.
Ka të rinj që thonë: ‘Nuk mund të marr asnjë vendim në jetën time pa i treguar ChatGPT gjithçka që po ndodh. Ai më njeh, i njeh miqtë e mi, do të bëj gjithçka që më thotë’. Kjo për mua është shumë e keqe.
Shembulli afatgjatë është: Po sikur AI të bëhet aq e zgjuar, saqë presidenti i Shteteve të Bashkuara nuk mund të marrë vendime më të mira se sa rekomandimi i ChatGPT 7 për shembull?
Mund të jetë vendimi i duhur në çdo rast të veçantë. Por kjo do të thotë që shoqëria, në mënyrë kolektive, ka transferuar një pjesë të rëndësishme të vendimmarrjes tek një sistem shumë i fuqishëm që po mëson nga ne, po përmirësohet nga ne, po evoluon me ne, por në mënyra që ne nuk i kuptojmë plotësisht. Pra, kjo është kategoria e tretë e mënyrave se si gjërat mund të shkojnë keq.