Mix
Pse Inteligjenca Artificiale mund të jetë e rrezikshme për të ardhmen e njerëzimit?
PAOLO MAURIFoto ilustruese
Nik Bostrom është një profesor suedez i filozofisë. Ai drejton Institutin e Ardhmërisë së Njerëzimit në Universitetin Britanik të Oksfordit. Fusha e studimit të Bostrom është ajo e transhumanizmit, dhe përfshin fusha të tilla si klonimi, Inteligjenca Artificiale (AI), superinteligjenca, mundësia e transferimit të vetëdijes në mbështetje teknologjike, nanoteknologjitë dhe tezat mbi realitetin e simuluar.
Sa i përket AI dhe zhvillimeve të saj të ardhshme, profesori është pesimist, dhe thotë se ato përbëjnë një rrezik për të gjithë njerëzimi. Ky rrezik mund të shfaqet në një periudhë shumë të gjatë kohore, por sipas tij mund të shfaqet edhe shumë më shpejt. Për të kuptuar se cilat janë realisht rreziqet, por mbi të gjitha se si funksionon AI në funksion të ardhjes së mundshme të superinteligjencës, ne e intervistuam atë.
Profesor, ju jeni shumë kritik ndaj zhvillimit të AI, me një perspektivë afatgjatë shumë pesimiste në lidhje me rreziqet që mund të ketë për të gjithë njerëzimin. Ndaj unë ju pyes: A është e mundur t’i mësohet një makinerie etikë, ndjeshmëri dhe dhembshuri, ekskluzivisht vlera njerëzore? Si bëhet kjo?
Unë kam një qasje sa dashamirëse aq edhe dyshuese për Inteligjencën Artificiale. Unë jam shumë optimist në lidhje me përparimin e mundshëm, nëse i rregullojmë gjërat si duhet. Por nga ana tjetër mendoj se ka rreziqe serioze që lidhen me zhvillimin e superinteligjencës së makinerive. Nuk dihet ende saktësisht se çfarë na duhet për të nxitur sistemet e avancuara të Inteligjencës Artificiale, dhe kjo është një fushë e vazhdueshme kërkimi. Shumë nga njerëzit më të zgjuar që njoh tani punojnë pikërisht në këtë fushë.
Nëse Inteligjencës Artificiale mund t’i mësohen vlerat njerëzore, duke ditur se njeriu nuk karakterizohet vetëm nga vlera pozitive, por është edhe i lig, i poshtër dhe i dhunshëm, a nuk do të jetë e rrezikshme që makina në mënyrë të pavarur, dhe duke na njohur mirë, do të kopjonte edhe këto, dhe do të sillej në mënyrë agresive ndaj nesh?
Po, madje ajo mund të bëhet agresive për ne edhe pa ato vlera negative. A mund të zbatohen ligjet e robotikës të Isak Asimov për AI?
Qasja e Isak Asimov ishte shumë e thjeshtëzuar.
A besoni se kontrolli i aftësive të një Inteligjence Artificiale, mund të jetë vetëm një masë e përkohshme. A nuk do të mjaftonte të futej një lloj tjetër algoritmi që frenon automatikisht çdo sjellje agresive? A është e mundur të përcaktohet një algoritëm i tillë?
A nuk është sjellje agresive kur shtypim një koloni milingonash për të ndërtuar një parking?
Duke ditur që Inteligjenca Artificiale, funksionon në bazë të grupit të të dhënave që ne i japim, a nuk do të mjaftonte të zgjidhnim me mençuri grupin e të dhënave për të shmangur surprizat e këqija?
AI-të mund të përgjithësohen përtej të dhënave mbi të cilat operojnë. Ato mund të ndërtojnë modele të botës dhe t’i përdorin ato për të kuptuar situata të reja dhe për të bërë plane.
Makineritë e Inteligjencës Artificiale, janë më të shpejta sesa njerëzit në mësimin e koncepteve dhe arsyetimin, por nuk janë ende të afta të kryejnë veprime automatike njerëzore, pra ato që bazohen tek instinkti. A do të mbushet ndonjëherë ky boshllëk?
Unë mendoj se AI janë aktualisht më të ngadalta sesa njerëzit në të mësuarit e koncepteve. Për shembull, ChatGPT-4 është i trajnuar mbi thuajse të gjithë internetin. Por njerëzit arrijnë një kuptim të ngjashëm konceptual bazuar te shumë më pak të dhëna.