Kjo nuk është hera e parë që njerëzimi ka hedhur poshtë mundësinë e zhdukjes për shkak të krijimeve të tij teknologjike.
Por kërcënimi i AI është shumë i ndryshëm nga armët bërthamore me të cilat kemi mësuar të jetojmë.
“Nukes” (lloj arme bërthamore) nuk mund të mendojnë. Ata nuk mund të gënjejnë, mashtrojnë apo manipulojnë. Ata nuk mund të planifikojnë dhe ekzekutojnë. Dikush duhet të shtypë butonin e madh të kuq.
Shfaqja tronditëse e AI për qëllime të përgjithshme, edhe në nivelin e ngadaltë të GPT-4, ka detyruar rrezikun e vërtetë të shfarosjes të kthehet në fokus të diskutimeve.
Le të jemi të qartë që në fillim: nëse biem dakord se superinteligjenca artificiale ka një shans për të zhdukur të gjithë jetën në Tokë, nuk duket se mund të bëjmë shumë për këtë gjithsesi.
Ne nuk dimë të ndalojmë diçka më të zgjuar se ne. As si specie nuk mund ta ndalojmë veten nga gara për ta krijuar atë. Kush do të bëjë ligjet? Kongresi amerikan? Kombet e Bashkuara?
Kjo është një çështje globale. Letrat e hapura të dëshpëruara nga drejtuesit e industrisë që kërkojnë një pauzë gjashtëmujore për të kuptuar se ku jemi mund të jenë më e mira që mund të bëjmë.
Stimujt kundër të cilëve do të punonit janë të mëdhenj. Së pari, është një garë armësh; nëse Amerika nuk e ndërton atë, Kina do ta ndërtojë dhe kushdo që arrin i pari atje mund të sundojë botën.
Studiuesi dhe filozofi i AI, Eliezer Yudkowsky tha se “AI do të na vrasë të gjithëve”.
Dhe njerëzit që udhëheqin garën drejt superinteligjencës nuk mendojnë më se ai është një maniak.
“Unë mendoj se ka disa mundësi për këtë,” tha CEO i OpenAI Sam Altman, për Fridman.
“Dhe është vërtet e rëndësishme ta pranosh atë. Sepse nëse nuk flasim për të, nëse nuk e trajtojmë si potencialisht reale, nuk do të bëjmë përpjekje të mjaftueshme për ta zgjidhur atë.”/Albeu.com/