“A duhet të automatizojmë të gjitha punët, përfshirë ato që përmbushin? A duhet të zhvillojmë mendje jo-njerëzore që përfundimisht mund të jenë më të mëdha, të zgjuara…dhe të na zëvendësojnë? A duhet të rrezikojmë humbjen e kontrollit të qytetërimit tonë?” Këto pyetje u bënë muajin e kaluar në një letër të hapur nga Instituti Future of Life, një OJQ. Ai bëri thirrje për një “pauzë” gjashtëmujore në krijimin e formave më të avancuara të inteligjencës artificiale (ai) dhe u nënshkrua nga kore të teknologjisë, përfshirë Elon Musk. Është shembulli më i spikatur ende se si përparimi i shpejtë në ai ka shkaktuar ankth rreth rreziqeve të mundshme të teknologjisë.
Në veçanti, “modelet e reja të gjuhëve të mëdha” (llms) – lloji që fuqizon Chatgpt, një chatbot i krijuar nga Openai, një startup – kanë befasuar edhe krijuesit e tyre me talentet e tyre të papritura teksa ato janë rritur. Aftësi të tilla “emergjente” përfshijnë gjithçka, nga zgjidhja e enigmave logjike dhe shkrimi i kodit kompjuterik e deri te identifikimi i filmave nga përmbledhjet e komplotit të shkruara në emoji.
Këto modele do të transformojnë marrëdhëniet e njerëzve me kompjuterët, njohuritë dhe madje edhe me veten e tyre. Përkrahësit e ai argumentojnë për potencialin e tij për të zgjidhur probleme të mëdha duke zhvilluar ilaçe të reja, duke projektuar materiale të reja për të ndihmuar në luftimin e ndryshimeve klimatike ose duke zgjidhur kompleksitetin e fuqisë së shkrirjes. Për të tjerët, fakti që aftësitë e ais tashmë po i tejkalojnë të kuptuarit e krijuesve të tyre, rrezikon të sjellë në jetë skenarin e fatkeqësisë fantastiko-shkencore të makinës që tejkalon shpikësin e saj, shpesh me pasoja fatale.
Kjo përzierje e frytshme e eksitimit dhe frikës e bën të vështirë peshimin e mundësive dhe rreziqeve. Por mësimet mund të mësohen nga industri të tjera dhe nga ndryshimet e kaluara teknologjike. Pra, çfarë ka ndryshuar për ta bërë ai aq më të aftë? Sa duhet të keni frikë? Dhe çfarë duhet të bëjnë qeveritë?
Në një seksion të veçantë të Shkencës, ne eksplorojmë funksionimin e llms dhe drejtimin e tyre në të ardhmen. Vala e parë e sistemeve moderne të AI, e cila u shfaq një dekadë më parë, u mbështet në të dhënat e trajnimit të etiketuara me kujdes. Pasi të ekspozohen ndaj një numri të mjaftueshëm shembujsh të etiketuar, ata mund të mësojnë të bëjnë gjëra të tilla si njohja e imazheve ose transkriptimi i të folurit. Sistemet e sotme nuk kërkojnë etiketim paraprak, dhe si rezultat mund të trajnohen duke përdorur grupe të dhënash shumë më të mëdha të marra nga burime në internet. llms, në fakt, mund të trajnohen në të gjithë internetin – gjë që shpjegon aftësitë e tyre, të mira dhe të këqija.
Këto aftësi u bënë të dukshme për një publik më të gjerë kur Chatgpt u publikua në nëntor. Një milion njerëz e kishin përdorur atë brenda një jave; 100 m brenda dy muajsh. Së shpejti ajo u përdor për të gjeneruar ese shkollore dhe fjalime dasmash. Popullariteti i Chatgpt dhe lëvizja e Microsoft për ta inkorporuar atë në Bing, motorin e tij të kërkimit, i shtynë firmat rivale të lëshojnë gjithashtu chatbot.
Disa nga këto sollën rezultate të çuditshme. Bing Chat i sugjeroi një gazetari që të linte gruan e tij. Chatgpt është akuzuar për shpifje nga një profesor i drejtësisë. llms prodhojnë përgjigje që kanë patinën e së vërtetës, por shpesh përmbajnë gabime faktike ose trillime të drejtpërdrejta. Megjithatë, Microsoft, Google dhe firma të tjera të teknologjisë kanë filluar të përfshijnë llms në produktet e tyre, për të ndihmuar përdoruesit të krijojnë dokumente dhe të kryejnë detyra të tjera.
Përshpejtimi i kohëve të fundit në fuqinë dhe dukshmërinë e sistemeve AI, dhe ndërgjegjësimi në rritje për aftësitë dhe defektet e tyre, kanë ngritur frikën se teknologjia tani po përparon aq shpejt sa nuk mund të kontrollohet në mënyrë të sigurt. Prandaj thirrja për një pauzë dhe shqetësimi në rritje se ai mund të kërcënojë jo vetëm vendet e punës, saktësinë faktike dhe reputacionin, por edhe vetë ekzistencën e njerëzimit.
Zhdukja? Rebelim?
Frika se makinat do të vjedhin punë është shumë shekullore. Por deri tani teknologjia e re ka krijuar vende të reja pune për të zëvendësuar ato që ka shkatërruar. Makineritë priren të jenë në gjendje të kryejnë disa detyra, jo të tjera, duke rritur kërkesën për njerëz që mund të bëjnë punët që makineritë nuk munden. A mund të jetë ndryshe kjo herë? Një zhvendosje e papritur në tregjet e punës nuk mund të përjashtohet, edhe nëse deri më tani nuk ka asnjë shenjë të tillë. Teknologjia e mëparshme ka tentuar të zëvendësojë detyrat e pakualifikuara, por llms mund të kryejë disa detyra me jakë të bardhë, të tilla si përmbledhja e dokumenteve dhe shkrimi i kodit.
Shkalla e rrezikut ekzistencial të paraqitur nga ai është debatuar shumë. Ekspertët janë të ndarë. Në një sondazh të studiuesve të AI, të kryer në vitin 2022, 48% mendonin se kishte të paktën 10% mundësi që ndikimi i ai të ishte “jashtëzakonisht i keq (p.sh., zhdukja njerëzore)“. Por 25% thanë se rreziku ishte 0%; studiuesi mesatar e vendos rrezikun në 5%. Makthi është se një AI i avancuar shkakton dëm në një shkallë masive, duke prodhuar helme ose viruse, ose duke i bindur njerëzit të kryejnë akte terroriste. Nuk duhet të ketë qëllim të keq: studiuesit shqetësohen se qëllimi i ardhshëm mund të ketë qëllime që nuk përputhen me ato të krijuesve të tyre njerëzorë.
Skenarë të tillë nuk duhen hedhur poshtë. Por të gjitha përfshijnë një sasi të madhe supozimesh dhe një hap nga teknologjia e sotme. Dhe shumë mendojnë se ai i ardhshëm do të ketë akses të papenguar në energji, para dhe fuqi kompjuterike, të cilat janë kufizime reale sot dhe mund t’i mohohen një AI mashtrues në të ardhmen. Për më tepër, ekspertët priren të mbivlerësojnë rreziqet në zonën e tyre, krahasuar me parashikuesit e tjerë. (Dhe zoti Musk, i cili po lançon startup-in e tij të AI, ka interes për rivalët e tij që të rrëzojnë mjetet.) Imponimi i rregullave të rënda, ose në të vërtetë një pauzë, sot duket një reagim i tepruar. Një pauzë do të ishte gjithashtu e pazbatueshme.
Rregullimi është i nevojshëm, por për arsye më të zakonshme sesa shpëtimi i njerëzimit. Sistemet ekzistuese të AI ngrenë shqetësime reale për paragjykimet, privatësinë dhe të drejtat e pronësisë intelektuale. Ndërsa teknologjia përparon, probleme të tjera mund të bëhen të dukshme. Çelësi është të balanconi premtimin e ai me një vlerësim të rreziqeve dhe të jeni gati për t’u përshtatur.
Deri më tani, qeveritë po marrin tre qasje të ndryshme. Në njërin skaj të spektrit është Britania, e cila ka propozuar një qasje “të lehtësuar” pa rregulla apo organe të reja rregullatore, por zbaton rregulloret ekzistuese për sistemet e AI. Qëllimi është të nxisë investimet dhe ta kthejë Britaninë në një “superfuqi të AI”. Amerika ka marrë një qasje të ngjashme, megjithëse administrata Biden tani po kërkon pikëpamjet e publikut se si mund të duket një libër rregullash.
BE-ja po ndjek një linjë më të ashpër. Ligji i tij i propozuar kategorizon përdorime të ndryshme të ai sipas shkallës së rrezikut dhe kërkon monitorim dhe zbulim gjithnjë e më të rreptë ndërsa shkalla e rrezikut rritet nga, të themi, rekomandimet e muzikës për makinat që drejtojnë vetë. Disa përdorime të ai janë të ndaluara fare, të tilla si reklamat subkoshiente dhe biometrike në distancë. Firmat që shkelin rregullat do të gjobiten. Për disa kritikë, këto rregullore janë shumë mbytëse.
Por të tjerë thonë se nevojitet një qasje edhe më e ashpër. Qeveritë duhet ta trajtojnë atë si ilaçet, me një rregullator të dedikuar, testim të rreptë dhe miratim paraprak përpara publikimit. Kina po bën një pjesë të kësaj, duke u kërkuar firmave të regjistrojnë produktet AI dhe t’i nënshtrohen një rishikimi sigurie përpara se të lëshohen. Por siguria mund të jetë më pak motiv sesa politika: një kërkesë kryesore është që prodhimi i AIS-it të pasqyrojë “vlerën thelbësore të socializmit”.
Çfarë duhet bërë? Qasja me prekje të lehtë nuk ka gjasa të jetë e mjaftueshme. Nëse ai është një teknologji po aq e rëndësishme sa makinat, aeroplanët dhe ilaçet – dhe ka arsye të mira për të besuar se është – atëherë, ashtu si ata, do të ketë nevojë për rregulla të reja. Rrjedhimisht, modeli i be-së është më afër markës, megjithëse sistemi i tij i klasifikimit është i mbingarkuar dhe një qasje e bazuar në parime do të ishte më fleksibël. Zbulimi bindës se si trajnohen sistemet, si funksionojnë dhe si monitorohen, dhe që kërkon inspektime, do të ishte i krahasueshëm me rregulla të ngjashme në industri të tjera.
Kjo mund të lejojë rregullim më të rreptë me kalimin e kohës, nëse është e nevojshme. Një rregullator i dedikuar atëherë mund të duket i përshtatshëm; po ashtu mund të jenë edhe traktatet ndërqeveritare, të ngjashme me ato që rregullojnë armët bërthamore, nëse dalin prova të besueshme të rrezikut ekzistencial. Për të monitoruar këtë rrezik, qeveritë mund të formojnë një trup të modeluar sipas cernit, një laborator të fizikës së grimcave, që mund të studiojë gjithashtu sigurinë dhe etikën – fusha ku kompanive u mungojnë stimujt për të investuar aq sa mund të dëshirojë shoqëria.
Kjo teknologji e fuqishme paraqet rreziqe të reja, por ofron edhe mundësi të jashtëzakonshme. Të balancosh të dyja do të thotë të ecësh me kujdes. Një qasje e matur sot mund të sigurojë bazat mbi të cilat rregulla të mëtejshme mund të shtohen në të ardhmen. Por koha për të filluar ndërtimin e këtyre themeleve është tani.
/Përkthyer dhe përshtatur për Konica.al nga “The Economist“