MENU
klinika

Kompania kaliforniane mahnit sërish botën

OpenAI tani krijon video të rreme/ Dridhen Hollywood the politikanët!

19.02.2024 - 08:45

OpenAI, kompania kaliforniane që mahniti botën me ChatGpt, i ka lënë sërish të gjithë pa fjalë me Sora-n, inteligjenca artificiale e aftë për të gjeneruar video realiste duke nisur vetëm nga teksti.

Ashtu si ChatGpt u trajnua për miliarda shkrime, Sora u trajnua në një arkiv të madh videosh. Bazuar në atë që ka mësuar, Sora mund t’i transformojë udhëzimet e përdoruesve – të ashtuquajturat “prompts” – në imazhe lëvizëse.

Rezultati është magjik. Në një nga videot e publikuara nga OpenAI, një grua ecën në një rrugë në Tokio. Të gjitha komandat që i janë dhënë inteligjencës artificiale janë respektuar. “Gruaja ka veshur syze dielli, xhaketë, fustan të kuq dhe çizme të zeza.” U tha, u bë. “Njerëz të tjerë po lëvizin pas saj.” U tha, u bë. “Asfalti është i lagur dhe reflekton dritat e neonit”. E bëri edhe këtë. Drejtimi i improvizuar i AI është gjithashtu mbresëlënës. Niset nga një tërësi që tregon kontekstin urban.

Pastaj kalohet në një plan të parë të gruas. Në një minutë – maksimumi që mund të realizohet tani për tani me Sora – vetëm dy gjëra e tradhëtojnë natyrën artificiale të imazheve: një simbol i vogël OpenAI – “prova” që përmbajtja vjen nga një inteligjenca artificiale – dhe hapat ndonjëherë të pasigurt të “gruas me të kuqe”. OpenAI ka shfrytëzuar gjithashtu Italinë për të nisur krijimin e vet. Sora – që do të thotë “qiell” në japonisht – mund të krijojë një qytet buzë detit, i frymëzuar nga Amalfi, i kapur nga një dron. Ose një qen që ecën nëpër shtëpitë e Buranos.

Por janë thjesht demonstrime. Sora, në fakt, nuk mund të provohet. Dhe ne nuk e dimë nëse, pasi të hapet për publikun, ajo do t’i përgjigjet në një mënyrë po aq të habitshme kërkesave të përdoruesve. Por kaq mjafton: OpenAI sapo ka përfunduar një marrëveshje që vlerëson kompaninë e San Franciskos në 80 miliardë dollarë, duke trefishuar vlerësimin e saj në 10 muaj. New York Times shkruan: kompania, e cila ka Microsoft në mesin e financuesve, do të shesë aksionet e veta në një ofertë publike të udhëhequr nga kompania e kapitalit Thrive Capital.

OpenAI aktualisht po vlerëson çdo rrezik të kësaj teknologjie. Do të ketë punë për të bërë. Nëse përdoret gabimisht, një mjet si Sora mund të rrisë në mënyrë dramatike deep fakes, ato video në të cilat algoritmet e bëjnë një individ – shpesh të famshëm ose politikan – të thotë (ose të bëjë) gjëra që nuk i kanë thënë apo bërë kurrë. Nuk mjafton prania e filtrave apo censurës, të cilat duhet të parandalojnë gjenerimin e përmbajtjeve të dhunshme, ofenduese dhe të turpshme. Ylli i popit Taylor Swift di diçka për këtë, pasi së fundmi u zhvesh nga inteligjenca artificiale e Microsoft, pavarësisht masave të sigurisë të miratuara nga kompania. Është e lehtë të imagjinohet keqinformimi që Sora do mund të nxiste nëse dikush do të gjente një mënyrë për ta përdorur atë për të klonuar Joe Biden, Donald Trump ose çdo person tjetër që kandidon për Shtëpinë e Bardhë, apo një vend në Parlamentin Evropian në 2024.

Sora shqetëson edhe Hollywood-in dhe në përgjithësi ata që e fitojnë bukën me video të vërteta. “Ju lutem, mos më ktheni në një person të pastrehë”, I shkroi me ironi MrBeast, YouTuber-i më i ndjekur dhe më i famshëm në botë, Sam Altmanit, CEO i OpenAI. Por ka pak për të qeshur. Një studim i fundit nga Universiteti Carnegie Mellon në Pittsburgh theksoi se për të prodhuar një imazh, inteligjenca artificiale përdor energjinë e nevojshme për të karikuar një smartphone. Sa do t’ju duhet për një video prej disa sekondash? Pastaj është çështja e të drejtës së autorit. Çfarë imazhesh “studioi” Sora? OpenAI pretendon se ka përdorur video publike pa të drejtë autori. Por në të kaluarën kompania është përballur me disa padi – njëra prej tyre nga New York Times – për përdorimin e të dhënave pa leje.

VAZHDO TË LEXOSH MË TEPËR PËR TEMËN


Analiza/ Cilat punë rrezikohen?

A i kërcënon punonjësit shqiptarë ChatGPT?

Inteligjenca artificiale, rutinë e përditshme:

A do të fillojnë njerëzit të mendojnë më pak?