Sipas raporteve në fillim të vitit, GPT-5, pasardhësi i modelit të madh të gjuhës GPT-4 që fuqizon ChatGPT dhe Bing, mund të mbërrijë përpara fundit të 2023 ose fillimit të 2024.
OpenAI, kompania që zhvilloi ChatGPT, njoftoi se mund të përfundonte trajnimin GPT-5 deri në dhjetor, transmeton Telegrafi.
Ndërkohë, Instituti Future of Life (FLI), një organizatë jofitimprurëse që merret me implikimet etike dhe sociale të teknologjisë së përparuar, publikoi një letër të hapur më 29 mars 2023, duke bërë thirrje për një moratorium për zhvillimin e AI.
Letra u nënshkrua fillimisht nga më shumë se 1,000 udhëheqës të teknologjisë (27,565 deri më tani), studiues dhe njerëz të tjerë të afërt me teknologjinë, duke përfshirë Elon Musk, Steve Wozniak, Andrew Yang dhe të tjerë.
Në letër, ata kërkuan një pauzë gjashtëmujore në zhvillimin e sistemeve të AI më të fuqishme se GPT-4, dhe paralajmëruan për një “garë të pakontrolluar” për të zhvilluar dhe vendosur mendje dixhitale gjithnjë e më të fuqishme që askush – madje as krijuesit e tyre – nuk mund të kuptojnë, parashikojnë ose kontrollojnë në mënyrë të besueshme.
Ata pohuan se sisteme të tilla të AI paraqesin “rreziqe të thella për shoqërinë dhe njerëzimin” dhe mund të çojnë në pasoja katastrofike si luftërat, diktaturat, dezinformimin, manipulimin dhe humbjen e dinjitetit njerëzor.
Drejtori i OpenAI, Sam Altman, deklaroi më pas, në mes të prillit, se GPT-5 nuk është duke u trajnuar ende.
Për më tepër, në dëshminë e fundit para Komitetit Gjyqësor të Kongresit të SHBA për mundësitë dhe rreziqet e inteligjencës artificiale, ai u kërkoi ligjvënësve të rregullonin inteligjencën artificiale dhe propozoi krijimin e një agjencie të re shtetërore për të licencuar dhe testuar modelet më të fuqishme të AI.
Ai gjithashtu paralajmëroi për abuzime të mundshme të teknologjisë si ChatGPT për përhapjen e dezinformatave, manipulimeve emocionale dhe shënjestrimin e dronëve.
Pavarësisht kësaj, të gjithë janë dakord që OpenAI me siguri nuk do të heqë dorë nga zhvillimi i GPT-5 ose të paktën nga përmirësimi i modelit ekzistues GPT-4 në versionin 4.5.
Ndërkohë, faqet e teknologjisë, bloget dhe rrjetet sociale po përhapin supozime pak a shumë të informuara se cilat veçori mund të ketë GPT-5.
Meqenëse këto janë spekulime, duhet të merren me një dozë skepticizmi, megjithëse kjo nuk do të thotë se janë të paarritshme.
Ndër të tjera, disa autorë spekulojnë se GPT-5 mund të ketë vetitë e inteligjencës së përgjithshme artificiale (AGI), ose të paktën disa sugjerime serioze për të.
Për një kuptim më të mirë të potencialit të mundshëm të modelit GPT-5, le të kujtojmë shkurtimisht se si u zhvilluan paraardhësit e tij.
GPT-1 (Generative Pre-trained Transformer 1) ishte modeli i parë i madh i gjuhës (LLM) nga seria GPT i zhvilluar nga OpenAI në 2018.
Ishte një model gjuhësor i bazuar në të ashtuquajturat arkitekturës së transformatorit dhe u trajnua në grupin e madh të të dhënave të BooksCorpus.
Ai kishte rreth 117 milionë parametra, pra variabla vlerat e të cilave rregullohen gjatë trajnimit për të përcaktuar se si të dhënat hyrëse u shndërruan në daljen e dëshiruar; për shembull, parametrat mund të jenë peshat e lidhjeve në një rrjet nervor artificial.
Ky ishte një numër mbresëlënës për atë kohë, megjithëse shumë më pak se në versionet e mëvonshme. OpenAI nuk doli publikisht me atë model.
Në vitin 2019, OpenAI zhvilloi GPT-2, i cili kishte 10 herë më shumë parametra dhe të dhëna se paraardhësi i tij. Ishte LLM-ja më e mirë e kohës së saj.
OpenAI prezantoi GPT-3 në 2020, megjithatë, versioni i provues nuk u lëshua deri më 30 nëntor 2022. Që atëherë, më shumë se 300 aplikacione kanë filluar të përdorin GPT-3 për funksione të ndryshme si kërkimi, biseda, plotësimi i tekstit, gjenerimi i kodit etj.
Me një total prej 175 miliardë parametrash, GPT-3 është bërë një nga modelet më të mëdha gjuhësore. Duke demonstruar aftësinë për të gjeneruar tekste shumë koherente dhe të natyrshme dhe për të zgjidhur detyra të ndryshme gjuhësore me rezultate të jashtëzakonshme, ai krijoi shumë pluhur dhe tërhoqi 100 milionë përdorues në vetëm dy muaj, duke e bërë atë aplikacionin online me rritjen më të shpejtë në histori.
Pika e vërtetë e kthesës ishte GPT-3.5, e cila u bë themeli i ChatGPT. Ajo u zhvillua në vitin 2021, dhe në fund të vitit të kaluar pushtoi botën. Harvard Business Review e përshkroi atë si një “pikë kthese” për AI.
GPT-4, një model që i ofroi ChatGPT saktësi më të madhe dhe reduktim të halucinacioneve, dmth duke krijuar rezultate të rreme dhe të dëmshme, u lançua në fillim të vitit 2023. Është një model i madh multimodal (i cili pranon hyrjet e tekstit dhe imazhit dhe prodhon dalje teksti) dhe mund të zgjidh problemet e vështira me saktësi më të madhe se çdo model i mëparshëm falë njohurive më të gjera të përgjithshme dhe aftësive të avancuara për zgjidhjen e problemeve.
GPT-4 ka memorie afatshkurtër dukshëm më të gjatë se versioni i mëparshëm GPT-3.5. Ndërsa GPT-3.5 mund të gjurmojë bisedat deri në rreth 8000 fjalë, GPT-4 mund të mbajë mend deri në 64,000 fjalë, duke e lejuar atë të gjenerojë përgjigje më të sakta dhe koherente gjatë bisedave më të gjata ose futjeve të tekstit.
GPT-4 ndoshta është trajnuar duke përdorur triliona fjalë teksti dhe mijëra çipa të fuqishëm kompjuterik, dhe procesi kushtoi më shumë se 100 milionë dollarë. Ai gjithashtu mund të tërheqë tekst nga faqet e internetit kur i kalon një URL në pyetje. Është i disponueshëm nëpërmjet API dhe për përdoruesit premium të ChatGPT.
OpenAI ka njoftuar zyrtarisht se GPT-4.5 do të dalë në “shtator ose tetor 2023” si “një version kalimtar midis GPT-4 dhe GPT-5 të ardhshëm”.
Është e rëndësishme të theksohet këtu se numrat e versioneve nuk kanë shumë rëndësi; nuk është e rëndësishme nëse një model shënohet me 4.5 apo 5. Ajo që ka rëndësi është se sa do të përmirësohen aftësitë e një versioni të ri.
Për momentin, GPT-5 është ende një sistem hipotetik për zhvillimin ose aftësitë e të cilit nuk ka asnjë informacion zyrtar. Megjithatë, bazuar në disa parashikime dhe supozime, ai mund të ketë karakteristikat e mëposhtme:
Disa faqe teknologjike dhe blogerë spekulojnë se mund të ketë 100 herë më shumë parametra se GPT-3, ose rreth 17.5 trilion parametra, gjë që do ta bënte atë një nga rrjetet nervore më të mëdhenj të krijuar ndonjëherë.
Por këtu duhet theksuar se më herët u spekulua se GPT-4 do të kishte shumë më tepër parametra se GPT-3.5, gjë që nuk ndodhi dhe se Altman deklaroi në mes të prillit se nuk do të rriste ndjeshëm modelet.
“Unë mendoj se jemi në fund të një epoke ku do të jenë këto modele gjigante. Ne do t’i përmirësojmë ato në mënyra të tjera”, tha ai në një mbledhje në MIT.
Me fjalë të tjera, është shumë e mundur që numri i parametrave të mos vazhdojë të rritet në mënyrë drastike.