Ato që priten të sjellin AI në nivel njerëzor në të ardhmen e afërt mund të jenë duke u ngadalësuar. Që nga prezantimi i bujshëm i ChatGPT dy vite më parë, besnikët e AI kanë mbajtur qëndrimin se përmirësimet në AI gjenerative do të përshpejtoheshin eksponencialisht, pasi gjigantët e teknologjisë do të vazhdonin të shtonin “karburant” në formën e të dhënave për trajnimin dhe fuqinë kompjuterike. Arsyeja pas kësaj ishte që për të realizuar premtimin e teknologjisë mjaftonte thjesht të investoheshin burime të derdhej mjaftueshëm fuqi kompjuterike dhe të dhëna dhe inteligjenca artificiale e përgjithshme (AGI) do të shfaqej, duke qenë e aftë të përputhej ose të tejkalonte performancën e nivelit njerëzor.
Përparimi po ecte me një ritëm aq të shpejtë sa që figura kryesore të industrisë, përfshirë Elon Musk, bënë thirrje për një moratorium mbi kërkimet në AI, shkruan japantimes. Megjithatë, kompanitë kryesore të teknologjisë, përfshirë atë të Musk, vazhduan përpara, duke shpenzuar dhjetëra miliarda dollarë për të mos mbetur pas. OpenAI, krijuesi i ChatGPT, i mbështetur nga Microsoft, së fundmi mblodhi 6.6 miliardë dollarë për të financuar përparime të mëtejshme. xAI, kompania e AI e Musk, është në proces për të mbledhur 6 miliardë dollarë, sipas CNBC, për të blerë 100 mijë çipa Nvidia, komponentët elektronikë më të fundit që fuqizojnë modelet e mëdha. Megjithatë, duket se ka probleme në rrugën drejt AGI.
Burimet e brendshme të industrisë po fillojnë të pranojnë se modelet e mëdha të gjuhës (LLM) nuk po shkallëzohen pafundësisht me ritme marramendëse kur u shtohet më shumë fuqi dhe të dhëna. Pavarësisht investimeve masive, përmirësimet në performancë po tregojnë shenja ngopjeje. “Vlerësimet jashtëzakonisht të larta të kompanive si OpenAI dhe Microsoft bazohen kryesisht në idenë se LLM-të, me vazhdimësinë e shkallëzimit, do të bëhen inteligjencë artificiale e përgjithshme”-tha eksperti i AI dhe kritiku i shpeshtë Gary Marcus.
Një sfidë themelore është sasia e kufizuar e të dhënave të bazuara në gjuhë që janë në dispozicion për trajnimin e AI. Sipas Scott Stevenson, CEO i firmës për detyra ligjore të AI, Spellbook, mbështetja vetëm tek të dhënat e gjuhës për të rritur performancën është e destinuar të hasë një kufi. Sasha Luccioni, hulumtuese dhe drejtuesja e AI në startup-in Hugging Face, argumenton se ngadalësimi i përparimit ishte i parashikueshëm, duke marrë parasysh përqendrimin e kompanive në madhësi dhe jo në qëllimin e zhvillimit të modeleve.
Industria e AI e kundërshton këtë interpretim, duke këmbëngulur se përparimi drejt AI në nivel njerëzor është i paparashikueshëm. “Nuk ka mur”-deklaroi CEO i OpenAI, Sam Altman në X, pa dhënë shpjegime të tjera. CEO i Anthropic, Dario Amodei, kompania e të cilit zhvillon chatbot-in Claude në partneritet me Amazon, mbetet optimist se nëse thjesht shikon ritmin me të cilin po përmirësohen këto aftësi, të bën të mendosh se do ta arrijmë deri në vitin 2026 ose 2027. Megjithatë, OpenAI ka vonuar publikimin e pasardhësit të pritur të GPT-4, modelit që fuqizon ChatGPT, pasi përmirësimet janë nën pritshmëritë.