Modelet e mëdha gjuhësore, siç janë Gemini dhe ChatGPT, kanë filluar të manifestojnë disa tipare më pak të dëshirueshme, të njohura si “të menduarit shumë” para se të japin përgjigje.
Ky fenomen i ri është duke u vënë re nga ekspertët ndërkombëtarë, të cilët theksojnë se shqetësimet rreth efikasitetit të këtyre modeleve janë në rritje. Modelet e avancuara, përfshirë OpenAI o1 dhe DeepSeek R1, janë trajnuar për të vënë në dyshim logjikën e tyre dhe për të kontrolluar përgjigjet e tyre. Por, ndërsa këto procese janë kritike për arritjen e saktësisë, ka një kufij që duket se ka filluar të ndikojë negativisht në cilësinë e përgjigjeve të gjeneruara.
Një analizë e ndryshimeve në sjelljet e këtyre modeleve është bërë nga Jared Quincy Davis, themeluesi dhe CEO i Foundry, i cili shpjegon për Business Insider se sa më gjatë që modelet mendojnë për një përgjigje, aq më shumë rriten shanset për gabime. Ai e ka krahasuar këtë proces me një student që kalon tre orë duke punuar vetëm për pyetjen e parë në një provim, duke bie në një rreth vicioz të “mendimit të tepërt”.
Shkencëtarët nga kompani lider si Nvidia, Google, dhe IBM, së bashku me Davis, kanë prezantuar një kornizë me burim të hapur të quajtur Ember. Kjo strukture synon të përmirësojë zhvillimin e modeleve të mëdha gjuhësore duke optimizuar procesin e përgjigjeve në mënyrë që të shmangen gabimet e mundshme. Ember ka për qëllim të ofrojë një afërsi të re të mendimit dhe përgjigjeve, duke ndihmuar që mënyra e marrjes së informacionit nëpërmjet inteligjencës artificiale të evoluojë.”
Në këtë kontekst, disa ekspertë, si Jensen Hwang, shprehen se modelet që kërkojnë më shumë kohë për të ofruar përgjigje të qëllimshme do të shënojnë të ardhmen e përmirësimit të performancës. Është e rëndësishme të kuptohet se ai që mendon gjatë mund të përfitojë nga kjo metodë, por sfida mbetet se si të integrohen mënyra të ndryshme të mendimit në një model të vetëm për të arritur rezultate optimale.
Studim i thelluar është duke u bërë me Ember, ku çdo pyetje ose detyrë do të kërkojë një rrjet modelesh të ndryshme, për të optimizuar kohën e “mendimit” të çdo modeli për pyetje të veçanta. Kjo është një përpjekje për të avancuar përmirësimin e përgjigjeve dhe për të rritur saktësinë e informacioneve që ofrohen për përdoruesit.
Një përkrahës i madh i kësaj metode, Davis, ka demonstruar se me teknikën e tij “ftuar” mund të përfitohet nga përgjigje më të sakta duke kërkuar që ChatGPT 4 të japë disa përgjigje për të njëjtën pyetje për të zgjedhur më të mirën. Kjo qasje e re sjell një kompleksitet më të madh për modelet, duke pasur parasysh se në vend të një milioni thirrjeve, mund të ketë triliona ose kadriliona thirrje për t’u menaxhuar.
Për këtë arsye, tashmë është e qartë se sfida për kompanitë e AI do të jetë përmirësimi i strukturës dhe integrimi i metodave të ndryshme për të realizuar rezultate më të mira. Davis thekson se kjo do të kërkojë që të renditen këto thirrje dhe të zgjidhen modelet dhe pyetjet në mënyrë të përpikë.
Ndërsa njerëzit që mendojnë tepër inkurajohet që të zbërthejnë probleme komplekse në pjesë më të vogla, Ember ndiqet një teori të ngjashme, por me një qasje të re që sfidon paradigmat ekzistuese të mendimit të njohur. Kjo qasje e re do të luajë një rol të rëndësishëm në zhvillimin e agjentëve të inteligjencës artificiale që operojnë pa ndërhyrje njerëzore.
Edhe pse shpesh ndonjëherë ngatërrohet si një proces i thjeshtë, inxhinieria e inteligjencës artificiale është një shkencë komplekse. Në këtë drejtim,Dana Davis nënvizon se korniza Ember paraqet një hap të rëndësishëm drejt rritjes së efikasitetit të modeleve të mëdha gjuhësore, duke hapur kështu një epokë të re për inteligjencën artificiale.