OpenAI anunţa noi modele de raţionament uman, o3 şi o3-mini, curând integrate în Chat-GPT

2.195 ori
<b>OpenAI anunţa noi modele de raţionament uman, o3 şi o3-mini, curând integrate în Chat-GPT</b>OpenAI a ţinut o serie de evenimente în ultima vreme, sub brandingul de „Shipmas”, anunţând tot soiul de produse, soluţii şi planuri legate de ChatGPT. Vineri, pe 20 decembrie, au dezvăluit modelul o3 şi nu e vorba doar despre un LLM aici

OpenAI a ţinut o serie de evenimente în ultima vreme, sub brandingul de „Shipmas”, anunţând tot soiul de produse, soluţii şi planuri legate de ChatGPT. Vineri, pe 20 decembrie, au dezvăluit modelul o3 şi nu e vorba doar despre un LLM aici, ci despre un model de raţionament similar cu cel uman. E vorba despre o3, dar şi o3-mini, care îşi vor găsi loc cândva în ChatGPT.

Ce e special la o3 e că se apropie de AGI, Artificial General Intelligence, despre care am scris aici. Pe scurt, e vorba despre un tip de inteligenţă artificială capabilă să îndeplinească orice sarcină intelectuală pe care o poate realiza un om. Se poate adapta mult mai bine decât un bot clasic. Ce e interesant aici e nomenclatura: după o1 vine o3 şi nu o2. Motivul ar fi dreptul de autor pe care îl are deja un operator britanic, fix cu acest nume.

Trebuie spus că nu aveţi încă acces nici la o3 şi nici la o3-mini, dar cercetătorii în domeniul AI se pot înscrie la un preview pentru o3-mini deja. Planurile sunt ca o3-mini să debuteze spre final de ianuarie şi apoi să urmeze şi o3. Altman, CEO-ul OpenAI, a declarat la un moment dat că ar vrea şi teste federale din partea Guvernului înainte de a da drumul acestor soluţii spre publicul larg.

Deja o1 avea abilităţi şi raţionament care îi permiteau să păcălească utilizatorii umani. E posibil ca o3 să fie şi mai abil de atât, ceea ce ne îngrijorează, între ghicit de parole, scam-uri şi convingerea unor utilizatori mai slabi de înger să se sinucidă. OpenAI a folosit şi o nouă tehnică, de „aliniament deliberativ”, prin care aliniază modele ca o3 la principii de siguranţă. o3 îşi face şi fact-checking singur, evitând greşelile precedentelor modele.

Acelaşi model va face o pauză înainte să răspundă, luând în calcul o serie de comenzi legate de cea care i s-a dat şi îşi va explica şi raţionamentul către utilizator. Răspunsul final va fi un rezumat al acestor procedee. Modelele se pot seta pe timp de răspuns scăzut, mediu sau „High Compute”. Acest anunţ vine fix după ce Google a anunţat Gemini 2.0, Flash Thinking Experimental, cu o zi înainte, pe 19 decembrie.

Ideea este de a simula un lanţ de „gânduri” care duce la o concluzie, fix ca mintea umană, trecând prin mai multe procese de verificare şi validare decât până acum. Prin februarie vom afla dacă am ajuns la AGI sau nu.

Testele OpenAI o3 se fac aici.

Acest site folosește cookies. Prin navigarea pe acest site, vă exprimați acordul asupra folosirii cookie-urilor. Citește mai mult×