Shutterstock
Technologia

Nowa wersja ChatGPT: duża wielkość i cena, duże rozczarowanie

Robot, twój brat. Budzi większe zaufanie, jeśli jest podobny do człowieka. Byle nie za bardzo
Technologia

Robot, twój brat. Budzi większe zaufanie, jeśli jest podobny do człowieka. Byle nie za bardzo

W 1950 r. informatyk Alan Turing zaproponował, żeby uznać robota za myślącą maszynę, gdy pomylimy go z człowiekiem. Było to założenie tyleż naiwne, co bezpieczne, bo wydawało się niemożliwe do spełnienia.

ChatGPT czy człowiek – u kogo para z problemami znajdzie lepszą pomoc?
Technologia

ChatGPT czy człowiek – u kogo para z problemami znajdzie lepszą pomoc?

Ciekawy eksperyment porównujący skuteczność AI i ludzi w kontekście terapeutycznym przeprowadzili naukowcy z kilku amerykańskich ośrodków akademickich oraz szwajcarskiego Université de Lausanne.

Czy rozwój obecnych modeli sztucznej inteligencji właśnie – mimo wielomiliardowych inwestycji – wyhamował? [Artykuł także do słuchania]

W maju 2024 r. Kevin Scott, dyrektor ds. technologii Microsoftu (czyli firmy finansującej OpenAI i jej ChatGPT) porównał rozwój sztucznej inteligencji do morskich zwierząt. Stwierdził mianowicie, że w ciągu ostatnich dwóch lat systemy te powiększyły się od rozmiaru orki do potężnego wieloryba, co miało odzwierciedlać ogromny wzrost mocy obliczeniowej (chipów) i ilości danych używanych do trenowania dużych modeli językowych (LLM), takich jak ChatGPT. Chciał w ten sposób zobrazować dynamiczny rozwój technologiczny w dziedzinie sztucznej inteligencji i podkreślić, że im więcej danych i chipów, tym lepiej, bo model będzie bardziej „inteligentny”. W branży AI nazywa się to prawem skalowania.

Ściana istnieje, a może jej jednak nie ma

Na jesieni ubiegłego roku dobrze poinformowany amerykański serwis technologiczny „The Information” napisał jednak, że tempo ulepszania ChatGPT wyraźnie spowolniło. Okazało się, że zwiększanie mocy obliczeniowej przestaje proporcjonalnie przekładać się na wzrost „inteligencji” LLM. Kwestia ta stała się też głównym tematem grudniowego Cerebral Valley AI Summit w San Francisco, gdzie prawie 350 liderów branży – szefowie firm, inżynierowie i inwestorzy – dyskutowało o przyszłości sztucznej inteligencji. W mediach zaś pojawił się kolejny przeciek – tym razem z Google’a, rozwijającego własny flagowy LLM o nazwie Gemini – że również tam natrafiono na „ścianę skalowania”. I że to, co wyszło z trenowania nowej wersji, zadowolenia nie wywołuje.

Ten pesymistyczny nastrój nie utrzymał się jednak długo. Sam Altman, szef OpenAI, uspokajał bowiem, że żadnej ściany nie ma. A w grudniu jego firma rozpoczęła kampanię, w trakcie której przez 12 dni codziennie prezentowała nowe produkty i funkcje związane ze sztuczną inteligencją. Do ofensywy przystąpił również Google, udostępniając m.in. wersję 2.0 modelu Gemini (lepszą od poprzedniej, ale nie przełomową). W styczniu zaś Altman napisał na swoim blogu, że OpenAI wie już, jak zbudować mityczne AGI (ogólną sztuczną inteligencję), czyli system zdolny do wykonania dowolnego ludzkiego zadania intelektualnego. Chwilę później ogłosił zaś, że firma będzie teraz dążyć do stworzenia superinteligencji (ang. skrót ASI), czyli systemu znacznie mądrzejszego od każdego człowieka. Oczywiście zapowiedzi te wzbudziły spore zainteresowanie i falę spekulacji, że może w zaciszu laboratoriów OpenAI dokonano jakiegoś technologicznego zwrotu, który znów zadziwi świat. Ekscytowano się też wpisem Altmana na platformie X, informującym, że w najbliższym czasie firma udostępni ChatGPT-4.5.

Fala miała milczeć, ale się rozszumiała

Stało się to 27 lutego, ale skończyło sporym rozczarowaniem. Z nowej wersji mogli skorzystać wyłącznie użytkownicy płacący najdroższy abonament (200 dolarów miesięcznie). Pozostali mają otrzymać ten przywilej w ciągu najbliższych dni. A to dlatego – jak tłumaczył wówczas Altman – że wersja 4.5 to najdroższy ChatGPT i firma chwilowo zmaga się z ograniczeniami sprzętowymi do jego obsługi, gdyż brakuje jej procesorów. Ukryty powód mógł być jednak taki, że OpenAI spodziewało się, że nowy produkt zawiedzie oczekiwania i chciało ograniczyć falę negatywnych komentarzy. Nie uchroniło to jej jednak przed wręcz druzgocącymi ocenami – niektórzy dziennikarze zaczęli pisać o ChatGPT-4.5 jako o po prostu bublu.

Głównym problemem nowego modelu jest bowiem marginalna poprawa w stosunku do GPT-4o – np. osiąga on tylko o kilka punktów procentowych lepsze wyniki w testach wiedzy ogólnej. Altman próbował trochę mętnie dowodzić, że model 4.5 reprezentuje „inny rodzaj inteligencji” z wyjątkową, bo bardziej ludzką, jakością konwersacji. Użytkownicy muszą jednak dłużej czekać na odpowiedzi, co dodatkowo obniża jego praktyczną użyteczność. Między innymi dlatego jedna z ankiet pokazała, że ludzie częściej preferują GPT-4o niż GPT-4.5. Również biznesowa wartość nowej wersji stoi pod dużym znakiem zapytania, bo ustalony przez OpenAI koszt dostępu do modelu dla firm zewnętrznych jest aż 30 razy wyższy niż poprzedniego.

Wszystko to sprawiło, że z nową siłą powróciła dyskusja z jesieni ubiegłego roku: czy rozwój LLM jednak nie wyhamował. Cześć ekspertów nie ma co do tego wątpliwości. Na przykład Sasha Luccioni ze znanej amerykańskiej firmy Hugging Face działającej w branży AI, stwierdził w rozmowie z tygodnikiem „New Scientist”, że obecny sposób trenowania i wdrażania dużych modeli językowych jest skrajnie nieefektywny, więc trudno się dziwić, iż właśnie trafił na mur.

Huk nie jest pożądany, ale może się zdarzyć

Open AI zapowiedziało tymczasem, że w ciągu kilku najbliższych miesięcy pokaże światu długo wyczekiwany ChatGPT-5, czyli następcę słynnego i uważanego za przełomowy modelu nr 4 sprzed dwóch lat. Ma on połączyć dwie rodziny obecnie dostępnych modeli – zwykłych i „rozumujących”. Te drugie, czyli oznaczone o1 i o3, wykorzystują technikę chain of thought (łańcucha myśli), która w dużym skrócie polega na tym, że AI rozwiązuje zadania, dzieląc je na mniejsze części i analizując każdy element. W trakcie tego procesu program prezentuje na ekranie swoje odpowiedzi krok po kroku, tworząc sekwencje rozumowania przypominające ludzkie myślenie. Jest to szczególnie przydatne w zadaniach wymagających wieloetapowej analizy, takich jak matematyka, logika czy inne złożone problemy. Wydłuża jednak – i to czasami znacznie (np. do kilkunastu minut) – generowanie odpowiedzi.

Jeśli ChatGPT-5 okaże się kolejnym rozczarowaniem, może to mieć poważne konsekwencje dla całej branży AI. Balon oczekiwań został bowiem mocno napompowany przez ostatnie dwa lata i jeśli pęknie, to z dużym hukiem. Co zapewne spowoduje zakręcenie kurka z miliardami dolarów i kryzys amerykańskich big techów. Bo na razie nie widać na horyzoncie żadnych nowych przełomowych (i łatwych do zastosowania) pomysłów, które pchnęłyby LLM na nowe tory.

Ta strona do poprawnego działania wymaga włączenia mechanizmu "ciasteczek" w przeglądarce.

Powrót na stronę główną