W 2025 r. przedsiębiorcy udostępnią zalew aplikacji opartych na sztucznej inteligencji. Wreszcie, generatywna sztuczna inteligencja spełni oczekiwania dzięki nowej ofercie niedrogich aplikacji konsumenckich i biznesowych. Nie jest to obecnie pogląd powszechnie akceptowany. OpenAI, Google i xAI biorą udział w wyścigu zbrojeń, którego celem jest wyszkolenie najpotężniejszego modelu wielkojęzykowego (LLM) w dążeniu do sztucznej inteligencji ogólnej, znanej jako AGI, a ich walka gladiatorów zdominowała podział umysłów i udział w przychodach raczkującego ekosystemu AI generacji .
Na przykład Elon Musk zebrał 6 miliardów dolarów na wprowadzenie na rynek nowicjusza xAI i kupił 100 000 procesorów graficznych Nvidia H100, kosztownych chipów używanych do przetwarzania sztucznej inteligencji, których wytrenowanie modelu Grok kosztuje ponad 3 miliardy dolarów. Przy tych cenach na budowę tych gigantycznych LLM mogą sobie pozwolić jedynie potentaci technologiczni.
Niewiarygodne wydatki firm takich jak OpenAI, Google i xAI stworzyły przekrzywiony ekosystem, w którym na dole jest ciężko, a na górze lżej. Linie LLM przeszkolone przez te ogromne farmy procesorów graficznych są zwykle bardzo drogie w zakresie wnioskowania, czyli procesu wprowadzania podpowiedzi i generowania odpowiedzi na podstawie dużych modeli językowych, które są wbudowane w każdą aplikację wykorzystującą sztuczną inteligencję. To tak, jakby wszyscy mieli smartfony 5G, ale korzystanie z danych było zbyt drogie, aby ktokolwiek mógł oglądać filmy na TikToku lub surfować po mediach społecznościowych. W rezultacie doskonałe narzędzia LLM z wysokimi kosztami wnioskowania sprawiły, że dystrybucja zabójczych aplikacji stała się nieopłacalna.
Ten przekrzywiony ekosystem ultrabogatych potentatów technologicznych walczących ze sobą wzbogacił Nvidię, zmuszając twórców aplikacji do stosowania paragrafu 22 polegającego na albo korzystaniu z taniego i niskowydajnego modelu, który może rozczarować użytkowników, albo poniesieniu wygórowanych kosztów wnioskowania i ryzykowaniu upadku bankrut.
W 2025 r. pojawi się nowe podejście, które może to wszystko zmienić. Będzie to powrót do tego, czego nauczyliśmy się z poprzednich rewolucji technologicznych, takich jak era komputerów osobistych Intel i Windows lub era urządzeń mobilnych Qualcomm i Android, gdzie prawo Moore’a poprawiło komputery i aplikacje, a niższe koszty przepustowości poprawiły telefony komórkowe i aplikacje rok po roku.
Ale co z wysokim kosztem wnioskowania? Nowe prawo dotyczące wnioskowania AI jest tuż za rogiem. Koszt wnioskowania spadł 10-krotnie w skali roku pod wpływem nowych algorytmów sztucznej inteligencji, technologii wnioskowania i lepszych chipów po niższych cenach.
Punktem odniesienia jest fakt, że gdyby niezależny programista wykorzystał najlepsze modele OpenAI do zbudowania wyszukiwania AI, w maju 2023 r. koszt wyniósłby około 10 dolarów za zapytanie, podczas gdy wyszukiwanie Google spoza generacji AI kosztowałoby 0,01 dolara, czyli 1000-krotna różnica. Jednak do maja 2024 r. cena najlepszego modelu OpenAI spadła do około 1 dolara za zapytanie. Przy tym bezprecedensowym spadku cen 10 razy w roku twórcy aplikacji będą mogli korzystać z modeli o coraz wyższej jakości i niższych kosztach, co doprowadzi do rozpowszechnienia aplikacji AI w ciągu najbliższych dwóch lat.