Развитие искусственного интеллекта продолжает привлекать огромные инвестиции, однако популярные большие языковые модели (LLM) постепенно выходят на плато из-за технологических ограничений устаревшей архитектуры. Для настоящего прорыва индустрии нужны новые решения, способные наделить машины мотивацией и целеполаганием.
Об этом сообщил директор департамента искусственного интеллекта в компании Sponge Анар Лавренов в эфире Юрия Романенко.
Комментируя скепсис относительно стремительного развития технологий, эксперт подчеркнул, что действия крупнейших мировых корпораций свидетельствуют о реальной ценности ИИ, а не о временном хайпе.
"Я являюсь абсолютным антисторонником тезиса о том, что искусственный интеллект — это пузырь, о том, что это нечто несущественное. Даже если мы обратим сейчас внимание непосредственно на последние новости о том, как реагируют компании Microsoft, Spotify, и на то, что делает непосредственно компания OpenAI внутри своих отделов, это уже указывает на то, что крупные игроки абсолютно понимают тренд. Не будет просить Сэм Альтман технический персонал компании OpenAI переходить на агентское кодирование, если можно продолжать писать все руками", — отметил Лавренов.
При этом он заметил, что большинство пользователей ошибочно сужают весь спектр возможностей технологии только до работы с текстом.
"Искусственный интеллект не ограничивается только большими языковыми моделями. LLM — это всего лишь языковая модель из-за того, что она представлена в интернете, где пользователи могут написать определенное сообщение и получить ответ. Для многих искусственный интеллект — это и есть равно LLM, но на самом деле это не так. То есть искусственный интеллект работает не только по тексту, он может применяться в робототехнике, в рекомендательных системах, в космосе и так далее", — пояснил Лавренов.
Несмотря на общий интерес, разработчики сталкиваются с проблемой стагнации, когда каждая новая версия нейросети не дает ожидаемого скачка в производительности.
"Сейчас большие языковые модели выходят на плато. Бенчмарки, которые на данный момент показывают результативность модели, они не сильно меняются от одной модели к другой. То есть, когда каждая новая модель выходит, например, Claude Opus 4.7, Claude Opus 4.6, Gemini 3.1, бенчмарки в них относительно одинаковые, то есть прорыва нет. Даже если рядовой пользователь общается с LLM по разным вопросам, он не чувствует кардинального улучшения, только точечное", — указал эксперт.
Главной причиной такого замедления является устаревшая база, на которой строятся современные продукты от лидеров рынка. По словам специалиста, дальнейшая модернизация существующего кода будет давать все менее заметные результаты, поэтому отрасль нуждается в кардинально новых подходах.
"И в этом есть определенная причина, почему это происходит. Потому что LLM непосредственно, неважно, это OpenAI, это Google, это Claude, Anthropic, они все используют одну и ту же архитектуру, которой уже скоро будет 10 лет. То есть они все строятся на архитектуре трансформеров, которая является довольно старой. И архитектура трансформеров имеет, очевидно, свои пределы. Характеристики, которые означают, что это плато — это непосредственно сама архитектура. По большому счету, отличия между Gemini, Claude, Grok и GPT моделью не столь значительны. То есть каждое новое обновление все менее значимо. И это понятно, потому что код в модели один и тот же, архитектура одна и та же, данные появляются относительно новые, но в них тоже есть плато. Но ты не можешь совершить прорыв, скажем, построить какой-то супервелосипед, если у тебя все так же есть два колеса и две трубы. Вот в свое время, конечно, с появлением GPT 3.5 это был большой скачок, потому что на смену рекуррентным моделям пришли трансформеры непосредственно. Это, конечно, был скачок. Мы сразу увидели вот эту магию общения. Сейчас мир ждет новой архитектуры", — пояснил Лавренов.
Чтобы преодолеть эти границы и сделать следующий шаг, разработчики уже сейчас работают над созданием систем, которые будут обладать элементами человеческой психологии и долгосрочного планирования.


