Куда движется прогресс ИИ? О провале GPT-4.5?

Нет, конечно, это не провал, если не считать стоимость в 30 раз выше, чем у конкурентов и низкую скорость генерации токенов.

GPT-4.5 замечательная модель, которая является одной из лучших в своем классе (среди "нерассуждающих"), но во-первых, не лучшая, а во-вторых, прогресс по сравнению с устаревшей GPT-4o не такой впечатляющий, но это, возьму на себя смелость заявить, не "вина" OpenAI, а специфика технологического развития ГИИ на данном этапе.

🔘 До этого Claude 3.7 Sonnet показал не такой впечатляющий прогресс в сравнении с Claude 3.5 [NASDAQ: SONN] Sonnet.

🔘 Google не выдержал конкуренцию, представив [HKEX: 0174] Gemini 2.0 Pro, имеющую минимальный прирост производительности в сравнении с Gemini 2.0 [US: FZRO] Flash, который в свою очередь немного сильнее Gemini 1.5 Pro.

🔘 Сильно удивил Grok 3, но в сравнении со слабым предшественником Grok 2, тогда как в сравнении с лидерами произошло лишь выравнивание конкуренции без формирования решительного доминирования.

▪️Это связано с тем, что увеличение параметров модели или объема данных дает все меньшие улучшения в производительности.

Переход от GPT-3.5 к GPT-4 был значительным, но улучшения от GPT-4o к GPT-4.5 менее заметны, что обусловлено тем, что доступ к высококачественным данным ограничен, а вычисления становятся дороже.

Проблема в том, что качественные естественные (сгенерированные человеком) данные для обучения уже заканчиваются, что приводит к необходимости использования синтетических данных (сгенерированных нейросетями), оказывая драматическое влияние на интегральное качество дата-сетов, т.к. не существует механизмов достоверной верификации и валидации сверхбольших массивов синтетических данных.

▪️Принцип эскалации ошибок, когда сбой в одном параметре имеет принцип наследования ошибки, смещая вектор обучения LLM.

Принцип эскалации ошибок в контексте использования синтетических данных можно определить как каскадный эффект, при котором первичные неточности в исходных данных многократно усиливаются через механизм наследования на каждой последующей итерации генерации.

LLM не обладают встроенным критерием "истинности" в отличие от человека, поэтому детектировать и исправить сбой не могут самостоятельно, что затрудняет процесс самообучения.

▪️Закон убывающей отдачи. Чем более развитая модель, тем дороже стоит приращение производительности. Одной из ключевых проблем развития LLM является нелинейный характер зависимости между размером модели и необходимыми вычислительными ресурсами. Каждый процент приращения чистой производительности требует непропорционально больших вычислительных ресурсов по мере достижения "критического уровня" развития LLM.

▪️Архитектура, основанная на трансформерах, имеет фундаментальную неэффективность, связанную с обработкой последовательностей токенов. LLM всегда учитывает всю историю текста для каждого нового шага, что приводит к экспоненциальному росту вычислительных затрат с увеличением длины последовательности – чем выше длина контекста, тем сложнее обрабатывать каждый новый токен по мере приближения к лимиту.

Это не значит, что прогресс остановится, но это значит, что прогресс станет дороже, что, вероятно, приведет к появлению более эффективных архитектур и технологий, как показал DeepSeek, как вынужденная мера борьбы с законом убывающей отдачи.

Что мы видим?

● Выравнивание конкуренции. Практически невозможно выбиться в лидеры, идет быстрый, но поступательный прогресс, нет ультимативного лидера, каждая LLM имеет плюсы и минусы.

● Скорость инноваций. Несмотря на то, что чистый прирост производительности в каждой новой LLM не такой впечатляющий, как раньше, однако давление конкурентов заставляет внедрять более доступные модели и выпускать обновления заметно чаще, едва ли не каждый месяц.

● Расширение функционала. Появление "умного поиска", режима "глубоких исследований", более точное следование инструкциям, более тонкая и избирательная калибровка моделей, борьба с галлюцинациями и повышение точности генерации, появление ИИ ассистентов и агентов, режим "холста" и "проектов", как у OpenAI и т.д.

Слежу за прогрессом

17