Прогресс ИИ-моделей рассуждений может замедлиться к 2026 году

Анализ Epoch AI предсказывает скорое замедление прогресса в развитии ИИ-моделей, ориентированных на рассуждения. Уже в 2026 году их производительность может достичь предела из-за ограничений в вычислительных ресурсах и высоких затрат на исследования.
Прогресс ИИ-моделей рассуждений может замедлиться к 2026 году

Некоммерческий исследовательский институт Epoch AI опубликовал анализ, согласно которому стремительный рост производительности ИИ-моделей, способных к рассуждениям, может замедлиться в ближайшие годы. Такие модели, как o3 от OpenAI, демонстрируют значительные успехи в решении задач по математике и программированию, но уже к 2026 году их развитие может достичь предела из-за ограничений вычислительных ресурсов и высоких затрат на исследования.

Как работают модели рассуждений

Модели рассуждений, в отличие от традиционных ИИ, используют больше вычислительных ресурсов для обработки задач, что повышает их эффективность, но увеличивает время выполнения. Их разработка включает два этапа: обучение на огромных объемах данных и последующее применение метода обучения с подкреплением. Этот метод позволяет модели получать «обратную связь» по своим решениям, улучшая способность справляться со сложными задачами.

По данным Epoch AI, ведущие лаборатории, такие как OpenAI, пока не применяли значительных вычислительных мощностей на этапе обучения с подкреплением. Однако ситуация меняется. OpenAI сообщила, что для обучения модели o3 было использовано в 10 раз больше вычислительных ресурсов, чем для предыдущей модели o1, причем большая часть ресурсов пошла на обучение с подкреплением. Исследователь OpenAI Дэн Робертс отметил, что компания планирует в будущем еще больше увеличить вычисления для этого этапа.

«Производительность стандартных ИИ-моделей удваивается каждые 9 месяцев, тогда как модели с обучением с подкреплением улучшаются в 10 раз каждые 3–5 месяцев. Однако к 2026 году их прогресс, вероятно, сравняется с общим уровнем развития ИИ», — поясняет Джош Ю, аналитик Epoch AI и автор анализа.

Ограничения и вызовы

Несмотря на успехи, масштабирование моделей рассуждений сталкивается с рядом ограничений. Во-первых, существует предел объема вычислительных ресурсов, которые можно эффективно применить для обучения с подкреплением. Во-вторых, исследования в этой области требуют значительных затрат, что может замедлить прогресс. Джош Ю отмечает, что высокие накладные расходы на разработку могут стать серьезным препятствием.

Кроме того, модели рассуждений имеют свои недостатки. Исследования показывают, что они чаще склонны к «галлюцинациям» — выдумыванию недостоверной информации — по сравнению с традиционными моделями. Это, вкупе с высокими затратами на их эксплуатацию, вызывает обеспокоенность в индустрии ИИ, которая вложила огромные ресурсы в их развитие.

Что это значит для индустрии

Замедление прогресса в развитии моделей рассуждений может повлиять на стратегии крупных игроков ИИ-индустрии. Компании, такие как OpenAI, активно инвестируют в эти технологии, ожидая, что они станут основой для решения сложных задач в будущем. Однако ограничения, выявленные Epoch AI, подчеркивают необходимость поиска альтернативных подходов к масштабированию ИИ.

Интересный факт: Термин «галлюцинации» в контексте ИИ был впервые популяризирован в 2010-х годах, когда исследователи заметили, что нейросети иногда генерируют правдоподобные, но ложные данные, имитируя человеческую способность к фантазии.
08:16
189
Нет комментариев. Ваш будет первым!
Яндекс.Метрика