OpenAI, Google и Anthropic столкнулись с проблемами при создании более сложных моделей

По данным Bloomberg, три ведущих разработчика моделей искусственного интеллекта, в том числе OpenAI, Google и Anthropic, пытаются решить проблемы производительности, из-за которых нельзя создавать всё более сложные ИИ-модели.

Все эти компании зафиксировали падение отдачи от инвестиций в создание новых ИИ-инструментов. В частности, они пока не могут решить проблему с нехваткой данных для обучения.

Например, OpenAI вложилась в создание новой ИИ-модели Orion, которая по производительности должна превзойти технологии, лежащие в основе чат-бота ChatGPT. Однако тесты показали, что модель ненамного превосходит имеющиеся продукты, а её отрыв в показателях меньше, чем в своё время зафиксировали у GPT-4 по сравнению с GPT-3.5.

Источники Bloomberg рассказали, что с той же проблемой столкнулись при разработке новой версии Gemini от Google, а разработка модели 3.5 Opus от Anthropic отстаёт от графика.

При этом компании не могут решить проблему даже наращиванием мощностей для обучения, так как им не хватает новых, незадействованных ранее источников высококачественных данных.

В итоге у инвесторов возникают сомнения по поводу обоснованности масштабных вложений в ИИ и принципиальной возможности достичь задачи по созданию ИИ-системы, превосходящей человека по когнитивным способностям.

Ранее исследователи выяснили, что с 2026-го по 2032 год технологическим компаниям может не хватить человеческого текста для обучения языковых моделей. Таким образом, им придётся либо использовать конфиденциальные данные, например личные переписки, либо обратиться к синтетическим данным, созданными самими чат-ботами. Однако второй путь может привести к снижению качества и точности работы систем искусственного интеллекта.