Блог

OpenAI, Google и Anthropic борются за создание более совершенного искусственного интеллекта

Компания OpenAI стояла на пороге важного события – в сентябре завершился начальный этап обучения новой масштабной модели искусственного интеллекта, которая, как все надеялись, значительно превзойдет предыдущие версии технологии, лежащей в основе ChatGPT, и приблизит её к желанной цели – созданию мощного ИИ, превосходящего людей по производительности.

Но модель, известная внутри компании как Orion, не достигла желаемых показателей. Так, например, Orion потерпела неудачу, пытаясь ответить на вопросы по программированию, которым не была обучена. В целом, Orion пока не считается таким уж большим шагом вперед по сравнению с существующими моделями OpenAI, как GPT-4 по сравнению с GPT-3.5 – системой, которая изначально использовалась для флагманского чат-бота компании.

Разработчики из OpenAI отнюдь не одиноки в том, что в последнее время сталкиваются с существенными трудностями. После нескольких лет стремительного внедрения всё более сложных продуктов с использованием искусственного интеллекта все три ведущие компании в области искусственного интеллекта в настоящее время наблюдают снижение отдачи от своих дорогостоящих усилий по созданию новых моделей. В Google, принадлежащей Alphabet Inc., предстоящая версия программного обеспечения Gemini, не соответствует внутренним ожиданиям. А компания Anthropic, тем временем, и вовсе сдвинула сроки выпуска долгожданной модели Claude под названием 3.5 Opus.

Итак, компании столкнулись с целым рядом проблем. Становится все труднее находить новые созданные человеком источники высококачественных данных для обучения, которые могут быть использованы для создания более совершенных систем искусственного интеллекта. Так, например, неудовлетворительная производительность Orion в области кодирования частично объясняется отсутствием достаточного количества данных для обучения. Очевидно, что скромных улучшений совершенно недостаточно, чтобы оправдать огромные затраты, связанные с созданием и эксплуатацией новых моделей, или оправдать ожидания, связанные с продвижением продукта, заявленного как результат крупной модернизации.

Большая часть лидеров технологической индустрии сделала ставку на так называемые законы масштабирования, которые декларируют, что увеличение вычислительной мощности, объема данных и самих моделей неизбежно приведет к еще большему росту возможностей искусственного интеллекта.

Однако, недавние неудачи стали вызывать сомнения в целесообразности крупных инвестиций в ИИ и в возможности достижения главной цели, к которой настойчиво стремятся разработчики – созданию искусственного интеллекта общего назначения.

Этим термином обычно принято обозначать некие гипотетические системы ИИ, которые потенциально могут сравняться с людьми или даже превзойти их в решении многих интеллектуальных задач. Любопытно, что руководители OpenAI и Anthropic прогнозировали достижение этой цели всего через несколько лет.

“Пузырь искусственного интеллекта понемногу лопается”, – сказала Маргарет Митчелл, главный специалист по этике стартапа в области искусственного интеллекта Hugging Face. По ее словам, стало ясно, что для того, чтобы модели ИИ действительно хорошо работали в различных задачах, могут потребоваться “разные подходы к обучению” — эту идею поддержал целый ряд экспертов в области искусственного интеллекта в интервью Bloomberg News.

Технология, лежащая в основе ChatGPT и целой волны последующих чат-ботов, конкурирующих с искусственным интеллектом, была создана на основе собранного множества сообщений в социальных сетях, онлайн-комментариев, книг и других данных, которые были собраны со всего Интернета. Этого оказалось достаточно для создания продуктов, способных выдавать «умные» эссе и стихи. Однако, для создания систем искусственного интеллекта, которые были бы «умнее нобелевского лауреата», на что надеются некоторые компании, потребуются совершенно другие источники данных, нежели записи в Википедии и на YouTube.

Именно поэтому OpenAI уже заключила соглашения с издателями, чтобы частично удовлетворить потребность в высококачественных данных, а также адаптироваться к растущему юридическому давлению со стороны издателей и художников в отношении данных, используемых для создания продуктов с генеративным ИИ. Некоторые технологические компании стали нанимать высококлассных специалистов, которые смогут размечать данные, относящиеся к их собственным предметным областям знаний, например, таким как математика и программирование. Цель состоит в том, чтобы сделать системы искусственного интеллекта гораздо более эффективными при ответе на запросы по определенным специфичным темам. Очевидно, что результат приложения подобных усилий достигается гораздо медленнее, и обходятся они существенно дороже, чем простой краулинг в Интернете.

Кроме того, технологические компании стали обращаться к синтетическим данным, таким как компьютерные изображения или текст, имитирующим контент, созданный реальными людьми. Но и здесь существуют свои ограничения. “Речь идет не столько о количестве, сколько о качестве и разнообразии данных”, – говорит Лила Третикова, руководитель стратегии в области искусственного интеллекта в New Enterprise Associates и бывший заместитель технического директора Microsoft. “Мы можем генерировать количественные данные синтетическим путем, но нам трудно получать уникальные наборы данных высокого качества без участия человека, особенно когда речь заходит о языке”.

Сейчас разработчики ломают голову над тем, продолжать ли предлагать свои старые модели искусственного интеллекта, возможно, с некоторыми дополнительными улучшениями, либо пойти на расходы по поддержке чрезвычайно дорогих новых версий, которые всё равно смогут работать ненамного лучше.

Google выпустила обновления для своей флагманской модели искусственного интеллекта Gemini, чтобы сделать ее более полезной, включая восстановление способности генерировать изображения людей, но внесла несколько существенных изменений в качество базовой модели. OpenAI, тем временем, в этом году сосредоточилась на ряде постепенных обновлений, таких как новая версия функции голосового помощника, которая позволяет пользователям вести более плавные разговорные беседы с помощью ChatGPT.

Совсем недавно OpenAI представила предварительную версию модели под названием o1, которая тратит дополнительное время на подготовку ответа перед тем, как ответить на запрос, – процесс, который компания называет “рассуждением”. Google работает над аналогичным подходом, целью которого является обработка более сложных запросов и получение более качественных ответов с течением времени.

Так же как Google и Anthropic, OpenAI постепенно стал переключать внимание с тренда к увеличению размеров моделей на новые варианты их использования с помощью инструментов искусственного интеллекта, называемых агентами, которые могут, например, самостоятельно бронировать авиабилеты или отправлять электронные письма от имени пользователя. “Наши модели будут все лучше и лучше”, – написал генеральный директор OpenAI Сэм Альтман на Reddit. “Но я думаю, что следующим гигантским прорывом станут агенты”.

Источник: Bloomberg