Если 2024-й был годом генеративного ИИ (GenAI), то 2025-й станет годом разумных ожиданий, пишет на портале The New Stack Барр Мозес, генеральный директор и соучредитель компании Monte Carlo.

Согласно прогнозистам технологической отрасли, 2024 г. должен был стать знаменательным для GenAI. Ожидалось появление реальных сценариев использования, новые технологии должны были снизить барьеры для входа, а ИИ общего назначения (AGI) показаться на горизонте.

Но так ли все оказалось на самом деле? Ну, вроде того. Если 2024-й был годом GenAI, то 2025-й станет годом разумных ожиданий.

В будущем GenAI все еще будет занимать важное место в сознании руководителей компаний, но разговоры о нем станут более приземленными. В этой статье я расскажу о том, как далеко мы продвинулись, куда нам еще предстоит двигаться, а также о том, что ждет ИИ в новом году.

#1. Агентный ИИ отлично подходит для разговоров, но не для развертывания

Предположим, что в наши дни вы плаваете где-нибудь поблизости от прудов с венчурным капиталом. В этом случае вы, скорее всего, регулярно слышите пару терминов: «второй пилот» — модный термин для обозначения ИИ, используемого для выполнения одного шага («исправить мой ужасный код»), и «агенты» — многошаговый рабочий процесс, который может собирать информацию и использовать ее для выполнения задачи («написать блог о моем ужасном коде и опубликовать его на моем WordPress»).

В 2024 г. мы, несомненно, видели множество успешных «вторых пилотов» (спросите Github, Snowflake, Microsoft и др.), но что насчет ИИ-агентов?

Пока что «агентный ИИ» весело сеет хаос в командах поддержки клиентов, но, похоже, это все, чем ему суждено стать в ближайшее время. Хотя первые ИИ-агенты — это существенный шаг вперед, точность этих рабочих процессов все еще низка.

Точность в 75-90% является современным уровнем для ИИ. В большинстве своем ИИ эквивалентен ученику средней школы. Но если у вас есть три шага с точностью 75-90%, то конечная точность составляет около 50%.

Слоны научились рисовать с большей точностью, чем эта.

Большинство ИИ-агентов не только не приносят прибыли организациям, но и активно навредят им, если будут запущены в производство при их нынешней продуктивности. Сначала нам нужно решить эту проблему.

Хотя обсуждать их очень важно, никто не добился успеха вне демонстрации. Как бы ни любили люди в Долине говорить об ИИ-агентах, эти разговоры не приводят к результатам.

#2. GenAI не станет драйвером доходов для большинства организаций

Ценность GenAI, как и любого продукта данных, проявляется в двух формах: снижение затрат или получение дохода.

Если говорить о доходах, то вы можете использовать чат-боты или рекомендации на базе GenAI. Эти инструменты могут создать большой канал продаж, но он не обязательно будет здоровым. Таким образом, если ИИ не приносит дохода, он должен сокращать расходы — и в этом отношении эта начинающая технология, безусловно, нашла свое применение.

На мой взгляд, использование ИИ дает возможность сократить расходы, если соблюдается один из трех критериев:

  • ИИ устраняет или сокращает количество повторяющейся работы;
  • ИИ восполняет незаполненные вакансии из-за сложного рынка труда;
  • ИИ удовлетворяет срочную потребность в найме.

Отличным примером использования потенциала GenAI для экономии средств является компания Dave, занимающаяся цифровыми банковскими услугами, которая создала внутренний чат-бот, использующий RAG (генерация с расширенной выборкой) для ответов на вопросы членов команды о данных компании. Это позволяет менее технически подкованным сотрудникам быстрее получать достоверные ответы о своих данных и экономит их драгоценное время, которое лучше потратить на помощь заинтересованным сторонам в получении прибыли.

#3. Будущее ИИ связано с небольшими, а не с гигантскими моделями

Дискуссия о соотношении опенсорсного и управляемого стара как время. Но этот вопрос становится гораздо сложнее, когда речь заходит об ИИ.

На уровне предприятия это не просто вопрос контроля или совместимости — хотя и это, конечно, может сыграть свою роль — это вопрос операционных затрат.

Крупнейшие B2C-компании будут использовать готовые модели, в то время как B2B-компании будут склоняться к небольшим и дешевым проприетарным моделям.

Для руководителей по данным этих компаний это вопрос не только финансовый. Малые модели также повышают производительность. Как и Google, большие модели (LLM) предназначены для решения множества различных задач. Пользователи могут спросить большую модель фактически о чем угодно, поэтому такая модель должна быть обучена на достаточно большом массиве данных, чтобы выдать релевантный ответ. Водное поло. История Китая. Французские тосты.

К сожалению, чем на большем количестве тем обучена модель, тем больше вероятность того, что она спутает несколько понятий, и тем более ошибочными будут ее результаты со временем.

Кроме того, ChatGPT и другие управляемые решения часто оспариваются в суде из-за утверждений, что их создатели не имели законных прав на данные, на которых обучались эти модели. Во многих случаях это, вероятно, так и есть.

Помимо стоимости и производительности, этот фактор, вероятно, повлияет на долгосрочные планы внедрения проприетарных моделей — особенно в высокорегулируемых отраслях, — но серьезность этого влияния остается неопределенной. Конечно, проприетарные модели тоже не дремлют.

Их поставщики уже агрессивно снижают цены, чтобы стимулировать спрос. Такие модели, как ChatGPT, уже снизили цены примерно на 50% и рассчитывают снизить их еще на 50% в ближайшие шесть месяцев. Такое сокращение расходов может стать крайне необходимым подспорьем для B2C-компаний, надеющихся конкурировать в гонке ИИ-вооружений.

#4. Подъем стека неструктурированных данных

Идея использования неструктурированных данных в производстве отнюдь не нова, но в эпоху ИИ неструктурированные данные приобретают совершенно новую роль.

Согласно IDC, организации анализируют только около половины своих неструктурированных данных.

В 2025 г. все изменится.

Успех корпоративного ИИ зависит главным образом от разнообразия неструктурированных данных, используемых для его обучения, тонкой настройки и дополнения. По мере того как все больше организаций стремятся внедрить ИИ для корпоративного использования, энтузиазм в отношении неструктурированных данных и развивающегося «стека неструктурированных данных» также будет расти.

Некоторые команды даже изучают возможности использования дополнительных LLM для структурирования неструктурированных данных и повышения их полезности в дополнительных сценариях обучения и аналитики.

Определение того, какие неструктурированные данные организация собирает по своим каналам и как вы можете потенциально активировать эти данные для ваших заинтересованных сторон, — это новая возможность для руководителей в области данных, которые хотят продемонстрировать бизнес-ценность своей платформы данных (и получить дополнительный бюджет на приоритетные инициативы).

Из этого списка ясно одно: технологические лидеры не просто выявляют пробелы, но и обнаруживают серьезные преимущества. С наступлением нового года усилится внедрение стандартов и лучших ИИ-практик.

В 2025 г. приоритетами станут процессы, ценность и масштабируемость. В 2026-м мы будем обсуждать только те технологии, которые выполнят эти ожидания.