Видео
17 марта, 13:45
Обложка видео
Российский рынок генеративного ИИ

Гость интервью — старший вице-президент, руководитель блока «Технологическое развитие» Сбербанка Андрей Белевцев. Мы встретились с Андреем, чтобы обсудить возможности генеративного искусственного интеллекта для бизнеса, перспективы этой технологии и развитие нейросетевой модели GigaChat.

Описание материала
Теги

Ника Николаева, обозреватель:
— Андрей, здравствуйте.

Андрей Белевцев, старший вице-президент, руководитель блока «Технологическое развитие» Сбербанка:
— Добрый день.

— Андрей, давайте начнем с прогноза по рынку. Какие тенденции и перспективы развития российского рынка Gen AI, и считаете ли вы, что наши разработки конкурентоспособны по сравнению с западными аналогами на глобальном уровне?

— Знаете, рынок развивается очень бурно. За год количество активных пользователей выросло практически на порядок. Это видно. Видно, что компаниям это интересно, видно, что они находят для своих бизнес-процессов все новые и новые применения и сценарии. И, надо сказать, что большинство компаний проходят этот путь самостоятельно. Поэтому сценарии и области применения находятся самые интересные. Мы за многими из них следим и узнаем уже по факту, когда клиенты рассказывают о том, почему и как им помогает GigaChat. Если говорить про конкурентоспособность, то, безусловно, да. Но надо понимать, что это постоянная гонка, спорт высших достижений. Если сегодня ты выпустил модель, которая по какому-то набору метрик становится лучшей, будь уверен, пройдут недели, когда в мире точно появится кто-то, кто лучше и сильнее тебя. Поэтому здесь важно, наверное, другое. Важно оставаться в этой лидирующей группе, вкладывать в это большие усилия. Но для клиентов, для бизнес-заказчиков самое важное, что они могут надежно строить свой бизнес, опираясь на какого-то партнера, который всегда с ними, который никогда не прекратит предоставлять этот сервис. И к которому всегда можно обратиться за поддержкой, если у тебя что-то не получается, если у тебя что-то случилось, ты не понимаешь, что происходит. Ну или просто тебе нужна помощь в реализации какого-то более сложного кейса.

— Как раз говоря о сложностях, с какими вызовами сталкиваются разработчики и поставщики Gen AI в России сейчас?

— Я бы выделил три понятных направления, которые формируют наш рынок. С одной стороны, все знают про ряд моделей, которые являются сейчас основными и лидирующими моделями в рынке, большинство из них делают американские компании. Но они доступны через API, но только не из нашей страны. Поэтому те, кто хочет пробовать, они применяют всякие ухищрения, стараются это сделать. Это можно сделать. Но, честно говоря, строить свой бизнес на такого рода подпорках и костылях, на мой взгляд, достаточно рискованно.
Второе направление — это так называемые открытые модели, но тут надо подчеркнуть важное отличие. Когда мы говорим про программное обеспечение с открытым исходным кодом, то в целом весь исходный код этого программного обеспечения выложен. Если у тебя есть разработчики достаточной степени компетенции, квалификации, то ты действительно можешь собрать и, в общем, даже и развивать это решение самостоятельно.
Когда мы говорим про открытые модели, мы, действительно, можем иметь дело с открытым кодом модели. Но это только часть того, что тебе нужно. Ты можешь получить доступ к весам, то есть это результат обучения модели, ты можешь получить доступ к определенному коду. Но все больше распространяется тенденция, когда компании, выкладывая модели, на самом деле выкладывают не то же самое, что они дают использовать у себя в API.
И третья категория — это модели российские. Здесь мы, я считаю, имеем хороший конкурентный рынок, где каждый наш клиент может сравнить модели, в том числе используя сильные бенчмарки. Есть российские бенчмарки открытые, например, как MERA от «Альянса искусственного интеллекта», есть международные бенчмарки. Соответственно, у каждого клиента есть возможность самому попробовать, воспроизвести тесты, и принять решение, какая модель лучше ему подходит.

— Вы уже сказали, что среди российских компаний спрос на генеративный искусственный интеллект наблюдается. Насколько он велик? И считаете ли вы, что компании, которые еще не используют эту технологию, рискуют сильно отстать от конкурентов?

— Я думаю, что те, кто не используют, уже начинают сильно рисковать. Потому что все-таки время определенное прошло, мы уже больше двух лет живем в эпоху генеративного искусственного интеллекта. Поэтому, если вы еще не подумали об этом, не разобрались и не попробовали, вы уже начинаете отставать. Если говорить о том, что мы видим на рынке, порядка 15 тыс. компаний уже сегодня являются пользователями нашей модели GigaChat через облачный доступ, через API, и десятки компаний работают над on-premise инсталляциями, когда крупный заказчик хочет для работы с какими-то конфиденциальными данными, например, использовать модель на основе своей собственной инфраструктуры, развернутую в его дата-центре. Такую услугу мы тоже оказываем и такими проектами тоже занимаемся. Все больше и больше заказчиков ими интересуется.

— Давайте поговорим о конкретных кейсах. Где сейчас применяется GigaChat? Где больше всего спрос наблюдается?

— Мы видим большой спрос со стороны тех заказчиков, которые работают с обращениями клиентов, в самых разных областях. Это и электронная коммерция, это и телеком, и банкинг. Например, Альфа-банк, как ни странно, мы — «Сбер», они — Альфа-банк, вроде мы на одном рынке, но как технологические партнеры мы с ними очень хорошо работаем. Они используют GigaChat для работы с обращениями клиентов. И люди, обращающиеся на линию поддержки Альфа-банка, они как раз обращают внимание, что это стало гораздо более понятно, похоже на человека и гораздо более эмпатично, чем старые боты обслуживания, с которыми они сталкивались.
Мы видим много кейсов, связанных с различного рода поиском информации и товаров.

— Понятно, что GigaChat постоянно совершенствуется. А, если взять такой лаг полгода, что произошло за эти полгода с технологией, как она изменилась?

— Давайте посмотрим на наш последний забег, если хотите. Он чуть меньше, чем полгода. Я буду считать от релиза осенью нашей модели MAX. Мы на этой неделе выпустили целое семейство моделей, мы назвали уже все семейство GigaChat 2. Подчеркивая, что это очень большой шаг вперед с точки зрения развития навыков моделей. Это семейство содержит три модели. Самую большую модель MAX.Pro для наиболее часто распространенных задач. И Lite д ля задач, где важнее всего скорость, где она приоритетнее над общими знаниями. Скорость и стоимость.
Если говорить о том, что изменилось, то, по сути, по всем показателям модели нового семейства — они существенно опережают то, что раньше было представлено на рынке. Современная Lite модель работает на уровне знаний Pro предыдущей линейки. Новая Pro модель на уровне MAX предыдущей линейки. Ну а MAX 2 – это сильнейшая модель в русском языке. Мы провели замеры, подали данные на открытый бенчмарк MERA от «Альянса искусственного интеллекта». И, по данным открытого бенчмарка, это сейчас самая сильная модель. Мы впервые смогли превзойти актуальные модели семейства ChatGPT, GPT 4o. Это была сильнейшая модель раньше на MERA бенчмарке. И вот получилось, MAX 2 набирает больше баллов. Так что наша команда очень довольна этим результатом.
Кроме того, для пользователей важно, что контекст модели, а именно объем информации, которую можно за один запрос подать в модель, вырос в четыре раза. Теперь это 128+ тыс. токенов. Это примерно 200 страниц А4, документ можно за один раз обработать, и модель полностью будет видеть его в контексте. Это давно просили наши клиенты. Для многих профессиональных задач важно работать с документами большого объема. Чем больше модель видит за один раз в контексте, тем выше качество ответа. Поэтому мы специально расширили контекст. Теперь у всего семейства он стал 120 тысяч токенов – это достаточно много.
И с точки зрения экспертных знаний мы видим, что в целом ряде доменов, включая такие профессиональные, как, например, математика или код, модели семейства GigaChat 2 они лучше, чем их китайские аналоги. Это тоже можно каждому проверить, сравнить, посмотреть, насколько это подходит для ваших задач.

— На ваш взгляд, как будет развиваться генеративный искусственный интеллект в будущем? Вообще, это какой-то конечный процесс?

— Мы пока даже не знаем, куда мы придем в конце, но горизонты открываются самые потрясающие. Если говорить о, наверное, ближайших изменениях, то что мы будем видеть в этом году? Мы будем видеть все больше агентных систем, внедряемых как внутри бизнесов, для повышения эффективности бизнес-процессов, так и в клиентском взаимодействии. Агентность — это, конечно, без преувеличения ключевое слово 2025 года, и, может быть, 2026. Мы будем все больше и больше это видеть. Будем видеть новый пользовательский опыт, будем видеть повышение эффективности процессов. Второе направление, мы не останавливаемся по этому пути, это мультимодальность. Конечно, современная модель, как и человек, для того чтобы решать сложные задачи, должна работать не только с текстом. Все наше семейство моделей GigaChat уже работают с изображениями. И скоро мы покажем, как мы будем работать и с аудиомодальностями. Потому что, как и человек, вы хотите видеть, слышать и разговаривать.
Ну и третий тренд – это, конечно, продвинутые размышления. Все больше и больше систем для того, чтобы достигнуть целей, которые ставит пользователь, должны размышлять. Это решается разными способами. Как появлением ризонинг-моделей, которые размышляет сама модель, так и построением сложных мультиагентных систем, где размышляет не одна модель, а несколько агентов, использующих эти модели. Как будто люди собрались на мозговой штурм, и вместе обсуждают, вырабатывают какое-то решение, используют инструменты, пишут код, обращаются к документам, ищут в интернете. Конечно, за этими системами наше ближайшее будущее. А куда мы придем дальше — это увлекательное путешествие, будем смотреть.

— Летучки GigaChat.

— Да, вполне.

Все выпуски программы