День, когда говорят инженеры
Офлайн/Онлайн
10 декабря
г. Москва
Письмо со ссылкой на трансляцию придет на ваш e-mail за час до начала события
Адрес будет доступен после подтверждения регистрации
Места ограничены
AI-карьера в Сбере: консультации, открытые позиции, знакомство с командами
Карьерная зона
Практика с инженерами Сбера — бери ноутбук и включайся
Воркшопы
Демо-стенды и постерные сессии от команд Сбера
«Гига Город»
Тех-доклады команд GigaChat, Kandinsky, GigaData
Главная сцена
Что такое «Салют, Гига!»
«Салют, Гига!» — пространство для тех, кто создает, обучает и запускает AI в прод.

Весь день будем говорить про технологии, исследования и людей, которые делают искусственный интеллект в Сбере.
Программа
Большая сцена
Малая сцена
Постерные сессии
Эльдар Дамиров, Дарья Хомич
Расскажем, как мы создали reasoning-модель: пайплайн генерации данных, продуктовые требования и другие аспекты.
Reasoning Pro или рассуждения, которые помогают
GigaChat Prod Data
Игорь Карпиков
Постер об обучении Scaling Laws для предсказания batch size и learning rate при обучении больших MoE-моделей. Расскажем, какие нововведения внесла наша команда в стандартный пайплайн обучения Scaling Laws, и к каким результатам это привело.
Законы скейлинга с поправкой на время обучения
GigaChat Pretrain
Станислав Жбанников
Расскажем подробно, как обрабатывать случаи сильного дисбаланса распределения токенов по экспертам, а также покажем, как это влияет на качество.
Почему drop токенов сложнее чем кажется
GigaChat Pretrain
Валентин Мамедов, Никита Ермолаев
Постер по мотивам выступления на основной сцене, чтобы обсудить отдельные моменты подробнее и в более спокойной обстановке.
Независимость весов GigaChat Ultra и стабилизация обучения
GigaChat Pretrain
Антон Белецкий
Расскажем, как мы добавляли продвинутые режимы Fill-In-the-Middle в наши модели: зачем это нужно, какие проблемы возникали у наивной реализации и как все работает сейчас.
Улушаем понимание кода через sFIM
GigaChat Pretrain
Арсений Полюбин, Евгений Гуров
Расскажем о различных факторах, влияющих на обучение в онлайн RL: точность обучения, формат инференса, домены, шедулеры и другие аспекты.
Влияние различных факторов на RL
GigaChat RL
Евгения Никишкина
Расскажем о различных стратегиях балансирующих лоссов в MoE-моделях, нашем опыте и внесенных улучшениях.
Многозадачный core-embedder для системы аналитики обращений в колл-центр
GigaChat Pretrain
Артем Черепанов
Расскажем о современных подходах в онлайн RL: обзор методов и эксперименты.
Beyond GRPO: Modern Loss Formulation and Training
GigaChat RL
Кирилл Семин
Расскажем о сборе данных, архитектуре модели, пайплайне обучения и метриках качества для обработки мультимодальных диалогов (текст, изображения, звук) — production-модель. Также поговорим о MVP-модели для видео и аудио.
GigaChat Omni-Input
GigaChat Audio
Олег Кутузов, Александр Максименко
Покажем и расскажем об улучшениях в новой версии модели GigaChat-Audio: изменения в стадиях обучения (AudioLLM-pretrain, AudioLLM-targeted SSL), улучшение данных, многоязычность и рост метрик.
GigaChat Max Audio 2.0: Next-Gen Audio Understanding
GigaChat Audio
Никита Ноев
Продемонстрируем пайплайн распознавания речи по спикерам в SaluteSpeech.
Speaker-Attributed ASR
ASR
Денис Родионов, Андрей Сапожников
Продемонстрируем мультимодальный подход в определении конца запроса (End of Utterance), который снижает задержку на 25% по сравнению с «audio-only» подходом.
Multimodal EoU Model for assistance domain speech recognition
ASR
Александр Куцаков, Мария Садовина
Покажем и расскажем, как мы работали с temporal grounding для GigaChat Audio: Q&A с вопросами по времени и суммаризация с таймстемпами. Продемонстрируем сбор данных, фильтрацию, архитектурные решения, обсудим трудности и финальное качество.
GigaChat Audio Timings
GigaChat Audio
Андрей Кузьменко
Продемонстрируем пайплайн разработки систем распознавания речи при ограниченных объемах обучающих данных, особая ценность которого проявляется при работе с иностранными языками. В качестве примера возьмём киргизский.
Low resource ASR
ASR
Юрий Федоров
Расскажем о функции долговременной памяти в GigaChat.
Долговременная память в GigaChat
GigaChat Prod
Денис Маликов
B2C-функции: как они реализованы и как происходит взаимодействие.
Расширем возможности Гигачата: пользовательские функции на проде
GigaChat Prod Data
Светлана Лундина, Павел Филимонов, Владимир Карлов
Расскажем про подготовку данных для нового TTS.
Пайплайны подготовки данных для TTS
GigaChat Prod
Артемий Захаров
Расскажем, как мы генерировали и валидировали новые задачи по физике.
Генерация задач по физике
GigaChat Pretrain Data
Никита Жуковский
Покажем, что добавление логических задачек (судоку и др.) повышает метрики на основных бенчмарках.
Генерация логических задачек
GigaChat Pretrain Data
Данил Сахаров
Расскажем, как превратить LLM в автора задач и строгого судью: короткий рецепт сквозной генерации, автопроверки и надежного отбора синтетических данных по программированию.
SynthContest+: генерация и валидация датасета по олимпиадному программированию
GigaChat Pretrain Data
Вячеслав Чуб, Арсен Закарян
Расскажем, как качественно перевести датасеты с инструкциями на примере задач по математике.
LLM перевод для pretrain
GigaChat Pretrain Data
Айнур Исрафилова, Анастасия Казакова
Покажем, как два подхода — фильтрация негативных классов и retrieval-ориентированный отбор релевантных текстов — позволяют повысить метрики модели на основных бенчмарках.
Data Quality для LLM: от фильтрации до RAG-отбора
GigaChat Pretrain Data
Максим Савинов
Подробно расскажем и нарисуем наши пайплайны обработки данных, YT + AirFlow.
Инфраструктура обработки данных на YT
GigaChat Pretrain Data
Макар Корчагин, Григорий Кирюхов
Расскажем о подходе к генерации инструктивных синтетических данных для разных доменов.
UltraPipe — пайплайн генерации Mid/Post-Train мультимодальных данных
GigaChat Prod Data
Роман Власов
Покажем, что нужно сделать, чтобы GigaChat Audio заговорил.
End2end модель для голосового режима в GigaChat
GigaChat TTS
Никита Карагодин
Покажем, как мы сделали клонирование голосов, представим метрики и дадим послушать примеры — наши и 11лабс.
Клонирование речи на GigaTTS
GigaChat TTS
Евгений Лагутин, Александра Сендерович
Постер с описанием нашего нового синтеза, основными буллетами и картинками.
Архитектура нового синтеза речи
GigaChat TTS
Артём Хайдаров, Артём Соколов
Расскажем о нашем Web SDK для SpeechEnhancement.
Spench Web SDK
GigaChat Audio
Артем Хорошев
Расскажем, как запускать распределенные огромные MoE для эффективной утилизации ресурсов и поддержания высокой производительности кластера.
Ultra Inference
GigaChat Runtime
Андрей Шуткин, Денис Пархоменко
Расскажем о задаче токенизации медиа и о том, как мы создали лучший в мире токенизатор KVAE 1.0.
KVAE. Новое семейство токенизаторов.
Kandinsky
Владимир Корвяков
Расскажем, как мы разработали и применили метод разреженного внимания NABLA (Neighborhood Adaptive Block-Level Attention) для ускорения инференса и обучения Kandinsky 5 Video.
Метод NABLA для ускорения обучения и инференса генерации видео в Kandinsky 5
Kandinsky
Егор Колодин
Расскажем, как мы обучаем open-source GigaEmbeddings.
GigaEmbeddings — Efficient Russian Language Embedding Model
GigaChat
Владимир Кондратенко, Всеволод Пискунов
Расскажем о модели-эмбеддере в нашей системе аналитики SaluteSpeech Insights: зачем мы ее создали, с какими трудностями столкнулись и какие задачи решаем. Покажем ценность — интересные приложения и уникальный пайплайн генерации данных для обучения модели: мы полностью генерируем данные и умно очищаем их с помощью LLM.
Многозадачный core-embedder для системы аналитики обращений в колл-центр
GigaChat Audio
Александр Варламов, Никита Киселев
Что следует за стандартным предобучением диффузионных моделей: SFT и RLHF этапы обучения Kandinsky 5.0 Image.
Kandinsky 5.0 Image Post-Train
Kandinsky
Григорий Фельдман
Расскажем, как адаптировали модели GigaVision для нужд робототехники.
GigaVision на службе робототехники
GigaVision
Елена Погорелова, Григорий Фельдман
Расскажем, как мы с нуля построили систему anomaly detection на конвейере для проверки качества сборки телевизоров.
Computer Vision на страже качества: автоматический контроль сборки телевизоров
GigaChat Vision
Инженерам инфраструктуры и data-специалистам, работающим с нагрузками, пайплайнами и продакшеном
Исследователям и лидам AI-проектов, которым важны подходы и данные из первых рук
Middle и Senior разработчикам, ML-инженерам и тем, кто живет в коде
Что ждёт на конференции?
Команды GigaChat, Kandinsky и другие направления Сбера покажут, как рождаются масштабные AI-системы — от первых прототипов до решений, которыми пользуются миллионы.

Доклады, постеры, демо-стенды и воркшопы: ты сможешь увидеть технологии в действии, задать вопросы напрямую командам, протестировать модели и обсудить архитектурные решения. В «Гига Городе» тебя ждут задачи, с которыми сталкиваются инженеры Сбера и подходы, которые работают на продакшене.

Когда ивент пройдет, ты останешься с ощущением, что технологии — это не просто инструменты, а пространство для экспериментов, решений и идей, которые двигают AI вперед.
Кому будет интересно?
Доклад посвящен современным моделям генерации изображений, видео и синхронного аудио.

Мы разберем ключевые принципы работы диффузионных моделей, их преимущества и ограничения, обсудим современные архитектуры text-to-image и text-to-video систем, а также типичные сложности обучения и оценки качества таких моделей.

Отдельный блок посвятим новой линейке Kandinsky-5: подходам к обучению, сбору и фильтрации данных.

Также поговорим о связи text-to-video с моделями мира и рассмотрим прикладные сценарии использования генеративных моделей сегодня и в ближайшем будущем.
О чем доклад
Создатель и руководитель разработки линейки моделей Kandinsky, Kandinsky
Денис Димитров
CTO платформы искусственного интеллекта GigaPlatform
Фёдор Минькин
Старший управляющий директор-директор департамента ИИ-платформы и моделей
Андрей Карлов
Расскажем о том, как мы обучали GigaTTS: про данные, архитектуру и ключевые особенности.

Покажем примеры и метрики, а также анонсируем end-to-end multimodal GigaChat.
О чем доклад
Руководитель команды данных TTS и Speech2Speech, GigaChat
Владимир Карлов
Лид команды синтеза речи, GigaChat
Гриша Стерлинг
Расскажем про обучение GigaAM-v3: как удалось улучшить качество и сделать ее end-to-end с поддержкой нормализации текста.
О чем доклад
ML инженер, GigaChat
Александр Куцаков
В докладе представим сервис потоковой LLM-аналитики на платформе GigaLytics: какие бизнес-задачи он решает, как устроен и какие результаты уже показывает.

Покажем примеры применения — от анализа диалогов и отзывов клиентов до генерации синтетических данных — и поделимся основными выводами из внедрения.
О чем доклад
Старший бизнес-аналитик, GigaData
Григорий Букия
Старший руководитель проекта, GigaData
Евгений Семенюк
В докладе расскажем, как и зачем мы используем разметку данных в поисковом сервисе GigaSearch.

Покажем основные типы разметочных проектов и процесс запуска нового задания.

Сравним Я. Задания и TagMe по качеству, скорости и стоимости, обсудим автоматический контроль качества и то, как обученные модели помогают оптимизировать бюджет.

Завершим обзором областей, где люди все еще превосходят авторазметку.
О чем доклад
Лид ML инженер, GigaData
Ян Власов
Расскажем про путь, который мы прошли, чтобы обучить сильнейшую модель GigaChat Ultra.
О чем доклад
Старший ML инженер, GigaChat
Никита Ермолаев
Лид ML инженер, GigaChat
Валентин Мамедов
Расскажем об инфраструктуре экспериментов и генерации синтетических данных: новый CPU-кластер на десятки тысяч ядер для подготовки данных, разные типы синтетики, алгоритмические задачи и сотни экспериментов по валидации данных.
О чем доклад
Руководитель Synthetic Data, GigaChat
Дмитрий Козлов
Pretrain Data Pipelines Lead, GigaChat
Валерий Березовский
Доклад о том, как мы делали агентный SDK для GigaChat на базе LangChain, получили санкционный бан, но выжили и вошли в топ‑2% всех библиотек в мире по скачиваниям с PyPI.

В конце покажем продвинутый пример агента с открытым исходным кодом, созданного на нашем стеке — GigaAgent.

Расскажем, что он умеет и как его использовать для решения своих задач.
О чем доклад
Техлид проекта GigaChain
Константин Крестников
Расскажем про сервис GigaSearch, который обеспечивает LLM доступ к внешним данным.

Разберем архитектуру, сравним наше API с конкурентами и покажем результаты по ключевым метрикам качества в сравнении с известными поисковиками для LLM.
О чем доклад
Лид команды GigaSearch
Валерия Гурьянова
Расскажем, почему поиск в LLM важен, и какие задачи мы решили на пути к идеальному поисковому агенту.

Покажем, как GigaChat Ultra выжимает максимум из любого RAG‑индекса, кто ему в этом помогает, и как вы можете использовать это уже сейчас.
О чем доклад
LLM B2C&Domain Search Lead
София Солдатова
LLM Search Toolkit Lead
Анатолий Анисимов
Расскажем про Модели Мира (World Models), текущие SoTA, их проблемы, зачем они нужны и как будем строить модель мира на базе Kandinsky.
О чем доклад
Тимлид группы Kandinsky World Model
Андрей Иванюта
Расскажем, как мы готовили обучающий датасет для pretrain‑моделей Kandinsky, с какими вызовами столкнулись и какие подходы оказались наиболее эффективными.
О чем доклад
Руководитель команды исследований больших данных
Иван Кириллов
Расскажем об инфраструктуре, архитектуре модели, пайплайне обучения, сборе инструктивного датасета и пайплайне RL — с инженерной точки зрения.
О чем доклад
Лид команды Kandinsky Pretrain
Владимир Архипкин
Доклад о Post‑Train Kandinsky (SFT & RLHF), сборе данных и процедуре обучения.
О чем доклад
Post-Train & Production Lead Kandinsky
Николай Герасименко
Расскажем про многоэтапный пайплайн дистилляции Kandinsky 5.0 и о том, как мы ускорили модель в 6 раз.
О чем доклад
Руководитель направления по исследованию данных
Лев Новицкий
Расскажем, почему поиск в LLM важен, и какие задачи мы решили на пути к идеальному поисковому агенту.

Покажем, как GigaChat Ultra выжимает максимум из любого RAG‑индекса, кто ему в этом помогает, и как вы можете использовать это уже сейчас.
О чем доклад
GigaChat Data Disrupt Lead
Эльдар Дамиров
GigaChat Reasoning&Tool Use Lead
Даша Хомич
GigaChat RL Team lead
Александр Прошунин
Покажем, как вырастить ML‑команду, которая масштабируется сама: через автономное развитие людей, обмен знаниями, оптимизацию процессов (CI/CD, стандартизация) и развитие инфраструктуры (ключевое — модульность и переиспользование).

Результат — единая инфраструктура для обучения всех моделей Гига, сквозной пайплайн, где улучшения (архитектура, данные, обучение) мгновенно распространяются на все модели, а единые автометрики и фидбэк‑циклы позволяют системе расти и оптимизироваться самостоятельно.
О чем доклад
Руководитель команды претрейна GigaChat
Евгений Косарев
Лучшие агентные практики.
Тема
Техлид проекта GigaChain
Константин Крестников
Расскажем о дообучении моделей генерации изображений и видео для персонализации и добавления новых сущностей.

В формате лайв‑кодинга подготовим датасет, соберем все необходимое для обучения и сгенерируем контент с новой сущностью.
Тема
ML Research Engineer
Никита Киселев
Расскажем и покажем, как модель умеет генерировать движения камеры «из коробки», а также как дообучить её на более редкие движения.
Тема
ML engineer
Анна Дмитриенко
© 2012–2025 JUG Ru Group
Реклама. ПАО Сбербанк. ИНН 7707083893. Erid 2RanyoHNTfx
Мы используем файлы cookies 🍪 — это улучшает работу сайта и делает его более эффективным. Продолжая использовать этот сайт, вы соглашаетесь с нашей политикой обработки данных
Принять