Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
Вебинар "Не словом, а кодом. Как организовать защиту LLM без потерь производительности?" состоится 31 июля 2025 года в 11:00 (мск).
Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология — тем больше она интересна злоумышленникам.
На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас:
Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты.
Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API.
Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода.
Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели.
Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью.
Обязательности рассмотрим реальные технологии защиты, которые помогут вашему бизнесу быть устойчивее к атакам:
Продвинутая валидация запросов/ответов
Интерпретируемость (Interpretability) и прозрачность LLM
Детекция аномалий и др.
Необходимость защищать LLM уже реальность — регистрируйтесь.