Назад
Как смотреть на работу аналитика данных глазами заказчика
Вебинар

Регистрация закрыта

Как смотреть на работу аналитика данных глазами заказчика
Научитесь создавать дашборды, которые бизнес действительно использует для принятия решений. 15 сентября — открытый урок «Как смотреть на работу аналитика данных глазами заказчика». Вы получите уникальный взгляд на профессию: поймёте, какие данные нужны бизнесу, как их представить и какие ошибки чаще всего делают аналитики. Вас ждёт практический кейс: от постановки задачи до реализации дашборда с комментариями эксперта.
Как смотреть на работу аналитика данных глазами заказчика
Вебинар
  • 15/09/2025

    20:00 (UTC+03:00) Мск

    15/09/2025

    21:00 (UTC+03:00) Мск

  • Онлайн
  • Бесплатно

Анонс

Научитесь создавать дашборды, которые бизнес действительно использует для принятия решений. 15 сентября — открытый урок «Как смотреть на работу аналитика данных глазами заказчика». Вы получите уникальный взгляд на профессию: поймёте, какие данные нужны бизнесу, как их представить и какие ошибки чаще всего делают аналитики. Вас ждёт практический кейс: от постановки задачи до реализации дашборда с комментариями эксперта.

Место проведения

Участвуй также

Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
Вебинар
Бесплатно
Не словом, а кодом. Как организовать защиту LLM без потерь производительности?
Вебинар "Не словом, а кодом. Как организовать защиту LLM без потерь производительности?" состоится 31 июля 2025 года в 11:00 (мск). Генеративный ИИ и большие языковые модели (LLM) — это уже не технология будущего, а рабочий инструмент, меняющий бизнес-процессы. LLM пишут код, анализируют уязвимости и обрабатывают терабайты данных и чем больше отраслей, куда проникает технология — тем больше она интересна злоумышленникам. На вебинаре обсудим актуальное состояние законодательства в части защиты LLM и посмотрим на реальные угрозы, которые происходят уже сейчас: Prompt Injection и Jailbreak: как происходит эксфильтрация данных и обход защитных механизмов через специально сформированные промпты. Prompt Injection для отказа в обслуживании: как один запрос может исчерпать вычислительные ресурсы, вызвать деградацию сервиса и сжечь бюджеты на API. Небезопасная десериализация и атаки на MLOps-пайплайн: как уязвимости в инструментах загрузки моделей могут привести к выполнению произвольного кода. Состязательные возмущения (Adversarial Perturbations): Методы незаметного изменения входных данных для получения неверного или вредоносного вывода от модели. Внедрение бэкдоров: как происходит заражение модели и модификация архитектуры для создания скрытого контроля над моделью. Обязательности рассмотрим реальные технологии защиты, которые помогут вашему бизнесу быть устойчивее к атакам: Продвинутая валидация запросов/ответов Интерпретируемость (Interpretability) и прозрачность LLM Детекция аномалий и др. Необходимость защищать LLM уже реальность — регистрируйтесь.
31 июля 11:00
Онлайн