Остается ли в тайне ваш диалог с LLM? Как использовать большие языковые модели безопасно!
Большие языковые модели уже помогают автоматизировать рутину, ускорять аналитику и расширять возможности сотрудников. Но вместе с пользой они приносят новые риски — от утечек конфиденциальных данных до проблем с соблюдением норм регулирования. Сейчас все больше инструментов, основанных на LLM, от чат ботов до полноценных AI IDE и важно знать, что могут сделать владельцы LLM с данными, которые они получают и как на это повлиять. На вебинаре вы узнаете: • Как работают политики популярных LLM (OpenAI, Claude, Perplexity, DeepSeek, Gigachat и др.) и чем они отличаются. • Разберем основные пункты политик конфиденциальности вендоров больших языков моделей и известные случаи утечки данных пользователей. • Что важно предусмотреть в корпоративных правилах использования ИИ. • Какие данные допустимо обрабатывать во внешних сервисах, а что должно оставаться внутри. • Какие шаги помогут снизить вероятность компрометации данных. • Как не превратить свою интеллектуальную собственность и конфиденциальную информацию в бесплатный обучающий датасет для ИИ? Вместе разберем реальные кейсы и сформируем план действий для безопасного внедрения LLM в компанию. По итогам вебинара вы получите шаблон политики безопасного использования LLM, соответствующий чеклист, а также иные практичные документы, помогающие выстраивать защиту при работе с большими языковыми моделями, развернутыми внутри или снаружи компании. Спикеры: Алексей Лукацкий, бизнес-консультант по информационной безопасности Positive Technologies Светлана Газизова, руководитель направления построения процесса безопасной разработки Андрей Яковлев, специалист отдела экспертизы MaxPatrol HCC
Большие языковые модели уже помогают автоматизировать рутину, ускорять аналитику и расширять возможности сотрудников. Но вместе с пользой они приносят новые риски — от утечек конфиденциальных данных до проблем с соблюдением норм регулирования. Сейчас все больше инструментов, основанных на LLM, от чат ботов до полноценных AI IDE и важно знать, что могут сделать владельцы LLM с данными, которые они получают и как на это повлиять. На вебинаре вы узнаете: • Как работают политики популярных LLM (OpenAI, Claude, Perplexity, DeepSeek, Gigachat и др.) и чем они отличаются. • Разберем основные пункты политик конфиденциальности вендоров больших языков моделей и известные случаи утечки данных пользователей. • Что важно предусмотреть в корпоративных правилах использования ИИ. • Какие данные допустимо обрабатывать во внешних сервисах, а что должно оставаться внутри. • Какие шаги помогут снизить вероятность компрометации данных. • Как не превратить свою интеллектуальную собственность и конфиденциальную информацию в бесплатный обучающий датасет для ИИ? Вместе разберем реальные кейсы и сформируем план действий для безопасного внедрения LLM в компанию. По итогам вебинара вы получите шаблон политики безопасного использования LLM, соответствующий чеклист, а также иные практичные документы, помогающие выстраивать защиту при работе с большими языковыми моделями, развернутыми внутри или снаружи компании. Спикеры: Алексей Лукацкий, бизнес-консультант по информационной безопасности Positive Technologies Светлана Газизова, руководитель направления построения процесса безопасной разработки Андрей Яковлев, специалист отдела экспертизы MaxPatrol HCC