Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей [udemy] [Start-Tech Academy]

King

Администратор
5 Янв 2016
184.696
855.423
Складчина: Тестирование на проникновение моделей GenAI LLM: защита больших языковых моделей [udemy] [Start-Tech Academy]
Pentesting GenAI LLM models: Securing Large Language Models
Язык английский + аудио дорожка на русском языке (ИИ)



Чему вы научитесь:

Понимать уникальные уязвимости больших языковых моделей (LLM) в реальных приложениях.
Изучите основные концепции тестирования на проникновение и их применение в системах генеративного ИИ.
Освоите процесс Red Teaming для LLM, используя практические приемы и моделирование реальных атак.
Проанализируете, почему традиционные тесты не обеспечивают достаточной безопасности GenAI, и изучите более эффективные методы оценки.
Изучите основные уязвимости, такие как немедленная инъекция, галлюцинации, предвзятые реакции и многое другое.
Используете фреймворк MITRE ATT&CK для разработки тактики противодействия, направленной против LLM.
Выявите и устраните угрозы, характерные для конкретных моделей, такие как чрезмерное агентство, кража моделей и небезопасная обработка
Проведение и предоставление отчетов по результатам эксплуатации приложений на основе LLM
Учебная программа курса
9 разделов • 53 лекций • Общая продолжительность 3 ч 21 мин
1.Введение
2.Введение в LLM Security & Penetration Testing
3.Обзор уязвимостей LLM
4.Основы тестирования на проникновение и Red Teaming
5.Red Teaming для LLM
6.Стратегии отчетности и смягчения последствий
7.Структура MITRE ATT&CK для студентов LLM
8.Уязвимости приложений LLM
9.Заключение

Описание:
Red Teaming & Penetration Testing for LLMs — это тщательно структурированный курс, предназначенный для специалистов по безопасности, разработчиков ИИ и этичных хакеров, стремящихся защитить генеративные приложения ИИ. От основополагающих концепций безопасности LLM до продвинутых методов red teaming, этот курс снабжает вас как знаниями, так и практическими навыками для защиты систем LLM.

На протяжении всего курса вы будете заниматься практическими кейсами и моделированием атак, включая демонстрации по быстрому внедрению, раскрытию конфиденциальных данных, обработке галлюцинаций, отказу в обслуживании модели и небезопасному поведению плагина. Вы также научитесь использовать инструменты, процессы и фреймворки, такие как MITRE ATT&CK, для оценки рисков приложений ИИ структурированным образом.

К концу этого курса вы сможете выявлять и использовать уязвимости в программах LLM, а также разрабатывать стратегии смягчения последствий и отчетности, соответствующие отраслевым стандартам.
Оригинал описания:

Спойлер
Red Teaming & Penetration Testing for LLMs is a carefully structured course is designed for security professionals, AI developers, and ethical hackers aiming to secure generative AI applications. From foundational concepts in LLM security to advanced red teaming techniques, this course equips you with both the knowledge and actionable skills to protect LLM systems.

Throughout the course, you'll engage with practical case studies and attack simulations, including demonstrations on prompt injection, sensitive data disclosure, hallucination handling, model denial of service, and insecure plugin behavior. You'll also learn to use tools, processes, and frameworks like MITRE ATT&CK to assess AI application risks in a structured manner.

By the end of this course, you will be able to identify and exploit vulnerabilities in LLMs, and design mitigation and reporting strategies that align with industry standards.





СЛИВ СКЛАДЧИН
 

О нашем клубе SkladchikVIP.com

  • Привет!) SkladchikVIP.com, пожалуй, одно из крупнейших сообществ. Это клуб по заработку денег и обмену полезной информации. Самая большая база инфопродуктов рунета. Чтобы скачать любой материал на сайте, нужно зарегистрироваться.

Полезные ссылки

Меню пользователя