Mastering Large Language Models: Chancen nutzen, Risiken managen
Sicherheit in der Entwicklung und Nutzung großer Sprachmodelle - Intensivkurs
Erhalten Sie ein umfassendes Verständnis von großen Sprachmodellen (LLMs) und lernen Sie, gängige Sicherheitsrisiken zu erkennen und zu vermeiden. Unser Intensivkurs vermittelt Ihnen Wissen über die Entwicklung und die kritischen Sicherheitsherausforderungen von LLMs. Durch zahlreiche praktische Übungen erlangen Sie Fähigkeiten in der Erstellung von LLM-Anwendungen, fortgeschrittene Techniken wie Prompt Engineering und RAG sowie in der Analyse von Sicherheitsrisiken gemäß den OWASP Top 10 LLM-Risiken. Entwickeln Sie Strategien gegen Bedrohungen wie Prompt Injection und Model Theft und integrieren Sie Sicherheitsanalysen in industrielle Praktiken.
Die Herausforderung
Komplexe LLM-Anwendungen bringen neue Sicherheitsrisiken mit sich.
Die zunehmende Nutzung von großen Sprachmodellen (LLMs) in verschiedenen Anwendungen und Unternehmensbereichen bringt erhebliche Sicherheitsherausforderungen mit sich. LLMs sind technisch komplex und in ihrer Funktionsweise nicht vollständig zu erfassen. Die Implementierung und Anpassung dieser Modelle für spezifische Anwendungen erfordert umfassende Kenntnisse von Werkzeugen wie die HuggingFace Transformer Bibliotheken und Techniken wie RAG, LoRA, PEFT etc.
LLM-basierte Anwendungen sind anfällig für spezifische Angriffe wie Prompt Injection und Model Theft sowie weitere Risiken, die u.a. in den OWASP Top 10 LLM-Risiken dargestellt werden. Sicherheitsexpert*innen und -experten, Entwicklerinnen und Entwickler sowie Datenwissenschaftlerinnen und Datenwissenschaftler sollten in der Lage sein, Risiken, die mit der Nutzung von LLMs einhergehen zu erkennen und passende Sicherheitsstrategien zu entwickeln und umzusetzen.
Die Lösung
Sichere Anpassung und Verwendung von LLM-Anwendungen im Geschäftsumfeld.
In diesem Intensivkurs erlangen Sie fundiertes Wissen über die Grundlagen und Architekturen von LLMs. Anhand praktischer Beispiele üben und erlernen Sie Techniken für die Implementierung, Anpassung und Integration von LLM-Anwendungen mit Modellen und Werkzeugen aus der Open-Source-Community. So verstehen Sie die Sicherheitsaspekte von LLM-Anwendungen von Grund auf.
Sie werden geschult, Sicherheitsrisiken anhand der OWASP Top 10 LLM-Risiken zu analysieren und entwickeln Strategien gegen Bedrohungen wie Prompt Injection und Model Theft. Die Weiterbildung vermittelt Ihnen praktische Grundlagen, um LLM-Anwendungen und -modelle effizient auf ihre Sicherheitseigenschaften hin zu bewerten. Außerdem werden die Sicherheitsanalysen systematisch in industrierelevante Praktiken und Prozesse wie DevOps und MLOps eingebettet.
Ihre Vorteile auf einen Blick
Nach dem Seminar können Sie...
- Sicherheitsrisiken in LLM-basierten Anwendungen analysieren,bewerten und vermeiden,
- Strategien gegen Bedrohungen wie Prompt Injection entwickeln
- LLM-Modelle effizient bewerten und optimieren.
Dieses Seminar bietet Ihnen...
- Fundierte Kenntnisse über LLM Grundlagen und deren Entwicklung
- Praktische Erfahrungen in der Implementierung und Anpassung von LLM Anwendungen
- Intensive Betreuung bei Programmieraufgaben
- Verwendung von OSS Software und freien Modellen
- Systematische Anwendung auf industrierelevante Praktiken und Prozesse wie DevOps und MLOps
Details
Inhalte:
- LLM-Grundlagen
- Aufbau einer LLM-Anwendung (Einführung in Transformer-Architekturen, Huggingface, Gradio)
- Erweitern von Standard-LLMs (Techniken zur Verbesserung für spezifische Anwendungen)
- Bewertungsmetriken (Überblick und Anwendung)
- Vom Prototyp zur Produktion: MLOps
- Sicherheitsaspekte von LLM-basierten Anwendungen
- OWASP Top 10 Risiken für LLM-Anwendungen
Lernziele:
- Sie können die Entwicklung von LLMs im zeitlichen Kontext einordnen und die wichtigsten Akteure im Bereich der künstlichen Intelligenz benennen.
- Sie können die fundamentalen Konzepte und Architekturen von/für LLMs erklären.
- Sie verstehen die Prinzipien und praktischen Grundlagen für das Training von Modellen, Fine-tuning und den Betrieb von Open Source LLMs.
- Sie können eine sichere Übungsumgebung (Virtual Desktop/Jupyter) erstellen und konfigurieren, um LLM-Modelle effizient zu testen
- Sie können eine LLM-Anwendung unter Verwendung von Transformers, Huggingface und Gradio implementieren.
- Sie können Techniken zur Verbesserung standardmäßiger LLMs für spezifische Anwendungen anwenden und optimieren.
- Sie können Sicherheitsrisiken in LLM-basierten Anwendungen anhand der OWASP Top 10 analysieren und bewerten.
- Sie können Sicherheitsstrategien gegen Bedrohungen wie Prompt Injection und Model Theft entwickeln und implementieren.
Zielgruppe:
- Datenwissenschaftler*innen
- Softwareentwickler*innen und Sicherheitsexpert*innen mit praktischen Grundwissen im Maschinellen Lernen
Voraussetzungen für Teilnahme am Seminar:
- Programmiererfahrung mit Python
- Grundlegende Kenntnisse im Maschinellen Lernen
Referenten:
Dorian Knoblauch (dorian.knoblauch@fokus.fraunhofer.de)
- >5 Jahre Berufserfahrung im Bereich ML
- Wiss. Publikationen zu Forschungs-themen mit Fokus auf ML, Auditierung- und Prüfung von KI und Security
- Trainer in der Fraunhofer Academy mit Schwerpunkt ML, Security und Testen
Paul Ranly (paul.ranly@sit.fraunhofer.de)
- Forschungsarbeiten/Publikationen in den Bereichen ML, NLP und LLMs
- Trainer in der Fraunhofer Academy (TSS 2024)
Lukas Graner (lukas.graner@sit.fraunhofer.de)
- >5 Jahre Berufserfahrung im Bereich ML
- Wiss. Publikationen zu Forschungs-themen mit Fokus auf ML, Bild-verarbeitung, Privacy und NLP z.B. Autorschaftsverifikation, LLMs
- Gutachtentätigkeit zur Autorschaftsverifikation und Detektion von KI-generierten Texten
- Trainer in der Fraunhofer Academy (u.a. für TSS 2022-2024)
Bitte um Kontaktaufnahme
Kontaktieren Sie uns für ein Beratungsgespräch oder für ein individuelles Angebot telefonisch oder per Mail. Wir werden uns dann umgehend mit Ihnen in Verbindung setzen.