LLM Security – Relevante Sicherheitsaspekte in Generative AI Projekten verstehen

LLM Security – Relevante Sicherheitsaspekte in Generative AI Projekten verstehen

Die Integration von Large Language Models (LLMs) in Ihre Anwendungen erfordert die Berücksichtigung neuer Sicherheitsaspekte. Wenn Sie Stakeholder in einem Generative AI-Projekt sind oder es bald werden, ist dieses kostenlose Webinar am 08. Oktober um 14 Uhr genau das Richtige für Sie. 

Unsere [at] Experten Constantin Sanders und Dustin Walker erklären Ihnen anhand praktischer Beispiele, welche neuen Angriffsvektoren existieren, wie diese Angriffe ablaufen und welche Risiken sie bergen. Zudem stellen sie Ihnen modernste Techniken vor, mit denen Sie Ihre (LLM)-Anwendung schützen können. Dabei liegt der Fokus auf den potenziellen Gefahren durch Prompt Injection und den missbräuchlichen Einsatz von LLMs. Des Weiteren zeigen Ihnen unsere Experten, wie Sie Ihre Anwendung wirksam schützen können. Ein besonderes Highlight ist der von [at] erstellte Entscheidungsbaum. Dieser unterstützt Sie dabei, schnell und effektiv zu ermitteln, welche Sicherheitsaspekte für Ihr spezifisches Projekt relevant sind. Mit diesem Tool können Sie gezielte Maßnahmen ergreifen und das Sicherheitsniveau Ihrer GenAI-Anwendungen deutlich erhöhen.

Melden Sie sich jetzt an, um zu erfahren, wie Sie LLM-Sicherheit in Ihrem Projekt erfolgreich umsetzen und so die Grundlage für sichere und leistungsfähige GenAI-Anwendungen schaffen.

Datum & Uhrzeit
Dienstag, 8. Oktober 2024
14:00 15:00 (Europe/Berlin)

Zum Kalender hinzufügen

Standort

Online

--Online--
--Online--

Wegbeschreibung

Organisator

Alexander Thamm GmbH

+49 89 30760880
contact@alexanderthamm.com
Teilen

Finden Sie heraus, was über diese Veranstaltung gesagt wird und beteiligen Sie sich am Gespräch.