SCHUTZWERK auf der Embedded Testing 2026: Von Jailbreaks zu Prompt Injections
Rückblick auf die Embedded Testing 2026: SCHUTZWERK-Vortrag zu Prompt Injections, Jailbreaks und Defense in Depth für AI-Anwendungen in Embedded Systems. Risiken erkennen, Sicherheitskonzepte umsetzen.
12. März, 2026

Rückblick auf die Konferenz
Die Embedded Testing Conference 2026 war eine gut organisierte Fachkonferenz mit klarem Fokus auf aktuelle Entwicklungen im Embedded-Bereich. Die Vorträge waren praxisnah, die Atmosphäre kollegial – eine gelungene Veranstaltung für den fachlichen Austausch.
Maximilian Heichler, Senior Security Consultant bei SCHUTZWERK, war als Speaker dabei und teilte seine Expertise zum Thema AI-Sicherheit. Sein Vortrag “Von Jailbreaks zu Prompt Injections” beleuchtete die Perspektive von Penetrationstestern auf Systeme mit Language und Prediction Models; ein Thema, das mit der zunehmenden AI-Integration in Embedded Systems an Bedeutung gewinnt.
AI durchdringt alle Bereiche der Technik
Von Large Language Models (LLMs) in Serverzentren bis zu Small Language Models (SLMs) auf Embedded Devices: AI-Technologien sind mittlerweile in vielen technischen Bereichen präsent. Diese Entwicklung bringt neue Sicherheitsherausforderungen für Hersteller von Cloud-Infrastrukturen ebenso wie für Embedded-System-Entwickler.
Embedded Tester, Security Consultants und Produktverantwortliche müssen die spezifischen Risiken von AI-Anwendungen verstehen. Klassische Sicherheitskonzepte müssen erweitert werden, um den nicht-deterministischen Charakter von AI-Systemen zu berücksichtigen.
Von Jailbreaks zu Prompt Injections: Neue Angriffsvektoren verstehen
Der Vortrag behandelte Systeme mit Language und Prediction Models aus Sicht der Angriffserkennung. Anhand des bekannten Szenarios “Jailbreak” wurde der neue Angriffsvektor “Prompt Injection” erklärt.
Was sind Prompt Injections?
Während Jailbreaks darauf abzielen, Sicherheitsmechanismen von AI-Modellen zu umgehen, nutzen Prompt Injections die Art und Weise aus, wie AI-Systeme Eingaben verarbeiten. Angreifer können durch geschickt formulierte Eingaben das Verhalten von AI-Anwendungen manipulieren.
Risiken und Verteidigungsmethoden
Der Vortrag beleuchtete konkrete Risiken:
- Manipulation von AI-gesteuerten Entscheidungen: Durch gezielte Eingaben können Angreifer das Verhalten von AI-Systemen beeinflussen
- Umgehung von Sicherheitsrichtlinien: AI-Modelle können dazu gebracht werden, gegen ihre eigenen Sicherheitsvorgaben zu verstoßen
- Defense in Depth: Durch Policy-Enforcement-Strukturen können Risiken minimiert werden
Als zentrale Verteidigungsmaßnahme wurde vorgestellt, wie Entwickler und Security-Verantwortliche ihre AI-Anwendungen durch mehrschichtige Sicherheitskonzepte schützen können.
Impulse für den Arbeitsalltag
Für Security Consultants und Embedded Tester ergeben sich daraus neue Anforderungen:
- Erweiterte Testmethoden: Klassische Penetrationstests müssen um AI-spezifische Angriffsszenarien ergänzt werden.
- Neue Bewertungskriterien: Die Sicherheit von AI-Anwendungen erfordert andere Metriken als traditionelle Software.
- DevSecOps-Integration: Security und Pentesting müssen Teil des Entwicklungsprozesses sein, kein nachgelagerter Schritt. Der neue Cyber Resilience Act (CRA) fordert dies explizit.
- Kontinuierliche Weiterbildung: Die schnelle Entwicklung im AI-Bereich macht regelmäßige Fortbildung unerlässlich.
SCHUTZWERK-Expertise in Embedded Systems und AI-Sicherheit
Als Senior Security Consultant bei SCHUTZWERK bringt Maximilian Heichler seit 2020 seine Expertise in den Bereichen Embedded Systems Security und Cloud Security ein. Seine Arbeit umfasst IoT-Technologien, Embedded Devices, Cloud-Systeme und AI-Anwendungen.
SCHUTZWERK unterstützt Hersteller und Entwickler bei der Sicherheit ihrer Produkte:
- Bedrohungs- und Risikoanalyse zur systematischen Bewertung von Sicherheitsrisiken
- Penetrationstests für Embedded Systems und AI-Anwendungen
- Embedded Security Assessments zur Identifizierung von Schwachstellen
- Cloud Security Assessments für Cloud-Infrastrukturen und -Anwendungen
Fazit: Eine gelungene Konferenz
Die Embedded Testing 2026 bot fachlich fundierte Vorträge in angenehmer Atmosphäre. Der persönliche Austausch in der Fachcommunity war wertvoll und hat Spaß gemacht.
Für SCHUTZWERK war es eine gute Gelegenheit, Expertise zu teilen und gleichzeitig von den Impulsen anderer Experten zu profitieren. Die Erkenntnisse zum Thema AI-Sicherheit fließen direkt in die tägliche Beratungsarbeit ein.
Interesse an AI-Sicherheit und Embedded Systems?
Wenn Sie Fragen zur Sicherheit von AI-Anwendungen oder Embedded Systems haben, kontaktieren Sie uns gerne für ein unverbindliches Gespräch. Unsere Experten unterstützen Sie bei der Bewertung und Absicherung Ihrer Produkte.
Weitere Informationen zu unseren Leistungen finden Sie auf unserer Website unter Embedded Security und Penetrationstests .