Skip to content
Applikationen

AI/LLM-Applikationen

Mit Large Language Modellen (LLMs) lassen sich die Anwendungen der Zukunft bauen. Ob intelligente Dokumentenverarbeitung, Chatbots oder maßgeschneiderte KI-Agenten. Testen Sie Ihre LLM-basierte Anwendung auf Schwachstellen.

Prüfumfang des Pentests

Bei diesem Penetrationstest untersuchen unsere Ethical Hacker Ihre LLM-Applikation auf Sicherheitsschwachstellen und Konfigurationsfehler.
Der Test kann bei Ihnen vor Ort oder von Remote aus stattfinden.

Beispielhafte Prüfobjekte:

LLM-Chatbot

Typische KI-basierte Chatbot-Systeme mit Knowledgebase via RAG-Pipeline

Dokumenten-Analyse

KI-Anwendungen mit OCR und Dokumenten-Verarbeitung

AI Content Creation

KI-Systeme zur Erzeugung von Inhalten (z.B. Bilder, Text, uvm.)

Custom App

Sie haben Ihre eigene KI-Anwendung mit speziellem Anwendungsfeld entwickelt?

8.5%

8,5% aller Prompts an KI-Systeme enthalten vertrauliche Daten ¹

45.77%

45,77% Dieser vertraulichen Prompts enthalten Kundendaten ¹

Penetrationstest von AI/LLM-Applikationen

Unser Vorgehen

Der hier vorgestellte AI-Pentest beinhaltet eine umfassende Sicherheitsanalyse Ihrer KI-Anwendungen, insbesondere von Systemen auf Basis von Large-Language-Modellen (LLMs). Der Fokus liegt dabei auf der Identifikation von Risiken, die sich aus der Interaktion zwischen Modell, Nutzereingaben, angebundenen Datenquellen sowie integrierten Systemen ergeben. Der Testumfang kann gezielt auf eine von Ihnen definierte Anwendung, API oder Infrastrukturkomponente eingegrenzt werden.

Wir testen das KI-System sowohl auf Infrastrukturebene (sämtliche erreichbaren Schnittstellen der Zielanwendung) als auch auf Anwendungsebene im Sinne eines AI Red Teamings. Dabei simulieren wir gezielt bösartige Prompts und manipulierte Eingaben, um potenzielle Schwachstellen im Verhalten des Modells sowie in der Verarbeitung und Weitergabe von Informationen aufzudecken.

Alle Tests umfassen eine strukturierte Analyse potenzieller Schwachstellen entlang der gesamten Verarbeitungskette – von Eingabeschnittstellen über APIs bis hin zu angebundenen Systemen und Diensten. Ergänzend dazu erfolgt auf Anwendungsebene eine tiefgehende Analyse des Modellverhaltens unter realistischen Angriffsbedingungen. Dazu zählen unter anderem Prompt Injection, Data Exfiltration, Model Manipulation, Output Filtering Bypass sowie die Überprüfung von Zugriffskontrollen und Systemgrenzen. Die Durchführung orientiert sich an etablierten Sicherheitsrichtlinien wie den OWASP Top 10 für LLM-Anwendungen sowie den aktuellen Leitfäden für Penetrationstests von Large-Language-Modellen des Expertenkreises KI-Sicherheit.

zulfugar-karimov-BlWbfrQrI5k-unsplash

Gerade im Kontext von heutigen, zunehmend KI-getriebenen, vernetzten Systemen spielt die Sicherheit eine essenzielle Rolle. Gleichzeitig ist vielen Anwendern und Verantwortlichen noch nicht vollständig bewusst, welche spezifischen Risiken und neuartigen Schwachstellen mit dem Einsatz von Large-Language-Modellen und vergleichbaren KI-Systemen einhergehen. Kontaktieren Sie uns für eine Analyse aus Expertensicht und werden Sie sich Ihrer Risken bewusst.

Standards und Qualifikationen

Wir berücksichtigen bei unseren Pentests alle internationalen und anerkannten Standards.

Unsere Penetrationstester sind hochqualifiziert und besitzen eine Vielzahl anerkannter Hacking-Zertifikate.