Für ein anspruchsvolles Projekt bauen wir ein Human Red Team auf – bestehend aus erfahrenen Freelancern, die KI-Systeme gezielt unter realistischen, adversarialen Bedingungen testen. Ziel ist es, Schwachstellen sichtbar zu machen, Risiken zu klassifizieren und hochwertige Human-Daten zu erzeugen, mit denen KI-Modelle sicherer, robuster und vertrauenswürdiger werden.
Deine Aufgaben
- Aktives Red Teaming von Conversational-AI-Systemen und Agenten
(z. B. Jailbreaks, Prompt Injection, Missbrauchsszenarien, Bias-Ausnutzung, Multi-Turn-Manipulation) - Identifikation und Dokumentation von Modellfehlern, Schwachstellen und systemischen Risiken
- Strukturierte Annotation von Fehlverhalten anhand vorgegebener Taxonomien, Benchmarks und Test-Playbooks
- Erstellung reproduzierbarer Artefakte wie Berichte, Datensätze und Angriffsszenarien
- Klare Dokumentation von Risiken, sodass Kunden konkrete Maßnahmen ableiten können
Wen wir suchen
Du bist eine analytische, neugierige Persönlichkeit mit Freude daran, Systeme an ihre Grenzen zu bringen – nicht zufällig, sondern methodisch.
Du passt ideal, wenn du:
- Erfahrung im Red Teaming, adversarialer KI-Arbeit, Cybersecurity oder socio-technischer Analyse mitbringst
- Denkst wie ein Angreifer, aber arbeitest wie ein Ingenieur
- Strukturierte Vorgehensweisen, Frameworks oder Benchmarks nutzt
- Risiken verständlich und klar kommunizieren kannst – auch für nicht-technische Stakeholder
- Flexibel bist und gerne projektübergreifend arbeitest
👉 Bereit, KI aus der Perspektive eines Angreifers sicherer zu machen?
Dann bewirb dich als Freelancer und werde Teil eines hochspezialisierten Red Teams, das dort testet, wo es wirklich zählt.
Online-Bewerbung
Im nächsten Schritt kannst du dich direkt für diese Stellenanzeige bewerben und wir zeigen dir weitere hierzu passende Stellenangebote aus unserem Portfolio an.

