Für ein anspruchsvolles Projekt bauen wir ein Human Red Team auf – bestehend aus erfahrenen Freelancern, die KI-Systeme gezielt unter realistischen, adversarialen Bedingungen testen. Ziel ist es, Schwachstellen sichtbar zu machen, Risiken zu klassifizieren und hochwertige Human-Daten zu erzeugen, mit denen KI-Modelle sicherer, robuster und vertrauenswürdiger werden.
Deine Aufgaben
- Identifikation und Dokumentation von Modellfehlern, Schwachstellen und systemischen Risiken
- Strukturierte Annotation von Fehlverhalten anhand vorgegebener Taxonomien, Benchmarks und Test-Playbooks
- Erstellung reproduzierbarer Berichte, Datensätze und Angriffsszenarien
- Klare Dokumentation von Risiken, sodass Kunden konkrete Maßnahmen ableiten können
Wen wir suchen
Du bist eine analytische, neugierige Persönlichkeit mit Freude daran, Systeme an ihre Grenzen zu bringen – nicht zufällig, sondern methodisch.
Du passt ideal, wenn du:
- Erfahrung im Red Teaming, adversarialer KI-Arbeit, Cybersecurity oder socio-technischer Analyse mitbringst
- Denkst wie ein Angreifer, aber arbeitest wie ein Ingenieur
- Strukturierte Vorgehensweisen, Frameworks oder Benchmarks nutzt
- Risiken verständlich und klar kommunizieren kannst – auch für nicht-technische Stakeholder
- Flexibel bist und gerne projektübergreifend arbeitest
Besonders willkommen (kein Muss)
- Erfahrung mit Adversarial ML (z. B. Jailbreak-Datasets, Prompt Injection, RLHF/DPO-Angriffe)
- Hintergrund in Cybersecurity (Pentesting, Exploit-Entwicklung, Reverse Engineering)
- Erfahrung mit Desinformation, Missbrauchsanalysen oder Conversational-AI-Tests
- Kreative Perspektiven aus Psychologie, Schreiben, Schauspiel oder UX, um unkonventionelle Angriffsszenarien zu entwickeln
Arbeitsweise & Rahmen
- 100 % textbasierte Arbeit, vollständig remote
- Projektbasierte, freiberufliche Zusammenarbeit
- Sensible Inhalte (z. B. Bias, Desinformation) werden vorab transparent kommuniziert
- Teilnahme an höher-sensiblen Projekten ist freiwillig
- Klare Richtlinien, strukturierte Prozesse und unterstützende Ressourcen stehen zur Verfügung
Was Erfolg in dieser Rolle bedeutet
- Du findest Schwachstellen, die automatisierte Tests übersehen
- Deine Arbeit führt zu reproduzierbaren, verwertbaren Ergebnissen
- Die Abdeckung realer Risikoszenarien wächst – Überraschungen in der Produktion sinken
- Mercor-Kunden vertrauen ihren KI-Systemen, weil du sie bereits wie ein echter Angreifer getestet hast
👉 Bereit, KI aus der Perspektive eines Angreifers sicherer zu machen?
Dann bewirb dich als Freelancer bei Mercor und werde Teil eines hochspezialisierten Red Teams, das dort testet, wo es wirklich zählt.

