SicherheitENFreitag, 28. November 2025
Prompt Injection Through Poetry
Schneier on Security
Externe Quelle
Zusammenfassung
In a new paper, “Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models,” researchers found that turning LLM prompts into poetry resulted in jailbreaking the models...
Externer Artikel
Dieser Artikel stammt von Schneier on Security und wird dort gehostet. Wir verlinken lediglich auf externe Quellen und hosten keine Inhalte auf unseren Servern.