SicherheitENFreitag, 28. November 2025

Prompt Injection Through Poetry

Schneier on Security

Externe Quelle

Zusammenfassung

In a new paper, “Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models,” researchers found that turning LLM prompts into poetry resulted in jailbreaking the models...

Externer Artikel

Dieser Artikel stammt von Schneier on Security und wird dort gehostet. Wir verlinken lediglich auf externe Quellen und hosten keine Inhalte auf unseren Servern.