БезпекаENFreitag, 28. November 2025

Prompt Injection Through Poetry

Schneier on Security

Зовнішнє джерело

Резюме

In a new paper, “Adversarial Poetry as a Universal Single-Turn Jailbreak Mechanism in Large Language Models,” researchers found that turning LLM prompts into poetry resulted in jailbreaking the models...

Зовнішня стаття

Ця стаття з Schneier on Security і розміщена там. Ми лише посилаємося на зовнішні джерела.