Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter
Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter

www.heise.de
Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter

Von "Gaslighting" spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.