Ah, #KI ist also strunzdumm und lässt sich schamlos belügen - und erkennt das nicht. Wer hätte das gedacht?
t3n.de/news/microsoft-neuer-ja…
Warum Microsoft einen Jailbreak für GPT, Llama und Gemini entwickelt hat
KI-Modelle sind normalerweise darauf trainiert, bestimmte Antworten zu vermeiden. Diese Sicherheitsmaßnahmen kMarvin Fuhrmann (t3n Magazin)
#
ClaudiaBerlin
Als Antwort auf Frank Wittemeier • • •Frank Wittemeier
Als Antwort auf ClaudiaBerlin • •