Kultur
Bombenbau mit ChatGPT: Chatbots lassen sich zu leicht austricksen – Innovationen | ABC-Z
Wie leicht ist es, ein Sprachmodell zu “jailbreaken”, also die eingebauten Sicherheitsschranken in der Software zu deaktivieren? Diese Frage hat sich ein Forscherteam des KI-Unternehmens Anthropic gestellt. Die kurze Antwort: Es ist erstaunlich einfach, ChatGPT, Claude, Gemini und Co unerwünschte Antworten zu entlocken. Etwa eine Anleitung, wie man eine Bombe baut.