Anthropic führt strengere Regeln für Claude ein: Fokus auf Sicherheit
Anthropic, ein führendes Unternehmen in der KI-Entwicklung, hat die Nutzungsrichtlinien für seinen Chatbot Claude aktualisiert, um auf wachsende Sicherheitsbedenken zu reagieren. Die neuen Regeln, die am 15. September 2025 in Kraft treten, zielen darauf ab, die potenziellen Risiken fortschrittlicher KI-Modelle zu minimieren, insbesondere im Hinblick auf die Entwicklung gefährlicher Waffen und Cyberbedrohungen. Gleichzeitig lockert Anthropic einige Einschränkungen für politische Inhalte, um legitime Nutzungsmöglichkeiten zu fördern. Die überarbeitete Richtlinie erweitert die bisherigen Verbote, die die Nutzung von Claude für die Herstellung, Modifikation, Vermarktung oder Verbreitung von Waffen und gefährlichen Materialien untersagten. Neu ist die explizite Nennung von Hochleistungssprengstoffen sowie biologischen, chemischen, radiologischen und nuklearen (CBRN) Waffen als verbotene Anwendungen. Diese Änderung spiegelt die gestiegene Besorgnis über die mögliche Missbrauchsgefahr von KI in sensiblen Bereichen wider. Bereits im Mai 2025 führte Anthropic mit der Veröffentlichung von Claude Opus 4 die „AI Safety…




