Anthropic Refuses to Bend to Pentagon on AI Safeguards as Dispute Nears Deadline
**Zusammenfassung:** Das KI-Unternehmen Anthropic weigert sich, bei Sicherheitsvorkehrungen für sein KI-System Claude gegenüber dem US-Verteidigungsministerium nachzugeben, während eine Verhandlungsfrist näher rückt. Anthropic fordert vom Pentagon spezifische Zusicherungen, dass Claude weder für die Massenüberwachung amerikanischer Bürger noch in vollständig autonomen Waffensystemen eingesetzt wird. Der Konflikt zeigt die wachsenden Spannungen zwischen KI-Entwicklern und militärischen Anwendungen ihrer Technologie auf. Betroffen sind potenzielle Regierungsverträge und die grundsätzliche Frage, wie KI-Systeme militärisch genutzt werden dürfen.
Vollständiger Artikel für Mitglieder verfügbar
Einloggen oder registrieren um den KI-aufbereiteten Artikel mit erklärten Fachbegriffen zu lesen.