BleepingComputer 06.01.2026 11:16

Are Copilot prompt injection flaws vulnerabilities or AI limits?

**Zusammenfassung:** Ein Sicherheitsforscher hat mehrere Prompt-Injection-Schwachstellen in Microsofts Copilot KI-Assistent entdeckt, doch Microsoft bestreitet, dass es sich dabei um echte Sicherheitslücken handelt. Der Fall zeigt einen wachsenden Konflikt zwischen Herstellern und Sicherheitsforschern darüber auf, wie Risiken in KI-Systemen bewertet werden sollen. Betroffen sind Nutzer von Microsofts Copilot, die möglicherweise manipulierten KI-Antworten ausgesetzt sein könnten. Nutzer sollten bei KI-generierten Inhalten grundsätzlich vorsichtig sein und diese kritisch hinterfragen, besonders wenn sie ungewöhnlich oder verdächtig erscheinen.

Vollständiger Artikel für Mitglieder verfügbar

Einloggen oder registrieren um den KI-aufbereiteten Artikel mit erklärten Fachbegriffen zu lesen.