The Hacker News 15.01.2026 15:09

Researchers Reveal Reprompt Attack Allowing Single-Click Data Exfiltration From Microsoft Copilot

**Was ist passiert?** Sicherheitsforscher haben eine neue Angriffsmethode namens "Reprompt" entdeckt, die es Angreifern ermöglicht, mit nur einem Klick sensible Daten aus KI-Chatbots wie Microsoft Copilot zu stehlen. **Wer ist betroffen?** Betroffen sind Nutzer von Microsoft Copilot und anderen KI-Chatbots, insbesondere in Unternehmen, da die Attacke alle Sicherheitskontrollen umgeht. **Was sollte man tun?** Nutzer sollten vorsichtig mit Links umgehen, selbst wenn diese von Microsoft stammen, und Unternehmen sollten ihre Sicherheitsrichtlinien für den Umgang mit KI-Tools überprüfen. Die Attacke ist besonders gefährlich, da sie über scheinbar legitime Microsoft-Links funktioniert und dadurch schwer zu erkennen ist.

Vollständiger Artikel für Mitglieder verfügbar

Einloggen oder registrieren um den KI-aufbereiteten Artikel mit erklärten Fachbegriffen zu lesen.