KI-Einsatz führt zur KI-Panne
Author
Maren Keller, Do., 5. Feb.. 2026
in Cybersecurity

KI-Einsatz führt zur KI-Panne

Fehlerhafte KI-Nutzung in EU-Behörde ENISA kostet Vertrauen

Der KI-Einsatz in Unternehmen erfordert, wie die KI-Panne der EU-Behörde ENISA zeigt, klare Regeln und verlässliche Kontrolle.

Die Panne rund um einen fehlerhaften Bericht der EU-Cybersicherheitsagentur ENISA zeigt, wie unkontrollierter KI-Einsatz selbst berechtigte Warnungen entwertet. Welche Lehren Unternehmen daraus ziehen sollten, lesen Sie hier.

Fehlerhafter KI-Einsatz bei ENISA

Die Agentur der Europäischen Union für Cybersicherheit, kurz ENISA, hat im Herbst einen umfassenden Gefahren-Lagebericht veröffentlicht. Darin warnt die Behörde eindringlich vor den Risiken Künstlicher Intelligenz. KI erleichtere Betrug, unterstütze Phishing-Angriffe und helfe Cyberkriminellen, Zugangsdaten abzugreifen. Inhaltlich sind viele dieser Aussagen gut belegt und fachlich nachvollziehbar.

Problematisch wurde der Bericht jedoch aus einem anderen Grund. IT-Sicherheitsforscher stellten fest, dass zahlreiche der angegebenen Quellen nicht existieren. Mehrere Dutzend Links führten ins Leere oder verwiesen auf Seiten, die nie veröffentlicht wurden. Die Analyse legt nahe, dass beim Erstellen oder Überarbeiten des Dokuments KI-Tools eingesetzt wurden, ohne die Ergebnisse konsequent zu prüfen. Auch verschiedene KI-Fails aus dem Jahr 2025 sorgen nach wie vor für Empörung.

Der KI-Einsatz durch die ENISA mit den bekannten Folgen sorgt vor allem deshalb für Kritik, weil ausgerechnet eine EU-Behörde betroffen ist, die Vertrauen in digitale Sicherheit schaffen soll. Die eigentliche Diskussion über die Gefahren von KI geriet dadurch in den Hintergrund. Stattdessen rückte die Frage nach Qualitätssicherung, Verantwortung und Kontrollmechanismen in den Fokus.

Symbolische Darstellung eines fehlerhaften KI-Einsatzes im Umfeld europäischer Cybersicherheit. Bild: ChatGPT (Bild erstellt mit KI)

Fehlende Kontrolle beim KI-Einsatz kann auch in sicherheitskritischen Organisationen zu Vertrauensproblemen führen. Bild: ChatGPT (Bild erstellt mit KI)

ENISA und ihre Rolle in der EU-Cybersicherheit

Die ENISA nimmt innerhalb der Europäischen Union eine zentrale Rolle ein. Die Behörde unterstützt EU-Mitgliedstaaten und Institutionen bei Fragen der Cybersicherheit und entwickelt Leitlinien, Empfehlungen und Zertifizierungsrahmen. Ziel ist es, Vertrauen in digitale Produkte, Dienste und Prozesse zu stärken.

Für Unternehmen haben die Veröffentlichungen der ENISA eine besondere Bedeutung. Lageberichte und Einschätzungen dienen häufig als Orientierung für Sicherheitsstrategien, Investitionsentscheidungen und interne Risikobewertungen. Entsprechend hoch sind die Erwartungen an Nachvollziehbarkeit, Sorgfalt und fachliche Präzision.

Genau an diesem Punkt wird der aktuelle Vorfall kritisch. Wenn eine Institution mit dieser Verantwortung durch den KI-Einsatz fehlerhafte Quellen veröffentlicht, wirkt sich das direkt auf ihre Glaubwürdigkeit aus, denn der Maßstab für Qualität liegt bei Behörden dieser Ebene höher als bei vielen anderen Akteuren. Fehler bleiben nicht folgenlos, sondern beeinflussen das Vertrauen in künftige Warnungen und Empfehlungen.

KI-Einsatz: erfundene Quellenangaben

Im Zentrum der Kritik stehen die Quellenangaben des ENISA-Berichts. Sicherheitsforscher überprüften mehrere hundert Links, die Aussagen im Text belegen sollten. Dabei zeigte sich, dass zahlreiche Verweise ins Leere führten. In mehreren Fällen existierten die verlinkten Seiten nachweislich nie.

Besonders brisant ist, dass es sich nicht um klassische „tote Links“ handelt. Solche Verweise entstehen häufig durch spätere Änderungen an Webseiten. Die betroffenen Links ließen sich jedoch auch in Archivdiensten nicht finden. Das deutet darauf hin, dass die Quellen beim Erstellen des Berichts halluziniert wurden.

Hinzu kamen inhaltliche Ungereimtheiten. Teilweise passten Bezeichnungen von Hackergruppen nicht zu den angeblich zitierten Quellen. Solche Details fallen fachkundigen Prüfern auf, werden von automatisierten Textsystemen jedoch nicht zuverlässig erkannt. Genau hier zeigt sich das Kernproblem: Fehlende Kontrolle machte es möglich, dass unzutreffende Quellen unbemerkt veröffentlicht wurden.

KI-Einsatz | Kontrolle nötig | Fehlerquelle Link-Angabe. Bild: Screenshots von ENISA, heise und Spiegel/Montage PC-SPEZIALIST

Quellenangaben der KI muss man in jedem Fall kontrollieren – wir haben uns drei Quellen nennen lassen und bekamen dreimal Fehlermeldungen. Bild: Screenshots von ENISA, heise und Spiegel/Montage PC-SPEZIALIST

KI im Einsatz – ohne ausreichende Kontrolle

Die ENISA hat den Einsatz von Künstlicher Intelligenz inzwischen eingeräumt. Nach Angaben der Behörde wurde KI für kleinere redaktionelle Überarbeitungen genutzt. Dabei seien gültige Links verändert worden. Die inhaltlichen Aussagen des Berichts seien dennoch korrekt. Diese Erklärung greift jedoch zu kurz.

Der Fall zeigt, dass selbst ein begrenzter KI-Einsatz Risiken birgt, wenn klare Kontrollmechanismen fehlen. Gerade bei Fachpublikationen mit Quellenangaben darf keine Automatisierung ohne anschließende Prüfung erfolgen. Quellen erfüllen eine zentrale Funktion: Sie ermöglichen Nachvollziehbarkeit, Überprüfung und fachliche Einordnung.

Ohne eine verpflichtende menschliche Kontrolle können sich Fehler unbemerkt vervielfältigen. KI-Systeme erzeugen Texte plausibel, aber nicht zwingend korrekt. Werden diese Inhalte ungeprüft übernommen, entsteht ein trügerischer Eindruck von Qualität. Genau das ist hier geschehen – mit spürbaren Folgen für die Glaubwürdigkeit der Veröffentlichung.

Kein KI-Skandal, sondern Kontrollversagen

Der Vorfall bei der ENISA lässt sich nicht allein auf die Technologie, also den KI-Einsatz, reduzieren. Künstliche Intelligenz ist kein autonom handelnder Akteur, sondern ein Werkzeug. Entscheidend ist, wie dieses Werkzeug eingesetzt, überwacht und in bestehende Prozesse eingebunden wird. Genau hier lag das Versäumnis.

Grundlegende journalistische und wissenschaftliche Standards wurden nicht eingehalten. Dazu zählt vor allem die einfache Überprüfung von Quellen. Ein einzelner Klick hätte genügt, um festzustellen, dass bestimmte Verweise nicht funktionieren oder nie existiert haben. Diese Kontrolle fand offenbar nicht statt.

Damit wird deutlich: Das Problem ist kein unkontrollierbarer KI-Einsatz, sondern ein Mangel an klaren Zuständigkeiten und Prüfprozessen, denn die Verantwortung bleibt immer beim Menschen. Wird sie an Systeme delegiert, ohne klare Grenzen zu ziehen, entstehen Fehler mit weitreichenden Folgen – insbesondere in sensiblen Bereichen wie der Cybersicherheit.

KI im Einsatz | Mann mit Lupe | Kontrolle. Bild: stock.adobe.com/olly https://stock.adobe.com/de/images/man-using-a-magnifier/208056045

Die Kontrolle über die Ergebnisse, die KI liefert, müssen kontrolliert werden, um Fehler zu vermeiden. Bild: stock.adobe.com/olly

Glaubwürdigkeit auf dem Spiel

Die Auswirkungen des Vorfalls reichen über den einzelnen Bericht hinaus. Wenn eine Institution wie die ENISA fehlerhafte Quellen veröffentlicht, stellt das die Verlässlichkeit ihrer Arbeit grundsätzlich infrage, da bereits einzelne Ungenauigkeiten ausreichen können, um ganze Berichte in Zweifel zu ziehen – selbst dann, wenn die Kernaussagen fachlich korrekt sind.

Besonders problematisch ist, dass berechtigte Warnungen dadurch an Wirkung verlieren. Statt über reale Risiken von Künstlicher Intelligenz zu diskutieren, richtet sich die Aufmerksamkeit auf formale Mängel. Die öffentliche Debatte verschiebt sich.

Für Behörden mit normgebender Funktion ist das gefährlich. Ihre Empfehlungen entfalten nur dann Wirkung, wenn sie als sauber erarbeitet und nachvollziehbar gelten. Bleiben Zweifel an der Sorgfalt bestehen, verlieren künftige Veröffentlichungen an Autorität – unabhängig vom Inhalt.

Tipps für KMU nach KI-Panne

Der Vorfall bei der ENISA ist für alle Unternehmen lehrreich. Viele Organisationen setzen Künstliche Intelligenz bereits ein, etwa für Texte, Analysen oder Dokumentationen. Der Nutzen ist unbestritten. Ohne klare Regeln entstehen jedoch Risiken, die sich leicht unterschätzen lassen.

Zentral ist die Trennung von Unterstützung und Verantwortung. KI kann Inhalte vorbereiten, strukturieren oder überarbeiten. Die fachliche Prüfung darf sie nicht ersetzen. Quellen, Zahlen und fachliche Aussagen benötigen immer eine menschliche Kontrolle, insbesondere bei sicherheitsrelevanten Themen. Definieren Sie deshalb:

  • Wofür darf KI genutzt werden und wofür nicht?
  • Etablieren Sie verbindliche Prüfprozesse.
  • Ordnen Sie Verantwortlichkeiten eindeutig zu.

So lassen sich formale Fehler vermeiden, die Vertrauen dauerhaft beschädigen können. Der ENISA-Fall zeigt deutlich: Der Einsatz von KI ist kein Problem, sondern fehlende Kontrolle. Daraus folgt, dass KI zwar Prozesse beschleunigen und Mitarbeiter entlasten kann, allerdings nur, wenn klare Regeln und verbindliche Prüfmechanismen vorhanden sind. Vor allem bei sicherheitsrelevanten Themen, Analysen oder externen Veröffentlichungen bleibt die menschliche Kontrolle unverzichtbar.

Wenn Sie interne Prozesse mit KI optimieren wollen, dann wenden Sie sich gern an PC-SPEZIALIST in Ihrer Nähe. Unsere IT-Experten unterstützen Sie dabei, neue Technologien sinnvoll und verantwortungsvoll einzubinden. Nehmen Sie Kontakt zu uns auf.

_______________________________________________

Quellen: basicthinking, derstandard, Pexels/igovar igovar (Headerbild)

Schreiben Sie einen Kommentar

Ihre E-Mail Adresse wird nicht veröffentlicht.

0 Kommentare