22 Dez.

Mo., 22. Dez. 2025
in Cybersecurity
KI-Fails 2025
Chipstüten, Hitler-Zitate und Datenlecks: So gefährlich versagt KI 2025
Ein KI-gestütztes Bestellsystem, das versehentlich 18.000 Getränke ordert, mag noch eine amüsante Anekdote sein. Aber das nun endende Jahr hat auf erschreckende Weise gezeigt, dass die meisten KI-Fails 2025 weit über harmlose Pannen hinausgehen. Die Fehler legen die systemischen Risiken offen, die entstehen, wenn KI unkritisch, sorglos oder gar manipulativ eingesetzt wird. Wir zeigen die […]
18 Dez.

Do., 18. Dez. 2025
in Digitalisierung
Wort des Jahres: Vibe Coding
Collins Wörterbuch wählt Tech-Begriff des Jahres 2025
Vibe Coding ist das IT-Wort des Jahres 2025 und steht für einen neuen Ansatz, Code mittels KI über natürliche Sprache zu erstellen. Diese Form des Programmierens zeigt, wie rasant KI den Arbeitsalltag verändert. Was Vibe Coding genau ist, warum der Begriff so relevant ist und welche Entwicklungen dahinterstehen, lesen Sie bei uns.
15 Dez.

Mo., 15. Dez. 2025
in Cybersecurity
Gemini-Sicherheitslücke
Google ignoriert Gefahr durch ASCII-Smuggling
Eine Gemini-Sicherheitslücke sorgt aktuell für Diskussionen in der IT-Sicherheitswelt. Unsichtbare Steuerzeichen ermöglichen versteckte Befehle, die KI-Antworten manipulieren oder Datenabfragen auslösen. Das Problem: Google will die Lücke nicht schließen. Für KMU entsteht dadurch ein ernst zu nehmendes Risiko im täglichen Arbeiten mit E-Mails und Kalendern. Mehr dazu lesen Sie bei uns.
08 Dez.

Mo., 8. Dez. 2025
in Cybersecurity
Neue Angriffstechnik HashJack
Kriminelle manipulieren KI-Browser über versteckte URL-Fragmente
HashJack nutzt versteckte URL-Fragmente, um KI-Browser gezielt zu manipulieren und Nutzer unbemerkt in gefährliche Aktionen zu lenken. Die neue Angriffstechnik macht selbst vertrauenswürdige Websites zu potenziellen Risiken und stellt Unternehmen vor eine wachsende Sicherheitsherausforderung. Mehr dazu lesen Sie im folgenden Beitrag.
20 Nov.

Do., 20. Nov. 2025
in Digitalisierung
Nachhaltige KI
Bevölkerung sieht hohen Strom- und Wasserverbrauch kritisch
Nachhaltige KI ist längst mehr als ein Schlagwort, denn der Energie- und Wasserverbrauch von Rechenzentren wächst rasant – angetrieben durch Künstliche Intelligenz. Maßnahmen sind notwendig. Wie sich der CO₂-Fußabdruck der Technologie verringern lässt und warum die deutsche Bevölkerung den Ausbau von Rechenzentren kritisch sieht, erfahren Sie hier.
09 Okt.

Do., 9. Okt. 2025
in Cybersecurity
Data Poisoning (AI Poisoning)
Wie gezielte Manipulationen KI-Systeme sabotieren
Data Poisoning stellt eine wachsende Bedrohung für Systeme dar, die auf Künstlicher Intelligenz basieren. Deswegen wird das Phänomen aktuell auch als AI Poisoning bezeichnet. Zielgerichtete Manipulationen von Trainingsdaten können ganze KI-Systeme unterwandern und gefährden damit auch die User. Wie genau das funktioniert und wie Sie sich schützen, erfahren Sie bei uns.
15 Sep.

Mo., 15. Sep. 2025
in Cybersecurity
Prompt-Injection
Schädliche Eingaben manipulieren Sprachmodelle
Prompt-Injection gehört zu den größten Sicherheitsrisiken beim Einsatz generativer KI. Dabei manipulieren Angreifer Eingabefelder gezielt, um Sprachmodelle zu täuschen und zu missbrauchen. Was bei Prompt-Injection genau passiert und warum das nicht nur für Großkonzerne problematisch ist, sondern auch für kleine und mittelständische Unternehmen, erfahren Sie bei uns.
26 Juni

Do., 26. Juni 2025
in Cybersecurity
EchoLeak: Zero-Click-Lücke
Gefährliche Schwachstelle in Microsoft Copilot entdeckt
Die jetzt entdeckte Zero-Click-Sicherheitslücke namens EchoLeak in Microsoft Copilot macht deutlich, wie leicht sich KI-Systeme kompromittieren lassen. Aim Security hat die kritische Schwachstelle aufgedeckt, die Angriffe ohne Nutzerinteraktion ermöglicht. Wie diese Lücke ausgenutzt werden kann und was Unternehmen jetzt unbedingt wissen müssen, erfahren Sie bei uns.
12 Mai

Mo., 12. Mai 2025
in Cybersecurity
Slopsquatting
Wenn KI-Code erfundene Bibliotheken vorschlägt und Angreifer zuschlagen
Slopsquatting ist eine neuartige Bedrohung für Software-Lieferketten, ausgelöst durch KI-generierten Code mit erfundenen Paketnamen. Immer mehr Entwickler verlassen sich auf Vorschläge von ChatGPT & Co. – und laufen so Gefahr, Schadpakete zu installieren. Mehr dazu lesen Sie bei uns.