Blackout durch Blackbox: Gartner warnt vor KI-bedingtem Kollaps kritischer Infrastruktur

**Wirkungsbereich:** Menschen & Gesellschaft --- **TLDR:** Das Analystenhaus Gartner prognostiziert in seinem Report „Predicts 2026: Emergent Critical Risks of AI in CPS Security", dass bis 2028 eine fehlkonfigurierte KI die kritische Infrastruktur eines G20-Landes lahmlegen wird. Die Ursache sind nicht Cyberangriffe, sondern subtile Fehler in sogenannten Cyber-Physical Systems (CPS) – also in Stromnetzen, Industriesteuerungen und Robotik. Gartner empfiehlt sichere Override-Modi, digitale Zwillinge für Tests und nationale Incident-Response-Teams. Mehrere Sicherheitsexpert:Innen halten den Zeitrahmen 2028 sogar für zu optimistisch. --- ## Wenn nicht Hacker das Problem sind, sondern wir selbst Wir investieren Milliarden in den Schutz kritischer Infrastruktur vor Cyberangriffen. Firewalls, Intrusion Detection, Zero Trust – das volle Programm. Aber was, wenn der nächste grosse Infrastrukturausfall gar nicht von aussen kommt? Was, wenn wir ihn selbst verursachen – mit einem gut gemeinten Software-Update, einem falsch gesetzten Schwellenwert oder einer fehlplatzierten Dezimalstelle? Genau das prognostiziert Gartner in einem am 12. Februar 2026 veröffentlichten Report. Die Kernaussage ist bemerkenswert direkt: Bis 2028 wird eine fehlkonfigurierte KI die nationale kritische Infrastruktur eines G20-Landes lahmlegen. Kein „könnte" – Gartner sagt „wird". ## Was sind Cyber-Physical Systems und warum sind sie gefährdet? Cyber-Physical Systems, kurz CPS, sind technische Systeme, die digitale Steuerung direkt mit physischer Infrastruktur verbinden. Darunter fallen industrielle Steuerungssysteme (ICS), die Operational Technology (OT) in Fabriken, das Industrial Internet of Things (IIoT), Robotik und Drohnen – zusammengefasst unter dem Begriff Industrie 4.0. Der entscheidende Unterschied zu klassischer Software: Wenn ein CPS fehlerhaft reagiert, stürzt kein Programm ab – es öffnen sich Ventile, Turbinen ändern ihre Drehzahl, Schaltkreise werden getrennt. Ein Fehler interagiert direkt mit der Physik. Und genau hier liegt das Problem. Immer mehr Betreiber:Innen erlauben KI-Systemen, in diesen Umgebungen Echtzeitentscheidungen zu treffen. Von der Lastverteilung im Stromnetz über die Anomalieerkennung in Fertigungsanlagen bis zur vorausschauenden Wartung in der Logistik – KI übernimmt zunehmend Aufgaben, die bisher Menschen mit Erfahrung und Augenmass erledigten. ## Das Blackbox-Problem Moderne KI-Modelle sind so komplex, dass selbst ihre Entwickler:Innen nicht immer vorhersagen können, wie sich kleine Konfigurationsänderungen auf das Verhalten auswirken. Wam Voster, VP Analyst bei Gartner, beschreibt es so: Die Modelle ähneln „Black Boxes", und je undurchsichtiger sie werden, desto grösser wird das Risiko durch Fehlkonfigurationen. Ein konkretes Beispiel: Moderne Stromnetze nutzen KI, um Erzeugung und Verbrauch in Echtzeit auszubalancieren – besonders wichtig bei schwankender erneuerbarer Energie. Ein fehlkonfiguriertes Vorhersagemodell könnte normale Nachfrageschwankungen als Instabilität interpretieren. Die Folge: unnötige Netzabschaltungen oder Lastabwurf über ganze Regionen oder sogar Länder hinweg. Und die Reparatur beschädigter Netzinfrastruktur ist selten eine schnelle Angelegenheit. ## Kaskadeneffekte: Subtil, dann unkontrollierbar Besonders tückisch sind die Kaskadeneffekte in eng gekoppelten Systemen. Sicherheitsexpert:Innen beschreiben das Muster so: Ein schlecht kalibrierter Glättungsalgorithmus filtert unbeabsichtigt schwache Signale heraus. Eine stille Verschiebung in der Telemetrieskalierung verändert schrittweise das Systemverhalten. Ein Schwellenwert, der die Empfindlichkeit der Anomalieerkennung verändert. Nicht katastrophal auf den ersten Blick – subtil. Und in eng gekoppelter Infrastruktur beginnen Kaskaden genau so. Wenn ein KI-gesteuertes Stromnetz ausfällt, kann das auf industrielle Prozesse, Kommunikationsnetze und Gesundheitsdienste übergreifen. Der Dominoeffekt ist keine theoretische Überlegung – er ist in der Risikoanalyse kritischer Infrastruktur ein bekanntes Phänomen. ## Was Gartner empfiehlt Die Empfehlungen richten sich an CISOs – Chief Information Security Officers – die an der Schnittstelle von Cybersicherheit, Sicherheitstechnik und operationeller Resilienz arbeiten. **Sichere Override-Modi:** Alle kritischen CPS müssen über einen „Kill-Switch" verfügen, der ausschliesslich autorisierten Operator:Innen zugänglich ist. Menschen müssen die letzte Kontrolle behalten – auch bei vollständig automatisierten Systemen. Das klingt selbstverständlich, ist es aber in vielen Implementierungen heute nicht. **Digitale Zwillinge:** Betreiber:Innen sollen massstabsgetreue digitale Abbilder ihrer kritischen Systeme entwickeln. Diese digitalen Zwillinge – also vollständige Simulationen der realen Infrastruktur – ermöglichen es, Updates und Konfigurationsänderungen in einer kontrollierten Umgebung zu testen, bevor sie im Livebetrieb ausgerollt werden. **Echtzeit-Monitoring mit Rollback:** Jede KI-Konfigurationsänderung muss in Echtzeit überwacht werden, mit der Möglichkeit, bei unerwartetem Verhalten sofort auf den vorherigen Zustand zurückzusetzen. **Nationale AI-Incident-Response-Teams:** Gartner empfiehlt die Einrichtung spezialisierter Teams auf nationaler Ebene, die bei KI-bedingten Vorfällen in kritischer Infrastruktur schnell und koordiniert reagieren können. ## 2028 könnte zu optimistisch sein Bemerkenswert: Mehrere Sicherheitsexpert:Innen halten Gartners Zeithorizont nicht für alarmistisch, sondern für zu konservativ. Die Kombination aus schneller KI-Implementierung, unzureichenden Testverfahren und der inhärenten Undurchsichtigkeit moderner Modelle schaffe ein Risikoprofil, das die bestehenden Governance-Strukturen übersteige. Regulierungsbehörden haben sich jahrelang auf externe Bedrohungen konzentriert – Cyberangriffe, Sabotage, Terrorismus. Gartners Prognose verschiebt den Blick: Die nächste Welle von Infrastrukturrisiken könnte selbstverschuldet sein, nicht durch böswillige Akteur:Innen, sondern durch die Komplexität der eigenen Systeme. ## Zusammenfassung der wichtigsten Punkte - Gartner prognostiziert, dass bis 2028 eine fehlkonfigurierte KI in Cyber-Physical Systems die kritische Infrastruktur eines G20-Landes lahmlegen wird. - Die Ursache sind keine Cyberangriffe, sondern subtile Konfigurationsfehler in zunehmend autonomen Systemen. - Moderne KI-Modelle funktionieren als „Black Boxes" – selbst Entwickler:Innen können die Auswirkungen kleiner Änderungen nicht immer vorhersagen. - Kaskadeneffekte in eng gekoppelten Systemen können aus subtilen Fehlern grossflächige Ausfälle machen. - Gartner empfiehlt Kill-Switches, digitale Zwillinge, Echtzeit-Monitoring und nationale Incident-Response-Teams. - Die Geschwindigkeit der KI-Implementierung übersteigt derzeit die vorhandenen Sicherheitskontrollen erheblich. --- **Quellen (APA):** Gartner, Inc. (2026, 12. Februar). Gartner Predicts That by 2028 Misconfigured AI Will Shut Down National Critical Infrastructure in a G20 Country [Pressemitteilung]. https://www.gartner.com/en/newsroom/press-releases/2026-02-12-gartner-predicts-that-by-2028-misconfigured-ai-will-shut-down-national-critical-infrastructure-in-a-g20-country Schuman, E. (2026, 13. Februar). AI will likely shut down critical infrastructure on its own, no attackers required. *CIO*. https://www.cio.com/article/4132385/ai-will-likely-shut-down-critical-infrastructure-on-its-own-no-attackers-required.html The Register. (2026, 13. Februar). Misconfigured AI could shut down a G20 nation, says Gartner. https://www.theregister.com/2026/02/13/gartner_ai_infrastructure/ IT Brief Australia. (2026, 15. Februar). Gartner warns misconfigured AI could halt G20 power. https://itbrief.com.au/story/gartner-warns-misconfigured-ai-could-halt-g20-power --- *Disclaimer: Dieser Artikel wurde nach meinem eigenen Wissen und dann mit Recherchen mit KI (Perplexity.Ai und Gemini.Google.com) manuell zusammen gestellt und mit Deepl.com/write vereinfacht. Der Text wird dann nochmals von zwei Personen meiner Wahl gelesen und kritisch hinterfragt. Das Bild stammt von einem KI Programm (Ideogram oder Adobe Firefly) und ist selbst erstellt. Dieser Artikel ist rein edukativ und erhebt keinen Anspruch auf Vollständigkeit. Bitte melde dich, wenn Du Ungenauigkeiten feststellst, danke.* *Willst du mehr wissen? Sehr gerne komme ich auch bei Dir, bei deiner Firma, deiner ERFA Gruppe oder deinem Verband vorbei und helfe mit einem Workshop oder Input Referat.* *Lass uns gerne mal unverbindlich sprechen. Also wenn ich helfen kann, wende dich gerne an mich #fragRoger und abonnier meinen offiziellen Newsletter: www.FragRoger.social*

Read more

„Gefährliche Fehldiagnosen": Oxford-Studie warnt vor KI als Gesundheitsberater

**Wirkungsbereich:** Medizin & Gesundheit --- **TLDR:** Eine neue Studie der Universität Oxford mit rund 1.300 Teilnehmer:Innen zeigt, dass KI-Chatbots als medizinische Berater:Innen unzuverlässig und potenziell gefährlich sind. Obwohl die getesteten Sprachmodelle isoliert betrachtet in 94,9 % der Fälle die richtige Diagnose stellten, schnitten Nutzer:Innen mit KI-Unterstützung

By Roger Basler de Roca