Do. 19. Februar 2026 um 12:09

Zwingt KI bald G20 Staaten in die Knie?

von Yves Jeanrenaud 0 Kommentare
Lesedauer: 3 Minuten

Künstliche Intelligenz, vor allem sogenannte generative KI, die auf der Grundlage vieler alter Daten scheinbar neue erschafft, ist in aller Munde. Egal ob ChatGPT, Gemini oder Claude, alle Firmen in diesem Umfeld versuchen, ihre generativen Maschinen in alle möglichen Softwareprodukte zu pushen – oft zum Missfallen der Kundschaft. Doch längst ist generative AI nicht mehr nur in unseren Smartphones und Textbearbeitungsprogrammen angekommen. Mitunter wird auch kritische Infrastruktur, von Stromversorgung bis zur Ampelschaltung, damit vermeintlich optimiert. Doch wird eine fehlerhaft eingerichtete künstliche Intelligenz bis die kritische Infrastruktur eines Mitgliedstaates der G20 bald zum Erliegen bringen?

 

Die von Gartner veröffentlichte Einschätzung legt dies nahe. Das IT-Marktforschungsunternehmen kommt zum Schluss, dass eine falsch konfigurierte künstliche Intelligenz bis 2028 in einem G20-Staat zum Ausfall nationaler kritischer Infrastrukturen führen könnte. Das sollte keinesfalls als blosse Zukunftsphantasie abgetan werden. Vielmehr verweist diese Prognose auf eine bereits heute erkennbare strukturelle Entwicklung: Systeme der künstlichen Intelligenz werden mit hoher Geschwindigkeit in Stromnetze, Verkehrssteuerungen, digitale Gesundheitsplattformen sowie Finanzmarktinfrastrukturen eingebunden, während verbindliche Governance-Mechanismen, belastbare Identitätskontrollen und ausgereifte Konfigurationsstandards diesem Tempo nicht Schritt halten.


Bild von Gerd Altmann auf Pixabay

Das realistischste Risikoszenario besteht daher nicht in einem fiktiven Szenario ausser Kontrolle geratener, überlegenen Maschinenintelligenz, sondern in einer schlichten Fehlkonfiguration – also in einem menschlichen Fehler, dessen Auswirkungen durch Automatisierung, Vernetzung und Skalierung erheblich potenziert werden. Systeme der künstlichen Intelligenz basieren auf vielschichtigen Strukturen aus privilegierten Benutzerkonten, Schnittstellenschlüsseln, Dienstidentitäten, automatisierten Skripten und Integrationen externer Anbieterinnen. Werden diese Identitäten unzureichend gesteuert, mit übermässigen Berechtigungen versehen oder nicht fortlaufend überwacht, entsteht eine strukturelle Verwundbarkeit, die sich durch das gesamte System ziehen kann.

 

Die beschleunigte Einführung künstlicher Intelligenz führt zudem oft dazu, dass sogenannte nicht-menschliche Identitäten – darunter Dienstkonten, Automatisierungstoken oder autonome KI-Agenten – in zahlreichen Infrastrukturen inzwischen die Zahl menschlicher User deutlich übertreffen. Damit wächst die Angriffsfläche in erheblichem Umfang. Diese maschinellen Identitäten sind häufig dauerhaft mit weitreichenden Privilegien ausgestattet, ohne dass eine gleichwertige Kontrolle oder kontinuierliche Überprüfung erfolgt. Daraus resultiert ein Gefahrenpotenzial, bei dem bereits eine einzelne kompromittierte Zugangsdatenkombination oder eine fehlerhafte Bereitstellungspipeline für ein Modell ausreichen kann, um sich wellenartig über miteinander verbundene Infrastrukturen hinweg auszubreiten. In hochgradig vernetzten Umgebungen, in denen Energieversorgung, Telekommunikation, Logistik und Finanzsysteme digital miteinander verflochten sind, kann ein solcher Dominoeffekt binnen kürzester Zeit operative Prozesse auf nationaler Ebene beeinträchtigen.

Noch mehr Automatisierung – noch mehr Probleme

Mit jedem weiteren Automatisierungsschritt vergrössert sich zugleich der mögliche Schadensumfang. Künstliche Intelligenz beseitigt bestehende Risiken nicht automatisch, sondern beschleunigt sie, sofern Schutzmechanismen lückenhaft oder inkonsistent implementiert sind. Gerade in kritischen Infrastrukturen ist deshalb eine durchsetzbare Identitäts-Governance erforderlich, die sowohl menschliche als auch nicht-menschliche Identitäten gleichermassen erfasst. Architekturen nach dem Zero-Trust-Prinzip, bei denen kein Zugriff ohne explizite Verifikation gewährt wird, müssen ebenso konsequent umgesetzt werden wie das Least-Privilege-Prinzip, das Berechtigungen strikt auf das notwendige Minimum begrenzt. Darüber hinaus ist eine kontinuierliche Überwachung privilegierter Konten unverzichtbar, um Anomalien frühzeitig zu erkennen und Missbrauch zu verhindern. Diese Anforderungen dürfen sich nicht allein auf klassische IT-Systeme beschränken, sondern müssen ausdrücklich auch KI-Modelle, Trainingsumgebungen, Datenpipelines sowie zugrunde liegende Cloud-Infrastrukturen einbeziehen. Gerade dort entstehen durch komplexe Abhängigkeiten und automatisierte Prozesse neuartige Risikokonstellationen.

Regulatorien entstehen

Parallel dazu verschärft sich der regulatorische Rahmen spürbar, insbesondere innerhalb der Europäischen Union, im Vereinigten Königreich und in den Vereinigten Staaten von Amerika. Mit Instrumenten wie der NIS2-Richtlinie, dem Digital Operational Resilience Act, kurz DORA, sowie dem European Union Artificial Intelligence Act wird die Verantwortung für operative Widerstandsfähigkeit und sichere Systemarchitektur ausdrücklich auf die Leitungsebene von Unternehmen übertragen. Geschäftsleitungen können sich daher nicht länger darauf berufen, Fragen der KI-Konfiguration seien rein technische Detailprobleme. Vielmehr wird Governance im Bereich künstlicher Intelligenz zu einer strategischen Kernaufgabe, die unmittelbare Auswirkungen auf Haftung, Reputation und regulatorische Konformität hat. In diesem Kontext ist KI-Governance untrennbar mit nationaler Sicherheits- und Resilienzpolitik verbunden, da Ausfälle kritischer Infrastrukturen nicht nur wirtschaftliche, sondern auch gesellschaftliche und politische Stabilität betreffen.

Was tun, wenn’s brennt?

Ein weiterer zentraler Aspekt betrifft Notfallinterventionsmechanismen in operationalen Technologieumgebungen, die durch künstliche Intelligenz gesteuert oder unterstützt werden. In Energieanlagen, industriellen Steuerungssystemen oder Verkehrsleitzentralen müssen verlässliche Möglichkeiten bestehen, automatisierte Prozesse im Krisenfall zu unterbrechen oder in einen sicheren Zustand zu versetzen. Solche Eingriffsoptionen entfalten jedoch nur dann ihre Wirkung, wenn die zugrunde liegenden Identitätssysteme robust abgesichert und sämtliche Zugriffswege strikt kontrolliert sind. Ist nicht transparent nachvollziehbar, welche Identität über welche Rechte verfügt und welche Systeme miteinander interagieren, können selbst gut konzipierte Notfallpläne ins Leere laufen. Einheitliche Sichtbarkeit über privilegierte Zugriffe sowie eine lückenlose Protokollierung sind daher Grundvoraussetzungen, um in einer von künstlicher Intelligenz geprägten Infrastrukturumgebung handlungsfähig zu bleiben.

 

Ohne konsistente Kontrolle über Identitäten und Berechtigungen wird es Organisationen schwerfallen, eine glaubwürdige operative Einsatzbereitschaft zu behaupten. Nationale Resilienz im Zeitalter künstlicher Intelligenz wird sich weniger an der technischen Raffinesse einzelner Modelle messen lassen als an der Disziplin, mit der Konfigurationen verwaltet, Berechtigungen überprüft und Sicherheitsstandards durchgesetzt werden.

 

Die entscheidende Frage ist nicht, wie leistungsfähig ein Algorithmus ist, sondern wie verlässlich die organisatorischen und technischen Rahmenbedingungen gestaltet sind, in denen dieser Algorithmus eingesetzt wird. Fehlkonfigurationen entstehen häufig nicht aus bösem Willen, sondern aus Zeitdruck, Komplexität oder mangelnder Abstimmung zwischen Entwicklungs-, Betriebs- und Sicherheitsabteilungen. Gerade deshalb bedarf es klar definierter Verantwortlichkeiten, verbindlicher Prüfprozesse und regelmässiger Audits.

 

 

Vorstände und Aufsichtsbehörden sollten die Qualität der KI-Konfiguration und die Reife der zugrunde liegenden Governance-Strukturen daher als zentrale Kennzahl für Widerstandsfähigkeit begreifen. Es handelt sich nicht um ein Randthema für Fachabteilungen, sondern um einen strategischen Faktor für die Stabilität ganzer Volkswirtschaften. Wenn künstliche Intelligenz weiterhin in Kernbereiche staatlicher und wirtschaftlicher Infrastruktur integriert wird, entscheidet die Sorgfalt bei Identitätsmanagement, Zugriffssteuerung und Konfigurationskontrolle darüber, ob technologische Innovation zu höherer Effizienz führt oder unbeabsichtigte systemische Risiken hervorbringt. Die Warnung von Gartner ist vor diesem Hintergrund weniger als alarmistische Prognose zu verstehen, sondern als Hinweis auf eine bereits erkennbare Entwicklung, die konsequentes Handeln erfordert.

 

Quellen: Gartner (Englisch), Keeper Security

Das könnte Sie auch interessieren

Schreibe einen Kommentar

Insert math as
Block
Inline
Additional settings
Formula color
Text color
#333333
Type math using LaTeX
Preview
\({}\)
Nothing to preview
Insert
Teilen