Kernaussagen des Artikels:
Der Text betont, dass ein Maßstab für eine ausgereifte Architektur darin besteht, die Wege zu begrenzen, auf denen ein einzelnes Konto, ein Dienst oder eine Sitzung den vorgesehenen Wirkungsbereich überschreiten können. Die höchsten Kosten entstehen dann, wenn Zugriffsbeschränkungen nachträglich in eine bereits fertige Logik und bestehende Integrationen eingearbeitet werden.
- Das Prinzip der minimalen Rechtevergabe und die Segmentierung des Zugriffs müssen bereits in der Projektphase festgelegt werden, nicht erst nach Inbetriebnahme der ersten Version.
- Das Berechtigungsmodell beeinflusst die Aufteilung der Dienste, den Datenaustausch, den Neustart von Geräten und das Verhalten bei Verbindungsverlust.
- Es ist ein Fehler, Berechtigungen Stellen statt konkreten Vorgängen und deren operativen Auswirkungen zuzuordnen.
- Gemeinsame Servicekonten und eine flache Zugriffszone erhöhen das Risiko unbefugter Änderungen und eines Prozessstillstands.
- Entscheidungen über Berechtigungen sind an die Risikobeurteilung und an die Auswirkungen auf die funktionale Sicherheit der Maschine zu knüpfen.
Warum dieses Thema heute relevant ist
In industriellen Anwendungen sind das Prinzip der minimalen Rechtevergabe und die Segmentierung des Zugriffs längst kein zusätzlicher Sicherheitsbaustein mehr. Sie sind zu einer Entwurfsentscheidung geworden, die die Implementierungskosten, die Verantwortung bei Vorfällen und das Tempo der Abnahmen beeinflusst. Der Grund ist einfach: Eine moderne Anwendung läuft nicht mehr in einer einzelnen, abgeschotteten Steuerung, sondern an der Schnittstelle von Engineering-Stationen, Bedienpanels, vermittelnden Diensten, Fernzugriff, Berichtssystemen und Integrationen mit der Werksumgebung. Werden Berechtigungen und Kommunikationsgrenzen nicht von Anfang an festgelegt, entwickelt das Team in der Regel eine Lösung, die funktional zu weit gefasst ist und den eigenen Komponenten zu viel Vertrauen entgegenbringt. Diese technische Schuld zeigt sich später bei der Validierung, bei Abnahmetests, Compliance-Audits und jeder Integrationsänderung, weil Zugriffe dort manuell eingeschränkt werden müssen, wo die Architektur von Beginn an „volle Sichtbarkeit” und „volle Steuerung” zugelassen hat.
Genau deshalb muss dieses Thema heute geklärt werden und nicht erst nach dem Start der ersten Version. In der Praxis lautet die Frage nicht, ob Bediener, Servicetechniker, Integrator und Hilfsanwendung Zugriff auf das System haben, sondern worauf genau sie zugreifen dürfen, in welchem Modus, von welchem Ort aus und unter welchen Ausfallbedingungen. An diesem Punkt geht das Sicherheitsthema unmittelbar in den Bereich der Entwicklung von industriellen Anwendungen und Architekturen von Automatisierungssystemen über: Das Berechtigungsmodell beeinflusst die Aufteilung der Dienste und die Art des Datenaustauschs, den Umgang mit Verbindungsverlust, Geräte-Neustarts und das Systemverhalten nach Wiederherstellung der Verbindung. Wenn eine Anwendung nur deshalb weitreichende Berechtigungen benötigt, um die Programmierung zu vereinfachen, zahlt das Team später meist einen höheren Preis für Ausnahmen, Umgehungslösungen und zusätzliche Kontrollmechanismen. Das praktische Bewertungskriterium ist hier sehr konkret: Lässt sich jede Rolle und jede Komponente durch einen minimalen Satz von Operationen beschreiben, die zur Aufgabenerfüllung erforderlich sind, ohne ein standardmäßiges Recht zur Änderung des Prozesszustands oder der Gerätekonfiguration.
Ein gutes Beispiel ist eine Serviceanwendung, die gleichzeitig Diagnosedaten erfasst, Parameter aktualisiert und Fernwartungsmaßnahmen ermöglicht. Wenn eine solche Anwendung in einer einzigen flachen Zugriffszone arbeitet und ein einziges technisches Konto mit weitreichenden Berechtigungen nutzt, enden ein Ausfall, ein Konfigurationsfehler oder die Übernahme einer Sitzung nicht bei einem Verlust von Diagnosedaten. Die Folge kann eine unbefugte Änderung von Parametern, ein Prozessstillstand oder die Wiederherstellung eines Zustands nach einem Neustart entgegen der Absicht des Bedienpersonals sein. Ab einem bestimmten Punkt ist das nicht mehr nur eine Frage des Zugriffsschutzes, sondern wird zu einem Thema der Absicherung gegen unerwartetes Anlaufen sowie des sicheren Verhaltens des Systems nach Verlust der Versorgung oder der Netzwerkverbindung. Wenn die Anwendung Einfluss auf die Startsequenz, die Freigabe von Funktionen oder die Wiederherstellung von Einstellungen hat, wird die Grenze zwischen einer „IT-Berechtigung” und der Auswirkung auf die Maschinenfunktion operativ relevant.
Aus Compliance-Sicht bedeutet das, dass Entscheidungen zu Berechtigungen und Segmentierung mit der Risikobeurteilung und mit dem Umfang der Projektverantwortung verknüpft werden müssen, statt sie als eigenständiges Infrastrukturthema zu behandeln. Es geht nicht um ein mechanisches Zitieren von Normen, sondern darum nachzuweisen, dass die Architektur die Möglichkeit unbeabsichtigter Handlungen begrenzt und die Folgen eines Kontrollverlusts über eines der Elemente berücksichtigt. Wenn eine Anwendung das Verhalten von Geräten, den Prozesszustand oder die Bedingungen für einen Wiederanlauf beeinflussen kann, muss die Bewertung nicht nur Vertraulichkeit und Datenintegrität umfassen, sondern auch die Folgen für die funktionale Sicherheit und die Arbeitsorganisation. Deshalb ist für die Entscheidungsfindung nicht die Zahl der implementierten Schutzmechanismen der sinnvolle Maßstab, sondern die Zahl der Pfade, auf denen ein einzelnes Konto, ein einzelner Dienst oder eine einzelne Netzwerksitzung den vorgesehenen Handlungsrahmen überschreiten kann. Je früher das Team dies ermittelt und Rollen, Zonen sowie Betriebsarten zuordnet, desto weniger kostspielige Korrekturen sind in der Inbetriebnahme- und Abnahmephase erforderlich.
Wo Kosten oder Risiken am häufigsten steigen
In Projekten für industrielle Anwendungen steigen die Kosten nur selten deshalb, weil das Team „zu viel Sicherheit implementiert” hat. Sehr viel häufiger liegt das Problem im falschen Ort und im falschen Zeitpunkt für die Einführung von Einschränkungen. Das Prinzip der minimalen Rechtevergabe und die Segmentierung des Zugriffs werden dann teuer, wenn sie nachträglich in eine bereits fertige Steuerungslogik, Serviceschnittstellen und Integrationen mit übergeordneten Systemen eingefügt werden. In der Praxis bedeutet das Überarbeitungen bei Rollen, Ausnahmen, Freigabepfaden und mitunter auch eine Änderung der Verantwortlichkeiten zwischen Anwendungsanbieter, Integrator und Endanwender. Wenn ein technischer Dienst, ein Servicebildschirm oder eine Netzwerkbeziehung gleichzeitig Diagnose, Sollwertänderungen und Maßnahmen mit Einfluss auf den Prozesszustand abdeckt, ist das spätere „Nachdichten” keine Konfigurationskorrektur mehr, sondern ein Umbau der Architektur. Genau an diesem Punkt steigen sowohl die Implementierungskosten als auch das Haftungsrisiko für die Folgen einer unbeabsichtigten Änderung.
Der häufigste Konstruktionsfehler besteht darin, Berechtigungen nach organisatorischen Funktionen statt nach den operativen Auswirkungen zu definieren. In einer industriellen Anwendung reicht es nicht aus, nur zwischen Bediener, Instandhaltung und Administrator zu unterscheiden. Getrennt werden müssen Lesen, Alarmquittierung, Änderung von Prozessparametern, Umgehung von Verriegelungen, Wiederherstellung von Einstellungen, Software-Update und Fernzugriff; anschließend sind diese Tätigkeiten Zonen, Betriebsarten und Ausführungsbedingungen zuzuordnen. Fehlt diese Aufteilung, entstehen Ausnahmen „für die Inbetriebnahme“, gemeinsame Servicekonten und weitreichende technische Berechtigungen, die später im Produktivsystem bestehen bleiben. Für den Projektleiter ist das kein technisches Detail, sondern eine vorhersehbare Ursache für Verzögerungen bei Abnahmen, denn jede Unklarheit kehrt in derselben Frage zurück: Wer darf von wo und unter welchen Bedingungen eine Handlung ausführen, die die Maschine oder den Prozess beeinflusst? Das praktische Bewertungskriterium ist einfach: Wenn mit derselben Identität oder in derselben Sitzung ohne Kontextwechsel vom Anzeigen zur Änderung von Funktionen mit wesentlichen Auswirkungen gewechselt werden kann, ist die Segmentierung zu flach.
Ein gutes Beispiel ist eine Anwendung, die die Ferndiagnose einer Linie ermöglicht und zugleich einen Bildschirm zur Änderung von Rezepturen oder Grenzwerten bereitstellt. In der Konzeptphase wirkt das plausibel, weil es den Service vereinfacht und die Reaktionszeit verkürzt. Das Problem zeigt sich später: Ein Konto, das für die Fehleranalyse vorgesehen war, erhält plötzlich realen Einfluss auf das Verhalten der Anlage, und ein Kommunikationskanal, der nur zum Lesen gedacht war, wird zum Eingriffspfad. Kommt dann noch die Möglichkeit hinzu, eine Konfigurationssicherung wiederherzustellen, einen Dienst neu zu starten oder ein Paket aus der Ferne einzuspielen, kann ein einzelner Fehler bei der Vergabe von Berechtigungen die vereinbarte Aufteilung der Verantwortlichkeiten aushebeln. In einer solchen Konstellation entsteht der Aufwand nicht nur durch zusätzliche Programmierarbeit. Hinzu kommen erneute Tests, die Aktualisierung der Dokumentation, Abstimmungen mit Komponentenlieferanten sowie der Nachweis, dass kein neuer Einwirkungspfad auf die Maschinenfunktion geschaffen wurde. Deshalb sollte man nicht die Anzahl der Rollen messen, sondern die Zahl kritischer Operationen, die über Fernzugriffskanäle verfügbar sind, die Zahl gemeinsam genutzter Konten sowie die Zahl der Ausnahmen vom Default-Deny-Modell.
Dieses Thema geht in die praktische Risikobewertung über, wenn die Folgen einer unbefugten Handlung nicht bei einer Datenverletzung enden, sondern den sicheren Zustand, die Bedingungen für den Wiederanlauf oder die Wirksamkeit von Schutzmaßnahmen verändern können. Dann ist die Frage der Zugriffssegmentierung nicht mehr nur eine Frage der Systemarchitektur, sondern auch der korrekten Ermittlung von Gefährdungsszenarien und der Zuordnung von Minderungsmaßnahmen zu den tatsächlichen Auswirkungen. Dort wiederum, wo die Anwendung auf Aktorik, Sollwerte oder Arbeitsabläufe einwirkt, ergibt sich zwangsläufig auch der Bereich der Konstruktionsanforderungen an die Maschine selbst und ihre Ausrüstung, einschließlich Fragen der Manipulationsbegrenzung und des physischen Zugangs zu Gefahrenbereichen. Aus Sicht der Konformität lautet die sicherste Entscheidung nicht „Wem vertrauen wir?“, sondern „Welche maximale Änderung kann ein bestimmter Akteur von welchem Ort und in welcher Betriebsart vornehmen?“. Wenn das Team diese Frage vor der Inbetriebnahme beantworten kann, reduziert es in der Regel sowohl die Kosten für Nachbesserungen als auch das Risiko von Streitigkeiten über den Verantwortungsumfang.
Wie man das Thema praktisch angeht
In der Praxis beginnen das Prinzip der minimalen Rechte und die Zugriffssegmentierung nicht mit der Auswahl einer Technologie, sondern mit der Festlegung von Verantwortungsgrenzen bereits im Projekt einer industriellen Anwendung. Das Team sollte zunächst zwischen Tätigkeiten unterscheiden, die nur Zustände auslesen, solchen, die Prozessparameter verändern, und solchen, die Bewegung, Energie oder die Bedingungen für den Wiederanlauf beeinflussen können. Erst auf dieser Grundlage lässt sich sinnvoll festlegen, was der lokale Bediener darf, was die Instandhaltung darf, was der Remote-Service darf und was nicht ohne Anwesenheit vor Ort oder ohne zusätzliche Bestätigung ausgeführt werden darf. Entsteht diese Aufteilung erst nach der Inbetriebnahme, kehren die Kosten in Form von Anpassungen an Benutzeroberflächen, Ausnahmen bei Berechtigungen, manuellen Umgehungen und Streitigkeiten darüber zurück, wer eine riskante Arbeitsweise freigegeben hat. Genau an diesem Punkt geht das Sicherheitsthema unmittelbar in den Bereich der Auslegung industrieller Anwendungen über: Das Zugriffsmodell wird Teil der Systemlogik und ist keine bloße administrative Aufsatzlösung mehr.
Eine gute Konstruktionsentscheidung besteht daher darin, Berechtigungen um die Wirkung einer Operation herum aufzubauen und die Segmentierung an Prozessgrenzen und Verantwortungszonen auszurichten. Wenn eine Anwendung mehrere Linien, mehrere Zellen oder getrennte Hilfssysteme bedient, sollte die Grundeinstellung nicht ein weitreichender Zugriff auf das gesamte Objekt sein, sondern die Trennung von Sichtbarkeit, Steuerung und Administration entsprechend dem tatsächlichen Arbeitsumfang der jeweiligen Rolle. Das praktische Bewertungskriterium ist einfach: Ermöglichen der Ausfall eines Kontos, eine fehlerhafte Konfiguration oder die Übernahme eines einzelnen Zugangskanals eine Änderung außerhalb der zugewiesenen technologischen Zone oder außerhalb der vorgesehenen Betriebsart? Wenn ja, ist die Segmentierung nur scheinbar vorhanden. Sinnvoll ist es, dies nicht an der Zahl der Rollen im System zu messen, sondern an der Zahl der Operationen, die die Grenzen einer Zelle überschreiten, an der Zahl der Ausnahmen von der Zonenteilung und an der Zeit, die benötigt wird, um nach einer Änderung des Aufgabenbereichs Berechtigungen zu entziehen. Das sind Kennzahlen, die die künftigen Instandhaltungskosten und das Haftungsrisiko deutlich besser abbilden als die allgemeine Aussage, dass „der Zugriff eingeschränkt ist“.
Ein typisches Beispiel ist der Fernservice. Wenn der Lieferant die Möglichkeit zur Diagnose erhalten soll, sollte das Team das Auslesen von Ereignissen, das Ändern von Einstellungen und das Ausführen eines Steuerbefehls in drei separate Entscheidungen aufteilen – nicht in einen einzigen „Servicezugang“. In einem industriellen System haben diese Tätigkeiten völlig unterschiedliche Auswirkungen. Das Auslesen von Alarmen kann dauerhaft erforderlich sein, die Änderung von Parametern nur in einem festgelegten Servicefenster, und ein Befehl zum Starten oder Freigeben eines Antriebs kann über den Fernzugriff unter Umständen überhaupt nicht zulässig sein. Dasselbe gilt für die Robustheit bei einem kurzzeitigen Netzausfall, beim Neustart von Geräten und beim Verbindungsverlust: Die Anwendung darf nicht davon ausgehen, dass eine aufrechterhaltene Sitzung gleichbedeutend mit einer aufrechterhaltenen Kontrolle über den Prozesszustand ist. Wenn das System nach einem Verbindungsabbruch in einen unklaren Zustand übergeht und der Benutzer nach erneuter Anmeldung „vorsorglich“ zu weitreichende Berechtigungen erhält, liegt das Problem nicht nur in der IT-Sicherheit, sondern in einer fehlerhaften Auslegung des Anwendungsverhaltens in Übergangszuständen.
An dieser Stelle stellt sich zwangsläufig die praktische Risikobeurteilung. Wenn eine bestimmte Funktion die Bedingungen für einen sicheren Stopp verändern, eine prozedurale Sperre umgehen oder die Möglichkeit eines unerwarteten Anlaufs beeinflussen kann, sollte die Entscheidung über ihre Freigabe nicht ausschließlich dem Produkteigentümer oder dem Integrator überlassen werden. Es ist zu prüfen, ob die Auswirkung eines solchen Vorgangs in der Gefährdungsanalyse erkannt wurde und ob die organisatorische oder technische Maßnahme diese Auswirkung tatsächlich begrenzt, anstatt die Verantwortung lediglich auf den Endanwender zu verlagern. Je nach Umfang des Systems kann dieses Thema in den Bereich der Risikobeurteilung für Maschinen sowie in Fragestellungen zum Schutz vor unerwartetem Anlauf fallen. Aus Sicht der Konformität ist entscheidend, zu dokumentieren, warum eine bestimmte Rolle Zugriff auf eine bestimmte Funktion hat, in welcher Betriebsart dies zulässig ist und welcher Mechanismus die Nutzung dieser Funktion außerhalb des vorgesehenen Kontexts verhindert. Eine solche Dokumentation ist kein Zusatz für das Audit; sie ist ein Werkzeug, das Änderungskosten begrenzt und die Verantwortlichkeiten zwischen Hersteller, Integrator und Anwender klar ordnet.
Worauf bei der Umsetzung zu achten ist
Der häufigste Fehler bei der Umsetzung des Least-Privilege-Prinzips und der Zugriffssegmentierung in industriellen Anwendungen und Architekturen von Automatisierungssystemen besteht darin, beides als administrative Schicht zu behandeln, die erst am Ende des Projekts hinzugefügt wird. Tatsächlich handelt es sich um eine Architekturentscheidung, die das Betriebsmodell des Systems, den Umgang mit Störungen, die Verantwortung für Änderungen und die Instandhaltungskosten beeinflusst. Wenn Berechtigungen erst definiert werden, nachdem Steuerungslogik, Integrationen und Serviceschnittstellen bereits aufgebaut sind, endet das Team in der Regel mit Ausnahmen, Umgehungslösungen und „temporären“ Rollen, die dauerhaft bestehen bleiben. Das vergrößert die Zugriffsfläche, erschwert Abnahmen und macht es schwieriger nachzuweisen, dass eine bestimmte Funktion bewusst und nicht versehentlich freigegeben wurde. Für den Projektleiter hat das eine einfache Konsequenz: Je später die Entscheidung über Zugriffsgrenzen fällt, desto höher sind die Änderungskosten und desto größer ist das Risiko, dass die Verantwortung für betriebliche Folgen zwischen Hersteller, Integrator und Endanwender verwischt.
Damit geht dieses Thema sehr schnell in den Bereich der Auslegung industrieller Anwendungen über und betrifft nicht nur die Kontenverwaltung. Die Zugriffssegmentierung muss die tatsächlichen Grenzen des Prozesses berücksichtigen: Betriebsarten, Abhängigkeiten zwischen Geräten, die Lokalität der Wirkung sowie das Verhalten bei Verbindungsverlust, beim Neustart der Steuerung oder beim Wechsel in den Handbetrieb. Wenn eine Anwendung die ständige Verfügbarkeit eines Authentifizierungsdienstes voraussetzt, damit der Bediener eine Handlung ausführen kann, die für das sichere Stoppen oder die Wiederherstellung des Prozesses erforderlich ist, dann ist das Sicherheitsmodell fehlerhaft ausgelegt. Gleiches gilt, wenn ein Netzausfall zu einer unkontrollierten Erweiterung von Berechtigungen „für die Dauer des Service“ führt, weil das System sonst unbrauchbar wird. Das praktische Bewertungskriterium ist hier eindeutig: Für jede privilegierte Operation muss beantwortet werden können, was bei Netzausfall, nach einem Geräteneustart und nach dem Verlust der Verbindung zum übergeordneten System geschieht. Wenn die Antwort lautet „Der Administrator vergibt die Berechtigung manuell“ oder „Der Benutzer kennt das Umgehungsverfahren“, dann ist das noch keine umsetzungsreife Lösung.
In der Praxis zeigt sich das besonders deutlich bei Service- und Instandhaltungsfunktionen, die den Prozess scheinbar nicht verändern, wohl aber die Möglichkeit, ihn zu kontrollieren. Beispiele sind die Fernänderung von Parametern, das Quittieren von Alarmen, das Umschalten der Datenquelle, das vorübergehende Deaktivieren der Eingangsvalidierung oder das Aktivieren eines Testmodus der Schnittstelle. Jede dieser Operationen kann begründet sein, aber nicht jede sollte aus demselben Netzsegment, in derselben Betriebsart und für dieselbe Rolle verfügbar sein. Wenn eine einzige Benutzeridentität gleichzeitig Diagnose, Parameteränderung und die Freigabe zur Wiederaufnahme des Betriebs ermöglicht, hat das Team einen gemeinsamen organisatorischen und technischen Ausfallpunkt geschaffen. Sinnvoller ist es, dies nicht nach der Anzahl der Rollen zu bewerten, sondern nach messbaren Auswirkungen: Wie viele kritische Operationen erfordern multifunktionalen Zugriff, wie viele Ausnahmen von der Richtlinie müssen nach der Inbetriebnahme aufrechterhalten werden und ob die Ereignisprotokolle eine eindeutige Feststellung erlauben, wer, von wo und in welchem Kontext eine Änderung vorgenommen hat. Das sind Kennzahlen, die tatsächlich zeigen, ob die Segmentierung das Risiko begrenzt oder nur den Betrieb komplizierter macht.
Erst an dieser Stelle kommt die Perspektive von Konformität und Risikobeurteilung sinnvoll ins Spiel. Wenn die Zugriffsbeschränkung Funktionen betrifft, die den sicheren Zustand, die Stoppsequenz, prozedurale Verriegelungen oder die Möglichkeit zur Umgehung von Schutzeinrichtungen beeinflussen können, ist das keine rein IT-seitige Entscheidung mehr. Je nach Umfang des Systems ist zu prüfen, ob diese Auswirkung in der Gefährdungsanalyse erkannt wurde und ob die gewählte Rechteverteilung das Risiko tatsächlich reduziert, anstatt es nur auf die Anweisung oder den Benutzer zu verlagern. An diesem Punkt berührt das ganz natürlich die praktische Risikobeurteilung sowie die weitergehende Frage, wie sich Zugriff und Manipulationen auch außerhalb der reinen Logikebene begrenzen lassen. Für die Konformität ist nicht entscheidend, dass es eine Rollenrichtlinie gibt, sondern dass sich ihr Zusammenhang mit der Systemfunktion, der Betriebsart und dem vorhersehbaren Verhalten unter Randbedingungen nachweisen lässt. Lässt sich dieser Zusammenhang technisch und dokumentarisch nicht belastbar belegen, wird die Implementierung im Unterhalt teurer, im Audit schwieriger und genau dort schwächer, wo sie am vorhersehbarsten sein sollte.
Wie entwickelt man Industrieanwendungen, die dem Least-Privilege-Prinzip und der Zugriffssegmentierung entsprechen?
Denn das Berechtigungsmodell beeinflusst die Servicearchitektur, den Datenaustausch und das Systemverhalten im Fehlerfall. Werden Einschränkungen erst später ergänzt, führt das in der Regel zu kostspieligen Nacharbeiten und Problemen bei den Abnahmen.
Nicht nur nach organisatorischen Rollen, sondern nach konkreten operativen Auswirkungen. In der Praxis sind das Auslesen, das Ändern von Parametern, das Quittieren von Alarmen, Aktualisierungen, Umgehungen und der Fernzugriff jeweils getrennt zu behandeln.
Wenn dieselbe Identität oder Sitzung ohne Kontextwechsel von der Anzeige zu Eingriffen übergehen kann, die den Prozesszustand oder die Konfiguration verändern. Das ist ein Zeichen dafür, dass die Grenzen zwischen Zonen, Funktionen oder Betriebsarten nicht ausreichend getrennt sind.
Ein Ausfall, ein Konfigurationsfehler oder die Übernahme einer solchen Sitzung kann nicht nur Zugriff auf die Diagnose ermöglichen, sondern auch die Änderung von Parametern oder Einfluss auf den Neustart des Systems. Damit überschreitet ein einzelner Zugangspunkt den vorgesehenen Funktionsumfang.
Ja, insbesondere wenn die Anwendung Einfluss auf Geräte, den Prozess oder die Bedingungen für einen Wiederanlauf haben kann. In einem solchen Fall sind Entscheidungen über Berechtigungen nicht ausschließlich ein IT-Thema, sondern Teil der Projektverantwortung und der Bewertung der Folgen unbeabsichtigter Handlungen.