Der Einsatz von KI-Systemen ist schon jetzt in vielen Bereichen des Maschinen- und Anlagenbaus eine Zielsetzung für die nahe Zukunft. In einem Bericht der Europäischen Kommission aus dem Jahr 2020 wurde allerdings festgestellt, dass die damals aktuelle Gesetzgebung zur Produktsicherheit auch in Bezug auf die Maschinenrichtlinie2006/42/EG eine Reihe von Lücken hinsichtlich der Sicherheitsrisiken beim Einsatz digitaler Technologien enthält.
Diese Lücken sollen mit entsprechenden Regelungen der neuen Maschinenverordnung (EU) 2023/1230 geschlossen werden. Flankiert werden diese Festlegungen durch den „Artificial Intelligence Act (AI Act)”, welcher unter anderem den Einsatz von KI-Systemen zur Umsetzung eines selbstlernenden Verhaltens von Produkten und somit auch von Maschinen reguliert.
KI-Systeme und Konformitätsbewertung
Eine der grundlegenden Änderungen in der Machinenverordnung ist die Forderung nach wahlweise einer EU-Baumusterprüfung, umfassender Maßnahmen zur Qualitätssicherung oder der Durchführung einer Einzelprüfung. Das betrifft demnächst alle Maschinen und zugehörige Produkte aufgelistet im Anhang I, Teil A der Verordnung.
Hier sind insbesondere zu nennen:
5. Sicherheitsbauteile mit vollständig oder teilweise selbstentwickelndem Verhalten unter Verwendung von Ansätzen des maschinellen Lernens, die Sicherheitsfunktionen gewährleisten.
6. Maschinen, die über eingebettete Systeme mit vollständig oder teilweise selbstentwickelndem Verhalten unter Verwendung von Ansätzen des maschinellen Lernens verfügen, die Sicherheitsfunktionen gewährleisten, die nicht gesondert in Verkehr gebracht wurden, nur in Bezug auf diese Systeme.
Wichtig zu erkennen ist in diesem Zusammenhang, dass also alle Maschinen, die mit einem KI-System ausgerüstet werden, in den Anhang I, Teil A fallen, selbst wenn sie vorher dort nicht gelistet waren.
Allerdings besteht für sie lediglich die Vepflichtung zu besonderen Konformitätsbewertungsverfahren in Bezug auf das KI-System.
Erweiterung des Gefährdungspotentials
Neben den bisher im Rahmen einer Risikobeurteilung zu betrachtenden Gefährdungen benennt die Maschinenverordnung im Anhang III, Teil B einen erweiterten Gefährdungsbereich:
Die Risikobeurteilung und Risikominderung umfassen Gefährdungen, die im Laufe des Lebenszyklus der Maschinen oder dazugehörigen Produkte auftreten können und die zum Zeitpunkt ihres Inverkehrbringens vorhersehbar sind, da sie sich aus der bestimmungsgemäßen Veränderung ihres vollständig oder teilweise selbstentwickelnden Verhaltens oder ihrer vollständig oder teilweise selbstentwickelnden Logik infolge der Auslegung der Maschinen oder dazugehörigen Produkte für einen in wechselndem Maße autonomen Betrieb ergeben.
Der Anhang III der Verordnung mit seinen Sicherheits- und Gesundheitsschutzanforderungen benennt im Abschnitt 1.2.1. auch Anforderungen in Bezug auf Steuerungssysteme, „deren Verhalten oder Logik sich vollständig oder teilweise selbst entwickelt und die für einen in wechselndem Maße autonomen Betrieb ausgelegt sind”.
Produkte werden hochriskant
Mit der Veröffentlichung im Amtsblatt der EU am 12. Juli 2024 trat der AI Act am 1. August 2024 in Kraft, am 2. August 2027 beginnt die Umsetzungspflicht für solche Produkte, die im Anhang II gelistet sind. Zu nennen sind hier u. a. Maschinen oder auch Geräte für den Einsatz in Ex-Bereichen.
Der sogenannte Titel III behandelt die Klassifizierung von KI-Systemen als Hochrisiko-Systeme. Ein KI-System ist dann hochriskant, wenn:
die beiden folgenden Bedingungen erfüllt sind:
a) das KI-System soll als Sicherheitskomponente eines unter die in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union fallenden Produkts verwendet werden oder ist selbst ein solches Produkt;
b) das Produkt, dessen Sicherheitskomponente das KI-System ist, oder das KI-System selbst als Produkt muss einer Konformitätsbewertung durch Dritte im Hinblick auf das Inverkehrbringen oder die Inbetriebnahme dieses Produkts gemäß den in Anhang II aufgeführten Harmonisierungsrechtsvorschriften der Union unterzogen werden.
Mit dieser Formulierung ist also die Verknüfung mit den oben genannten Aussagen der Maschinenverordnung gegeben.
KI-Systeme und Risikomanagement
Eine der wesentlichen Anforderung des AI Acts in Bezug auf Hochrisiko-Systeme ist die Einführung eines Riskomanagementsystems als kontinuierlicher und regelmäßig zu aktualisierender Prozess. Die konkrete Ausgestaltung des Prozesses hat große Gemeinsamkeit mit der Risikobeurteilung nach Maschinenrichtlinie bzw. Maschinenverordnung.
Auch hier ist ein wesentliches Ergebnis des Prozesses die Beurteilung der Restrisiken und die Bereitstellung angemessener Informationen für die Benutzerinnen und Benutzer.
KI-System und Anleitung
Wie bei jedem anderen mit Risiken behaftetem Produkt wird auch im AI Act in Artikel 13 gefordert:
(2) Hochrisiko-KI-Systeme werden mit Gebrauchsanweisungen in einem geeigneten digitalen Format bereitgestellt oder auf andere Weise mit Gebrauchsanweisungen versehen, die präzise, vollständige, korrekte und eindeutige Informationen in einer für die Nutzer relevanten, barrierefrei zugänglichen und verständlichen Form enthalten.
Die zu liefernden Informationen werden im weiteren Verlauf des Artikels 13 präzisiert. Zu beschreiben sind Merkmale, Fähigkeiten und Leistungsgrenzen auch in Bezug auf Robustheit und Cybersicherheit.
Klassische Informationen wie bestimmungsgemäße Verwendung, vorhersehbare Fehlanwendung sowie die Orientierung an den jeweiligenZielgruppen sind auch hier gefordert.
Zur Vertiefung des Themas bietet tecteam ein ca. 1-stündiges Online-Seminar an.
Interressenten wenden sich bitte per E-Mail an: h.kleiner@tecteam de
Hinterlasse einen Kommentar