Wie kann man für KI einen Standard schaffen, der hilft, ein Verständnis für diese Vorgänge zu ermöglichen?
Rueß: In den letzten Jahrzehnten haben Forscher*innen und Entwickler*innen, auch wir an unserem Forschungsinstitut, viel Erfahrungswissen zur Entwicklung KI-basierter Systeme gesammelt. Dabei hat sich ein einheitliches Vorgehensmodell vom Datensammeln über das Trainieren solcher Netze bis zur Analyse herauskristallisiert. Dieser Erfahrungsschatz wurde von uns in die aktuelle VDE-AR-E 2842-61 gegossen.
Diese Regeln wurden nun in insgesamt sechs Bänden mit jeweils ca. 60 Seiten niedergeschrieben. Was sind die wichtigsten Maßnahmen, die für diesen Prozess festgelegt worden sind?
Putzer: Auch Elektronik war einmal eine neue Technologie. Und auch da haben sich die Leute gefragt: Wann geht so ein elektrisches Ding denn mal kaputt? Wie wahrscheinlich ist die korrekte Funktion? Dadurch sind wir zu Maßen wie Ausfallraten (aus zufälligen Fehlern) gekommen – entstanden über Jahrzehnte und durch viele Versuche und Erfahrungen.
Daraufhin folgte Software und wir haben gemerkt: Ausfallraten sind hier nicht der richtige Ansatz. Wir müssen so entwickeln, dass keine Fehler enthalten sind. Software an sich kann nicht kaputt gehen oder altern. Darum wurden entsprechende systematische Entwurfsansätze entwickelt, um die systematischen Fehler zu vermeiden.
Die KI stellt uns jetzt wieder vor eine neue Kategorie von Fehlerarten neben den zufälligen (hauptsächlich Hardware) und den systematischen Fehlern. Wir müssen Maßnahmen entwickeln, um diese zu reduzieren. Es gibt eine Sammlung von Best Practices, die man festgehalten hat, wann und wie KI-Anwendungen funktionieren. Wir begannen, diese Informationen zu sammeln und strukturiert herauszuarbeiten, welche Anforderungen überhaupt an so ein KI-Element, als Baustein eines Ganzen, zu stellen sind und wie diese Anforderungen implementiert und nachgewiesen werden. Letztlich haben wir einen Ansatz gefunden, um diese dritte Fehlerart der unsicherheitsbezogenen (uncertainty-related) zu handhaben.
Wir reden, wenn wir heute KI sagen, im Wesentlichen von neuronalen Netzen. Das ist eigentlich nur ein kleiner Teil der KI. Es gibt formale Methoden, die andere Teile der KI ganz gut handhaben können. Bei den neuronalen Netzen jedoch tun wir uns da schwer. Das heißt, wir brauchen neue Methoden, die uns die Möglichkeit geben, diese Ausfallrate bzw. die Wahrscheinlichkeit der Funktionsfähigkeit zu bestimmen.
Bei dem massiven Einsatz von KI, geht es auch viel ums Ausprobieren, insbesondere wenn man genug Rechenpower hat. Die Forschung und wir betrachten die Thematik mit einer deduktiven Perspektive. Die Zulassung als dritte Säule nähert sich zusätzlich an.
Der Stand ist, dass man eine klare Argumentation mit Nachweisen haben muss. Das sagt sogar die US-amerikanische FDA (U.S. Food and Drug Agency – Zulassung von Medizinprodukten). Die akzeptiert, dass KI in Produkten ist, erwartet aber eine gute Argumentation. Wir sind dabei zu fragen, wie so eine Argumentation aussehen und aufgebaut sein muss, was die Struktur dahinter ist und was die minimalen Anforderungen für eine erfolgreiche KI-Implementierung sind. Um eine Fehlerabstinenz zu deklarieren, müssen geeignete Tests konzipiert und durchgeführt werden. Solche Metriken, solche Tests und Nachweise, entwickeln die Forschung und die Industrie.