Eine grundlegende Herausforderung für den Einsatz von Künstlicher Intelligenz in der Luftfahrt besteht in der zwingend erforderlichen Zertifizierung solcher Technologien. Denn Komponenten eines Flugzeugs sind sicherheitskritisch und unterliegen somit hohen Qualitätsstandards, da Fehler fatale Folgen haben können. Komplexe KI kann jedoch bislang nicht eingesetzt werden, da entsprechende Zertifizierungsverfahren fehlen. Derzeit gibt es nur Regelwerke für Systeme, die deterministisch ausgelegt sind. Es gilt also, Standards für Technologien zu schaffen, die nicht starr programmiert sind, sondern in Echtzeit flexibel reagieren.
„Zertifikationsmethoden haben das Ziel, hinreichend zu überprüfen, ob die Systeme zuverlässig sind. Darüber hinaus sind sie unverzichtbar, um die Öffentlichkeit von dieser Zuverlässigkeit zu überzeugen“, so Fritz. Aufgrund des Schadenrisikos im Luftfahrtbereich gehe es nicht darum Risiko zu minimieren, sondern auszuschließen.
Die Debatte um den Einsatz von KI ist insbesondere geprägt vom konkreten Zusammenwirken von Mensch und Maschine sowie der Frage, wie sich Verantwortung zuordnen lässt, wenn Mensch und Computer miteinander interagieren. Der Moraltheologe schildert: „Im strengen Sinn des Wortes kann KI nicht ethisch entscheiden oder agieren. Sie kann daher auch keine Verantwortung tragen. Dennoch besteht im Geflecht der Mensch-Maschine-Interaktion die Gefahr, dass mit dem Delegieren von Aufgaben nicht mehr klar ist, wer für was Verantwortung trägt.“ Daher seien die Zuschreibung von personalen Fähigkeiten und Eigenschaften sowie alle Versuche, Technik zu vermenschlichen, zu hinterfragen. „In unserem Forschungsverbund beschäftigen wir uns alle mit einer ethisch validen Zertifizierung von KI-Technologien als Beitrag zu einer verantwortlichen Nutzung. Hierbei muss man nicht nur an Menschenwürde oder Diskriminierung denken. Auch die Robustheit und Sicherheit von KI oder auch Datenqualität sind ethische Ziele“, betont Fritz. Ziel seines Projektes sei es daher, zu erforschen, wie und unter welchen Prämissen künftig ethischen Grundrechten und gesellschaftlichen Werten eine Schlüsselrolle beim Design und Einsatz von KI in der Luftfahrt zukommen kann.
Als Folge einer Diskussion um die Erwartungen und Befürchtungen rund um Künstliche Intelligenz haben mittlerweile auf nationaler, europäischer sowie internationaler Ebene sehr viele Regierungs- und renommierte Nichtregierungsorganisationen ihre jeweils eigenen ethischen Kriterienkataloge für die Entwicklung und Nutzung von KI entwickelt. Fritz hat zusammen mit seinem Projektmitarbeiter Felix Steinbrecher und einem studentischen Team mittlerweile 380 Leitlinien zur KI gefunden. Die Bandbreite der Urheber ist beeindruckend: Sie reicht von einem Katalog, den lateinamerikanische feministischen Organisationen verfasst haben, bis hin zu internationalen Stakeholdern wie Google oder Microsoft. Für das KIEZ-Projekt ist besonders die Initiative „Trustworthy AI“ in der Europäischen Union zentral.
„Aufgrund der Dynamik ist eine fortlaufende systematische Erfassung, Bestandsaufnahme, Sichtung und Gegenüberstellung all dieser Initiativen zwar sehr aufwendig, aber auch sehr fruchtbar wie sehr wichtig“, so Fritz. In einem ersten Schritt recherchiert das Projektteam momentan weltweit weiter nach entsprechende Regelwerke, um diese zu sichten und gegenüberzustellen. Zudem gelte es, eine gemeinsame Sprache für zentrale Begriffe wie „Werte“, „Ziele“ oder „Kriterien“ zu finden, die Ingenieure, Juristinnen, Theologinnen und Philosophen gleichermaßen verstehen können. Anschließend soll ein eigenständiger Konzeptentwurf entstehen, der ethisch-technologische Kriterien, Prinzipien und Leitlinien enthält. Diese entstehen auch im laufenden Austausch mit den technischen und juristischen Partnern des Gesamtprojektes. „Rechtliche Normen müssen im Einklang mit den ethischen stehen. Deshalb wollen wir die ethischen Kriterien mit bestehenden Rechtsvorschriften und Bestimmungen in diesem Feld abzugleichen und aufzeigen, wenn Weiterentwicklungen nötig sind. Der Forschungsverbund bietet die Möglichkeit, moral-ethische Fragen bereits in der Entwicklungsphase einzubringen – im engen Austausch mit technischen und juristischen Partnern. Das macht das Projekt für uns so spannend“, betont Professor Fritz.