Ethische Grundlagen für Künstliche Intelligenz in der Luftfahrt

Airbus
© Airbus/S. Ramadier

Nicht nur für den Betrieb autonomer Fahrzeuge, sondern auch für die Luftfahrtbranche bietet der Einsatz von Künstlicher Intelligenz neue Perspektiven. Während der Autopilot bereits seit Jahrzehnten Standard ist, arbeitet man heute an einer vereinfachten Befehlseingabe via Spracherkennung oder gar Konzepten für elektronische Co-Piloten. Dabei werden nicht nur technische Fragen aufgeworfen, sondern auch ethische: „Es gilt, ethische Grundrechte und gesellschaftliche Normen und Werte zu wahren, wenn die Möglichkeiten von Künstlicher Intelligenz gleichzeitig auch die Kontrollmacht der Nutzenden mindern“, betont der Moraltheologe Prof. Dr. Alexis Fritz von der KU. Gerade die Reflexion eines ethischen Rahmens für KI biete die Möglichkeit, das Potenzial dieser innovativen Technologie voll auszuschöpfen. Rechtliche Normen oder Richtlinien müssten in Einklang mit ethischen stehen. An den Grundlagen dafür forschen Fritz und sein Team nun ihm Rahmen des Projektes „Künstliche Intelligenz Europäisch Zertifizieren unter Industrie 4.0“, das von der Airbus Defence and Space GmbH geleitet und vom Bundeswirtschaftsministerium gefördert wird. Neben Airbus sind an dem dreijährigen Vorhaben weitere technische Partner, wie mehrere Fraunhofer-Institute, sowie unter anderem die Deutsche Flugsicherung sowie die Europäische Agentur für Flugsicherheit beteiligt.

Eine grundlegende Herausforderung für den Einsatz von Künstlicher Intelligenz in der Luftfahrt besteht in der zwingend erforderlichen Zertifizierung solcher Technologien. Denn Komponenten eines Flugzeugs sind sicherheitskritisch und unterliegen somit hohen Qualitätsstandards, da Fehler fatale Folgen haben können. Komplexe KI kann jedoch bislang nicht eingesetzt werden, da entsprechende Zertifizierungsverfahren fehlen. Derzeit gibt es nur Regelwerke für Systeme, die deterministisch ausgelegt sind. Es gilt also, Standards für Technologien zu schaffen, die nicht starr programmiert sind, sondern in Echtzeit flexibel reagieren.

„Zertifikationsmethoden haben das Ziel, hinreichend zu überprüfen, ob die Systeme zuverlässig sind. Darüber hinaus sind sie unverzichtbar, um die Öffentlichkeit von dieser Zuverlässigkeit zu überzeugen“, so Fritz. Aufgrund des Schadenrisikos im Luftfahrtbereich gehe es nicht darum Risiko zu minimieren, sondern auszuschließen.

Die Debatte um den Einsatz von KI ist insbesondere geprägt vom konkreten Zusammenwirken von Mensch und Maschine sowie der Frage, wie sich Verantwortung zuordnen lässt, wenn Mensch und Computer miteinander interagieren. Der Moraltheologe schildert: „Im strengen Sinn des Wortes kann KI nicht ethisch entscheiden oder agieren. Sie kann daher auch keine Verantwortung tragen. Dennoch besteht im Geflecht der Mensch-Maschine-Interaktion die Gefahr, dass mit dem Delegieren von Aufgaben nicht mehr klar ist, wer für was Verantwortung trägt.“  Daher seien die Zuschreibung von personalen Fähigkeiten und Eigenschaften sowie alle Versuche, Technik zu vermenschlichen, zu hinterfragen. „In unserem Forschungsverbund beschäftigen wir uns alle mit einer ethisch validen Zertifizierung von KI-Technologien als Beitrag zu einer verantwortlichen Nutzung. Hierbei muss man nicht nur an Menschenwürde oder Diskriminierung denken. Auch die Robustheit und Sicherheit von KI oder auch Datenqualität sind ethische Ziele“, betont Fritz. Ziel seines Projektes sei es daher, zu erforschen, wie und unter welchen Prämissen künftig ethischen Grundrechten und gesellschaftlichen Werten eine Schlüsselrolle beim Design und Einsatz von KI in der Luftfahrt zukommen kann.

Als Folge einer Diskussion um die Erwartungen und Befürchtungen rund um Künstliche Intelligenz haben mittlerweile auf nationaler, europäischer sowie internationaler Ebene sehr viele Regierungs- und renommierte Nichtregierungsorganisationen ihre jeweils eigenen ethischen Kriterienkataloge für die Entwicklung und Nutzung von KI entwickelt. Fritz hat zusammen mit seinem Projektmitarbeiter Felix Steinbrecher und einem studentischen Team mittlerweile 380 Leitlinien zur KI gefunden. Die Bandbreite der Urheber ist beeindruckend: Sie reicht von einem Katalog, den lateinamerikanische feministischen Organisationen verfasst haben, bis hin zu internationalen Stakeholdern wie Google oder Microsoft. Für das KIEZ-Projekt ist besonders die Initiative „Trustworthy AI“ in der Europäischen Union zentral.

„Aufgrund der Dynamik ist eine fortlaufende systematische Erfassung, Bestandsaufnahme, Sichtung und Gegenüberstellung all dieser Initiativen zwar sehr aufwendig, aber auch sehr fruchtbar wie sehr wichtig“, so Fritz. In einem ersten Schritt recherchiert das Projektteam momentan weltweit weiter nach entsprechende Regelwerke, um diese zu sichten und gegenüberzustellen. Zudem gelte es, eine gemeinsame Sprache für zentrale Begriffe wie „Werte“, „Ziele“ oder „Kriterien“ zu finden, die Ingenieure, Juristinnen, Theologinnen und Philosophen gleichermaßen verstehen können. Anschließend soll ein eigenständiger Konzeptentwurf entstehen, der ethisch-technologische Kriterien, Prinzipien und Leitlinien enthält. Diese entstehen auch im laufenden Austausch mit den technischen und juristischen Partnern des Gesamtprojektes. „Rechtliche Normen müssen im Einklang mit den ethischen stehen. Deshalb wollen wir die ethischen Kriterien mit bestehenden Rechtsvorschriften und Bestimmungen in diesem Feld abzugleichen und aufzeigen, wenn Weiterentwicklungen nötig sind. Der Forschungsverbund bietet die Möglichkeit, moral-ethische Fragen bereits in der Entwicklungsphase einzubringen – im engen Austausch mit technischen und juristischen Partner. Das macht das Projekt für uns so spannend“, betont Professor Fritz.