DE
EN

ETHIK DEBATTE IM UMGANG MIT KÜNSTLICHER INTELLIGENZ (KI)

Prof. Dr. Armin Grundwald: "Umgang mit KI stellt uns vor ethische Fragen."

Je mehr Anwendungsbereiche Künstliche Intelligenz (KI) erobert, desto lauter werden die Rufe nach ethischen Grundsätzen. Wie weit sie reichen sollen, darüber sind sich Experten auf der DIGITAL X 2019 bereits einig.

„Jede Technik birgt Risiken, wir müssen uns immer langsam herantasten“, sagt Prof. Dr. Armin Grunwald. Der Leiter des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) geht es ruhig an. Keine unnötige Emotionalisierung und vor allem keine vorschnellen Schlüsse. Das Ethikdilemma um KI, etwa wen ein autonom fahrendes Auto bei einem Ausweichmanöver eher überfahren dürfe – einen älteren Menschen oder eine Gruppe jüngerer –, hält der Professor für Technikphilosophie für „konstruiert“.


Die Ursache für das „Scheinproblem“ liegt seiner Auffassung nach darin, dass Roboter und KI in Science-Fiction-Filmen wie Star Wars mit dem humanoiden C3PO vermenschlicht würden, was sich in Äußerungen wie „der Roboter handelt“ oder „die KI denkt“ ganz deutlich zeige. „Bei der Übertragung aus der Science-Fiction Welt in die reale Welt werden Probleme erzeugt, die es noch gar nicht gibt, und das wird auch noch lange so bleiben“, sagt Grunwald. Dennoch: „Wir lernen mit der Zeit, die jeweilige Technik zu adaptieren und gute Lösungen zu entwickeln.“ So wird das autonom fahrende Auto in Zukunft bestenfalls niemanden überfahren.


„KI ist ein Problemlöser, aber kein Selbstdenker“

Die perfekte Reaktion ist ein Attribut, das wir Menschen Maschinen gerne zuschreiben, schließlich zeigen sie beispielsweise in Produktionsstraßen der Industrie, wie makellos und immer gleich sie eine Handlung ausführen können. KI-Experte Chris Boos, der als Gründer des KI-Unternehmens arago bereits seit mehr als 20 Jahren zu künstlich intelligenten Systemen und deren Anwendungsmöglichkeiten forscht, eröffnet auf der DIGITAL X 2019 eine weitere Betrachtungsweise: „Ein KI-System muss nicht perfekt reagieren können, immer und überall. Es reicht vielleicht schon, wenn die KI besser reagiert als ein Mensch“.


KI denkt nicht, sie folgt ihrer Programmierung

Eine KI sei nicht in der Lage, Entscheidungen zu treffen, sind sich Boos und Grunwald einig. „Als säkulare Gesellschaft entscheiden wir selbst, was wir dürfen und was nicht“, sagt Grunwald. Das bedeute auch, dass wir Entscheidungen delegieren dürfen – etwa an Roboter, wie dies im Industrie 4.0-Umfed bereits geschieht, oder in Zukunft an autonom fahrende Autos. Hier dürfe man jedoch die „Entscheidung“ der Algorithmen als Ergebnis einer Rechenaufgabe, aus der Auswertung von über Sensoren gesammeltem Daten, nicht mit der freien Entscheidungsfindung eines Menschen aus einer Reihe von Optionen verwechseln. „Ein Algorithmus kommt nicht ins Grübeln, sondern folgt immer einem vorgegebenen Programm“, erklärt Grunwald.


So sieht es auch Manuela Mackert, Chief Compliance Officer (CCO) und Leiterin des Group Compliance Managements der Telekom Deutschland. „Verantwortungsvolle KI fängt schon beim Programmieren an“, betont sie in ihrem Vortrag „Digitale Ethik: Wettbewerbsvorteil durch wertebasierte KI“. In ihrer Funktion widmet sie sich verstärkt der Förderung der Digital-Ethik. Das hat einen guten Grund: Mackert zitiert eine aktuelle Capgemini-Studie, in der eine große Mehrheit der Verbraucher (62 Prozent) angibt, dass sie Unternehmen mehr vertrauen, wenn sie ethische KI einsetzten, die transparent, fair und klar nachvollziehbar ist.


Wie lange geht die Weiterentwicklung von KI-Systemen aber noch Hand in Hand mit bestehenden Wertevorstellungen? Kommt der Punkt, an dem das moralisch Vertretbare hinter dem technisch Möglichen zurücktritt oder gar zurücktreten muss, weil Moralvorstellungen auf der Welt eben unterschiedlich sein können? Ulla Coester, Mit-Gründerin des Ethik-Netzwerks Xethix und seit 2018 Partnerin des Netzwerks Wegesrand, macht unverblümt deutlich, dass KI für gute wie schlechte Zwecke eingesetzt werden kann. So erleichtern beispielsweise biometrische Verfahren die Authentifizierung beim Entsperren von Smartphones und sichern Bezahlvorgänge. Andererseits kann die maschinelle Gesichtserkennung auch die Privatsphäre von Menschen beeinträchtigen, etwa wenn diese damit lückenlos überwacht werden. Sie wirbt für möglichst klare Grenzen, heute sowie in Zukunft: „Wir sollten genau überlegen, wo wir KI einsetzen und den Grundsatz beachten, dass der Mensch als Entscheider immer das letzte Wort hat.“ Folgt daraus schlimmstenfalls ein Technikverzicht? Coester sagt ja, „schließlich soll die Technik dem Menschen helfen und nicht umgekehrt.“


Sie sieht Unternehmen in der Verantwortung, durch Selbstverpflichtungsinitiativen zu gewährleisten, dass beim Thema KI ethische Normen und Standards gewährleistet werden. Die Ergebnisse von rund 1.600 von Capgemini befragten Unternehmensentscheidern in zehn Ländern – darunter Deutschland, Frankreich, Großbritannien, China, Indien und die USA – zeigen: Neun von zehn Managern haben bereits Erfahrungen gemacht, bei denen der Einsatz von KI zu ethischen Problemen führte, die sie lösen mussten.