Ethik und KI: „Der Mensch muss die Kontrolle behalten“ Folge 1
17. April 2019Ein autonomes Fahrzeug steht vor einer grundlegend neuen Situation: es muß entscheiden, fährt es ein Kind tot oder vier Erwachsene? Natürlich ist solch ein Ereignis konstruiert und nur mit einer ganz geringen Wahrscheinlichkeit möglich. Dennoch haben derartige Konstrukte Vorbehalte gegen die KI hervorgerufen. Inzwischen wird sie zu Recht kritisch betrachtet. Dabei wird KI immer häufiger mit Ethik in Zusammenhang gebracht. Zu welchen Ergebnissen das führt, soll diese Serie vermitteln.
KI ist ganz offensichtlich eine Technologie mit riesigem Potenzial. Nach einer Studie des Global McKinsey Instituts wird diese Technik bis 2030 zur globalen Wirtschaftsleistung 13 Billionen Dollar beitragen. Kein Wunder, das immer mehr Unternehmen weltweit ihre Produktionsprozesse mit KI verbinden. Die Gefahr dabei ist, das „Werkzeuge“ entstehen, die den menschlichen Interessen zuwiderlaufen.
Vor dem Hintergrund des Absturzes der Boeings Max 737 kam es kürzlich im New England Executive Council des Rensselaer Polytechnic Institute zu einer Diskussion zu dieser Thematik. Ich fasse die wichtigsten Punkte der Diskussion zusammen.
Zunächst forderte Dr. Shirley A. Jackson, Präsidentin des Rensselaer Polytechnic Institute, die heutige Führungsspitze der Unternehmen auf, das Richtige zu tun. „Die KI steht auf der Kippe. Es liegt an uns zu entscheiden, wie es verwendet wird“, sagte Dr. Jackson.
Neben dem wirtschaftlichen Nutzen werde die KI der Menschheit zugute kommen, indem sie einen weitreichenden Einfluss auf die Medizin und das Gesundheitswesen habe, indem sie Störungen erkenne und überwache und sogar Patienten mit psychischer Gesundheit helfe, sagte Dr. Jackson.
Dann wandte sie sich den „dunkleren Möglichkeiten“ zu. Dazu gehören: die Nachrichtenfeeds von Facebook und anderen sozialen Medien, die zum Beispiel Desinformationen zu den US-Wahlen 2016 verbreiteten; Berichte, dass China ein soziales Rankingsystem aufbaue, das auf seine Bürger anwendbar ist; flächendeckende Videoüberwachung; Gesichtserkennung und schließlich die Erosion des Datenschutzes.
Sie ging dann auch auf Fragen zu den beiden jüngsten Abstürzen der Boeing MAX 737 ein, bei denen es den Anschein hatte, dass die menschlichen Piloten die Kontrolle über die Flugzeuge an ein defektes Leitsystem mit KI im Kern verloren haben könnten, was zu Abstürzen ohne Überlebende führte. „Diese Abstürze werden heute noch untersucht, aber es stellt uns die Frage, wo die Grenzen der heutigen KI-Software-Systeme liegen?“ fragte Dr. Jackson.
Dr. Jackson fragte Dawn Fitzgerald, Leiterin der digitalen Transformation bei Schneider-Electric Data Center Operations, wie die KI helfen könne, zum Beispiel eine petrochemische Anlage zu sichern. Mit Bezug auf die jüngsten Abstürze von Boeing 737 MAX antwortete Fitzgerald: „Wir wissen nicht, ob es ein komplexes KI-System war, das versagte, aber wir wissen, dass die Menschen die Kontrolle nicht übernehmen konnten.„
In ihrer Designarbeit bei Schneider will Fitzgerald sicherstellen, dass der Mensch die Kontrolle behält. „Wir brauchen Menschen, die die KI kontrollieren, um ethische KI-Systeme zu haben“, sagte sie. „Und wir müssen tatsächlich eine ethische KI entwickeln.“
Dr. Jackson fragte, ob KI-Systeme so konzipiert werden müssen, dass Menschen bei Bedarf die Kontrolle zurückerlangen können. „Absolut“, sagte Fitzgerald. „Ein Informatiker könnte es verstehen, und der Techniker auf dem Boden (der es benutzt) muss es auch verstehen“, sagte sie.
Dr. Jackson fragte, ob die KI in bestimmten Bereichen nicht verwendet werden sollte, weil das „Black-Box-Problem“, die Unfähigkeit des KI-Systems, zu erklären, wie es zu seiner Vorhersage, Empfehlung oder Schlussfolgerung kam, die Einflussnahme von Menschen verhindere?
John Kelly von IBM erkannte das Blackbox-Problem an. In Bezug auf neuronale Netze sagte er: „Wenn diese Dinge Hunderte oder Tausende von Schichten tief werden, werden sie zu einer absoluten Blackbox.“ Er fügte hinzu: „Wir sind der Meinung, dass wir in der Lage sein müssen, es zu erklären.“ Die Fähigkeit des Systems, zu erklären, wie es zu seinem Abschluss gekommen ist, müsse von Anfang an eingebaut werden.
Dr. Jackson bemerkte gegenüber dem CEO von Optum Labs , Paul Bleicher, dass Optum Daten über rund 200 Millionen Menschen habe, und fragte, ob die „datengesteuerte Medizin“ den Menschen helfe. (Anmerkung: Die geschätzte US-Bevölkerung beträgt 2018 327 Millionen.) Sie fragte auch, ob die Leute verhindern könnten, dass die Maschinen Dinge über Menschen erfahren, die sie lieber für sich behalten würden. Bleicher gab dazu folgende Antwort: „Die Daten sind sehr leistungsfähig.“ Dabei wies er darauf hin, dass es „eine Menge Nuancen in den Arztbriefen“ gebe. „Wir können jetzt Deep Learning einbetten, um all diese Informationen zusammenzuführen und mit der Textanalyse kombinieren, um eine multidimensionale Informationsquelle zu schaffen, die Sie in Modelle einbauen können. Das gibt uns Einblicke in viele Dinge.“ Somit könnten auch Erkenntnisse gewonnen werden, „ von denen der Patient nichts weiß.“Seine Schlußfolgerung: „Wir müssen darauf achten, an wen wir die Daten weitergeben und wie sie verwendet werden und nicht verwendet werden.“
Dr. Jackson fragte, ob das HIPPA-Datenschutzgesetz die Innovation im Gesundheitswesen behindere. Bleicher erwähnte den Begriff „Re-Identifikation“, der sich auf Möglichkeiten bezieht, Personen aus Datenquellen zu identifizieren, die als anonym gelten. Er sagte: „HIPAA macht es nicht unmöglich, Menschen zu reidentifizieren, aber es macht es schwieriger.“
Daten sind der Kern der KI-Arbeit im Gesundheitswesen, und Optum hat die Daten. Bleicher riet: „Wenn Menschen durch den fehlenden Zugang zu Daten frustriert sind, müssen sie mit Menschen zusammenarbeiten, die Zugang zu den Daten haben.“
John Kelly von IBM schlußfolgerte: „Das ist der Kern der ethischen Fragen. Jedes Mal, wenn wir uns Daten ansehen, lernen wir etwas. Wir müssen den Datenschutz für diese Daten wahren. Dieses Problem wird sehr schnell komplexer werden.“