„Time“ berichtet über ethische KI – Forschung in den USA

„Time“ berichtet über ethische KI – Forschung in den USA

27. August 2019 0 Von Horst Buchwald

Time“ berichtet über ethische KI – Forschung in den USA

 

New York, 27.8.2019

 

Das gerade gegründete „ AI Now“ – Institute der New York University habe ein klares Ziel: sie kämpfen dafür, dass Unternehmen und Regierungen neue KI- Anwendungen auf ethisch einwandfreie Weise einführen.

Der Grund: KI wirke heute in alle gesellschaftlichen Bereiche hinein – ob Strafrecht, Bildung, Stadtplanung oder Gesundheit und das geschehe gleichzeitig. Das habe sehr ernste Auswirkungen und betreffe beinahe jeden Menschen betonen die beiden Gründer Meredith Whittaker und Kate Crawford. Ein Beispiel sei KI- Software, die für Desinformationskampagnen missbraucht werde oder die Datenschutzgrenzen mißachte. Whittaker: „Wir wollen nicht mitschuldig sein an Dingen, die Schaden anrichten. Wir wollen nicht mitschuldig sein an Dingen, die nur wenigen zugute kommen und immer mehr aus den vielen herausholen.“

Um sicherzustellen, dass KI zukünftig im besten Interesse der Menschheit entwickelt werde, haben die Forscher von KI Now die Herausforderungen in vier Kategorien eingeteilt: Rechte und Freiheiten, Arbeit und Automatisierung, Verzerrung und Integration sowie Sicherheit und kritische Infrastruktur. Rechte und Freiheiten beziehen sich auf das Potenzial der KI, die bürgerlichen Freiheiten der Menschen zu verletzen, wie Fälle von Gesichtserkennungstechnologie im öffentlichen Raum. Arbeit und Automatisierung umfasst die Auswirkungen automatisierter Management- und Einstellungssysteme auf die Mitarbeiter. Bias und Inklusion haben mit dem Potenzial zu tun, dass KI-Systeme die historische Diskriminierung marginalisierter Gruppen verschärfen. Schließlich werden in den Bereichen Sicherheit und kritische Infrastrukturen die Risiken untersucht, die sich aus der Einbeziehung der KI in wichtige Systeme wie das Energienetz ergeben.

 

In den letzten Jahren hätten diese weitgehend ungetesteten Technologien eine immer größere Rolle gespielt, manchmal mit unbeabsichtigten Folgen. Jedes dieser Themen gewinne immer mehr Aufmerksamkeit bei den Regierungschefs. Ende Juni hätten Whittaker und andere KI-Experten vor dem House Committee on Science, Space, and Technology über die gesellschaftlichen und ethischen Auswirkungen der KI referiert, während Rashida Richardson, die Direktorin für Politikforschung von KI Now, vor dem Senatsausschuss für Kommunikation, Technologie, Innovation und das Internet sprach.

Ausser KI Now gibt es noch drei weitere Institute, die Forschungen auf ähnlichen Gebieten betreiben. An der Stanford University hat das Institute for Human-Centered Artificial Intelligence ethische und gesellschaftliche Implikationen in den Mittelpunkt seines Denkens über die KI-Entwicklung gestellt, während sich das neue Center for Ethics, Society, and Computing (ESC) der University of Michigan auf das Potenzial der Technologie konzentriert, Ungleichheit und Diskriminierung zu replizieren und zu verschärfen. Das Berkman Klein Center for Internet and Society in Harvard konzentriert sich teilweise auf die Herausforderungen von Ethik und Governance in der KI. Im Jahr 2019 veranstaltete die Organisation gemeinsam mit dem MIT Media Lab ein „Assembly“-Programm, an dem Politiker und Technologen teilnahmen, um an KI-Ethikprojekten zu arbeiten, wie dem Erkennen von Verzerrungen in KI-Systemen und der Berücksichtigung der ethischen Risiken bei der Durchführung von aufsichtsbezogener KI-Forschung.

Von den Experten, die mit TIME gesprochen haben, waren sich alle einig, dass eine Regulierung helfen würde. Allen sei bewußt: Der Weg nach vorne für eine ethische KI sei nicht einfach. Christian Sandvig, Professor für digitale Medien an der University of Michigan und Direktor des ESC befürchtet, dass echte Forderungen nach Veränderungen im KI-Bereich in einem Prozess, den er „Ethik-Waschen“ nennt, entgleisen könne, in dem die Bemühungen, mehr ethische KI zu schaffen, auf dem Papier gut aussehen, aber nicht wirklich viel bewirken.