OpenAI hat die bisher größte Version seiner Nachrichtenfälscher – KI veröffentlicht
30. August 2019OpenAI hat die bisher größte Version seiner Nachrichtenfälscher – KI veröffentlicht
New York, 30.8.2019
Im Februar katapultierte sich OpenAI in die Öffentlichkeit, weil es ein Sprachmodell entwickelt hatte, das nahezu perfekt gefälschte Nachrichten erzeugen konnte. Die Organisation beschloss jedoch, es nicht zu veröffentlichen. Einige innerhalb der KI-Forschungsgemeinschaft sahen das als notwendige Vorsichtsmaßnahme, andere behaupteten das sei ein Werbegag . Das Labor selbst, ein kleiner, in San Francisco ansässiger gemeinnütziger Verein, der darauf abzielt, künstliche allgemeine Intelligenz zu schaffen, war fest davon überzeugt, dass es sich um ein wichtiges Experiment im Umgang mit hochrangiger Forschung handelt.
Nun, sechs Monate später, hat das Policy-Team ein Papier veröffentlicht, in dem die Auswirkungen der bisherigen Entscheidung untersucht werden. Davor hat das Labor mehrere kleinere Varianten des vollen Modells veröffentlicht. Während dieses Prozesses arbeitete das Team auch mit ausgewählten Forschungseinrichtungen zusammen, um die Auswirkungen des vollständigen Modells zu untersuchen.
In dieser Zeit habe OpenAI gelernt, die möglichen bösartigen Anwendungen von GPT-2 besser zu verstehen und zu antizipieren. Und tatsächlich konnten die Forschungspartner einige der Bedrohungen, die bisher nur spekulativ waren, besser quantifizieren. Eine Studie, die von Mitarbeitern der Cornell University durchgeführt wurde, ergab zum Beispiel, dass die Leser die Ergebnisse von GPT-2 im Durchschnitt fast genauso oft für echte Nachrichtenartikel hielten wie die der New York Times. Mehrere Forscher außerhalb offizieller Partnerschaften begannen auch, sich der Herausforderung zu stellen, maschinell generierten Text zu erkennen.
Die Autoren kamen zu dem Schluss, dass OpenAI nach sorgfältiger Überwachung noch keine Versuche einer böswilligen Nutzung gefunden hatte, aber mehrere nützliche Anwendungen gesehen hatte. Infolgedessen war das Labor der Meinung, dass die Freigabe des neuesten Codes letztendlich vorteilhafter war. Andere Forscher argumentieren, dass mehrere erfolgreiche Versuche, GPT-2 zu replizieren, OpenAI’s Einbehaltung des Codes ohnehin unübersichtlich gemacht haben.
Der Bericht hat eine gemischte Antwort erhalten. Einige haben OpenAI gelobt, weil es eine Diskussion ausgelöst und eine neue Reihe von Normen eingeführt hat, die es bisher nicht gab. „Die schrittweise Veröffentlichung von GPT-2 [….] war ein nützliches Experiment“, sagt Peter Eckersley, der Forschungsdirektor der Partnership on AI, zu der OpenAI gehört. „Indem wir die KI-Community versammelt haben, um über diese Themen zu diskutieren, haben wir festgestellt, dass es viele subtile Punkte gibt, die bei der Entscheidung, wann und wie Forschung veröffentlicht werden soll, die ein Risiko für unbeabsichtigte Folgen oder böswillige Handlungen birgt, richtig verstanden werden müssen.“
Andere hingegen haben die Entscheidungen von OpenAI kritisiert. Vanya Cohen, ein frischgebackener Master-Absolvent der Brown University, der eine Open-Source-Version von GPT-2 nachgebildet hat, argumentiert, dass die Zurückhaltung des Modells mehr dazu beiträgt, die Forschung an Gegenmaßnahmen zu verlangsamen als die Replikation. „Große Sprachmodelle wie GPT-2 sind die besten derzeit verfügbaren Werkzeuge, um gefälschten Text zu identifizieren, der von denselben Modellen erzeugt wird“, sagt er.
Wieder andere waren maßvoller: „Ich glaube nicht, dass eine inszenierte Veröffentlichung in diesem Fall besonders nützlich war, da die Arbeit sehr leicht replizierbar ist“, sagt Chip Huyen, ein Deep Learning Engineer bei Nvidia. „Aber es könnte nützlich sein, da es einen Präzedenzfall für zukünftige Projekte schafft. Die Leute werden die gestaffelte Veröffentlichung als eine alternative Option betrachten.“ Oren Etzioni, der CEO des Allen Institute for Artificial Intelligence, das auch eine stufenweise Freigabe für sein Sprachmodell Grover verabschiedete, teilt diese Einschätzung: „Ich begrüße ihre Absicht, einen durchdachten, schrittweisen Release-Prozess für die KI-Technologie zu entwerfen, aber ich frage mich, ob die ganze Fanfare gerechtfertigt war.“
Jack Clark, der politische Direktor von OpenAI, stellt GPT-2 in den Kontext der umfassenderen Mission des Unternehmens. „Wenn es uns als KI-Gemeinschaft gelingt,[künstliche allgemeine Intelligenz] aufzubauen, werden wir eine große Menge an historischen Beispielen aus der KI“ benötigen, wie wir mit hochkarätiger Forschung umgehen können, sagt er. „Aber was ist, wenn es keine historischen Beispiele gibt? Nun, dann musst du Beweise generieren – das ist es, was wir tun.“