Machine Learning

Large-Scale Unsupervised Language Model GPT-2 wird nicht veröffentlicht

OpenAI: Modell zur autonomen Texterstellung zu gefährlich für Open Source
Keine Kommentare

Die Non-Profit-Organisation OpenAI hat sich dazu entschieden, ihr neuestes Language Model GPT-2 nur in Teilen zu veröffentlichen. Der Grund dafür sind Bedenken, dass die auf maschinellem Lernen basierende Texterstellung missbräuchlich verwendet werden könne, etwa für Fake News.

Das neueste von OpenAI erstellte Modell GPT-2 wird nicht komplett veröffentlicht: Zu überzeugend und daher zu gefährlich seien die dadurch automatisiert erstellten Texte. Die Kritik an der Entscheidung der Non-Profit-Organisation lässt nicht lange auf sich warten.

OpenAI wurde im Jahr 2015 gegründet und erhielt durch namhafte Investoren ein Startkapital von einer Milliarde US-Dollar. Die Organisation beschäftigt sich mit der Erforschung künstlicher Intelligenz – und wie der Name bereits sagt, sollen die Forschungsergebnisse offen zugänglich gemacht werden. Ursprünglich von Elon Musk mitbegründet, hat der Tesla-Gründer die Leitung von OpenAI inzwischen zur Vermeidung von Interessenskonflikten abgegeben. Er beteiligt sich weiterhin als Berater und Spender.

Auf der Webseite von OpenAI wird das Ziel der Organisation genannt: sichere künstliche Intelligenz zu erstellen, deren Vorteile so großflächig und gleichmäßig wie möglich verteilt werden sollen. Allerdings benennt OpenAI dabei auch gleichzeitig eine Einschränkung: Langfristig sollen Technologien geheim bleiben, wenn in Verbindung damit Sicherheitsbedenken auftauchen. Genau dieser Fall ist nun mit dem neuesten Forschungsprojekt GPT-2 eingetreten, einem Modell für automatisierte Texterstellung.

Was ist GPT-2?

GPT-2 ist das neueste Forschungsprojekt, das der Feder von OpenAI entstammt. Es ist ein Large-Scale Unsupervised Language Model (LM), das darauf trainiert wurde, nach einem kurzen thematischen Input weitergehende, zusammenhängende Texte zu schreiben. Als Datengrundlage für das Trainieren des Modells dienten acht Millionen Webseiten. GPT-2 soll dazu in der Lage sein, sich an den Stil des Text-Inputs anzupassen und daraufhin eigenständig Texte zu erstellen. Sie sollen über mehr als eine Seite hinweg eine täuschend echte, wie von Menschenhand geschriebene Qualität besitzen.

Der entsprechende Blog-Eintrag von OpenAI listet einige Beispiele auf: Es wird etwa ein kurzer Input zum Thema Einhörner gegeben. Daraufhin spinnt das Language Model eine Geschichte mitsamt der Hintergründe der Entdeckung der Einhörner, deren Verhaltensweisen und den Aussagen eines fiktiven Wissenschaftlers.

Sicherheitsbedenken: GPT-2 wird nicht Open Source

Da die Entwickler eine missbräuchliche Anwendung von GPT-2 fürchten, wird nur ein kleines Demo-Modell auf GitHub veröffentlicht. Weder das Dataset noch der Trainingscode oder die GPT-2-Modellgewichtungen werden auf GitHub zur Verfügung gestellt. Der Vorgänger GPT (Generative Pre-Training) wurde im letzten Juni veröffentlicht – damals noch mit dem kompletten Code. Die möglichen Szenarien, die die Forscher im Umgang mit GPT-2 befürchten, sind folgende: Fake News, Identitätsklau, das Manipulieren der Inhalte sozialer Medien sowie die automatisierte Erstellung von Spam und Phishing.

Nicht nur auf GitHub wird daran Kritik geäußert: Von der Open-Source-Community wird der Organisation OpenAI auf Twitter vorgeworfen, entgegen ihrer eigenen Leitlinien zu handeln. Es wird gefordert, GPT-2 wie die bisherigen Projekte Open Source zu stellen. In dem Blog-Eintrag gibt OpenAI selbst zu bedenken, dass andere Organisationen ebenfalls in der Lage wären, ein ähnliches Modell zu erstellen – jedoch solle durch die Nichtveröffentlichung die Anzahl dieser Organisationen begrenzt werden. OpenAI möchte außerdem eine Diskussion über die Auswirkungen solcher Modelle innerhalb der Community anregen – genau dieser Diskussionsanstoß ist offenbar geglückt.

In einem halben Jahr wird OpenAI seine Strategie nochmals öffentlich diskutieren. Es bleibt also offen, ob GPT-2 dann womöglich veröffentlicht wird.

Die durch GPT-2 erzeugten Textbeispiele, das veröffentlichte kleine Modell sowie das Technical Paper sind dem Blog-Eintrag von OpenAI zu entnehmen.

Unsere Redaktion empfiehlt:

Relevante Beiträge

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu:
X
- Gib Deinen Standort ein -
- or -