Aktuelles

Schriftsteller: Der neue OpenAI-Textgenerator GPT-3 verblüfft Fachleute und Autoren

Der neue AI-Textgenerator GPT-3 aus dem Forschungslabor OpenAI verblüfft Fachleute und AutorenDie von Elon Musk mitbegründete Forschungseinrichtung für künstliche Intelligenz OpenAI Inc. hat vor kurzem die neueste Version ihres Werkzeugs für die Verarbeitung natürlicher Sprache als private Beta-Version zur Verfügung gestellt. Die Reaktionen der ersten Tester dürfen durchaus als euphorisch bezeichnet werden.

GPT-3 ist die dritte Generation des Generative Pretrained Transformer von OpenAI, einem Allzweck-Sprachalgorithmus, der maschinelles Lernen nutzt, um Text zu übersetzen, Fragen zu beantworten und Text prädiktiv zu schreiben. Er arbeitet, indem er eine Sequenz von Wörtern, Text oder anderen Daten analysiert und dann diese Beispiele erweitert, um eine vollständig originale Ausgabe in Form eines Artikels oder eines Bildes zu erzeugen.

Der Vorgänger des Algorithmus, GPT-2, hatte sich bereits als etwas umstritten erwiesen, weil er extrem realistische und kohärente "Fake News"-Artikel auf der Grundlage von so etwas einfachem wie einem Eröffnungssatz erstellen konnte. Das Missbrauchspotential war so groß, dass OpenAI es ablehnte, den Algorithmus öffentlich zugänglich zu machen. Jetzt, mit der Veröffentlichung von GPT-3, ist der Algorithmus exponentiell leistungsstärker geworden.

Nach der ursprünglichen Veröffentlichung der GPT-3-Forschung im Mai gab OpenAI in der vergangenen Woche ausgewählten Probanden über eine API Zugang zu dem Modell. Und in den letzten Tagen sind eine Reihe von Textbeispielen, die von GPT-3 generiert wurden, in den sozialen Medien aufgetaucht.

Eines der interessantesten Beispiele stammt von Delian Asparouhov, ehemals Partner bei Khosla Ventures, der den GPT-3-Algorithmus mit der Hälfte eines Investitionsmemos fütterte, das er geschrieben und auf seiner Firmenwebsite veröffentlicht hatte - und im Anschluss auf Twitter mit "holy fucking shit" kommentierte. Asparouhov machte dann weiter und ließ GPT-3 die Hälfte eines Textes verarbeiten, der die Durchführung effektive Vorstandssitzungen zum Inhalt hatte.

In beiden Beispielen war GPT-3 in der Lage, nicht nur kohärente, zusätzliche Textabschnitte zu erzeugen, sondern auch der vorherigen Formatierung so zu folgen, dass sie vom ursprünglichen, von Menschen geschriebenen Text kaum noch zu unterscheiden war.

Andere Tester kamen zu ganz ähnlichen Ergebnissen. So täuschte der CEO der Zeppelin Solutions GmbH, Manuel Araoz, mit einem künstlich erzeugten, komplexen Artikel die Fachleute in einem populären Bitcointalk-Forum. Lediglich bei der Verarbeitung von Tabellen und Screenshots hatten sich noch Defizite gezeigt, so Araoz.

Ein anderer Tester, debuild.co-Gründer Sharif Shameem, verwendete GPT-3, um JSX-Code aus einer grundlegenden Beschreibung eines Website-Layouts zu schreiben. "This is mind blowing." kommentierte er die Fähigkeiten der Maschinerie.

GPT-3 scheint die Fähigkeiten seines Vorgängers weit zu übertrumpfen, unter anderem dank der mehr als 175 Milliarden Lernparameter, die es in die Lage versetzen, so ziemlich jede zugewiesene Aufgabe zu erfüllen. Damit ist es wesentlich leistungsfähiger als das zweitstärkste Sprachmodell, der Turing-NLG-Algorithmus der Microsoft Corp. mit nur 17 Milliarden Parametern.

OpenAI bietet den Zugriff auf die GPT-3-API ausschließlich auf Einladung und es gibt mittlerweile eine lange Warteliste für die kostenpflichtige Version, die im Herbst veröffentlicht werden soll.

Foto: Andrea Piacquadio

21.07.2020

RSS Newsfeed
Alle News vom TAGWORX.NET Neue Medien können Sie auch als RSS Newsfeed abonnieren, klicken Sie einfach auf das XML-Symbol und tragen Sie die Adresse in Ihren Newsreader ein!