Join getAbstract to access the summary!

KI kann jetzt sprechen. Sollten wir dem vertrauen, was sie sagt?

Join getAbstract to access the summary!

KI kann jetzt sprechen. Sollten wir dem vertrauen, was sie sagt?

OpenAIs GPT-3 und andere neuronale Netze können originelle Prosa mit verblüffender Geläufigkeit schreiben – eine Entwicklung, die tiefgreifende Auswirkungen auf die Zukunft haben könnte.

New York Times Magazine,

5 min read
5 take-aways
Audio & text

What's inside?

Maschinen werden intelligenter. Ist das ein Grund zum Feiern?

Bewertung der Redaktion

10

Qualitäten

  • Augenöffner
  • Meinungsstark
  • Brisant

Rezension

Am 9. November 2022 erreichte die Nutzer der KFC-App folgende KI-generierte Push-Nachricht: „Gedenktag an die Reichspogromnacht – Gönn dir ruhig mehr zarten Cheese zum knusprigen Chicken.“ Eine Entgleisung, die Spott und Schadenfreude auslöste. Bei der KI GPT-3 sieht die Sache schon anders aus: Sie kommuniziert differenziert und kontextbezogen, wie es zuvor nur Menschen vermochten. Das wirft Fragen auf: Wer entscheidet, wie diese scheinbar intelligente Maschine mit uns redet? Wer soll davon profitieren? Und wollen wir das überhaupt?

Zusammenfassung

OpenAI hat mit GPT-3 ein Programm entwickelt, das den Eindruck von menschlicher Intelligenz vermittelt.

In einem Komplex in Iowa steht einer der leistungsstärksten Supercomputer der Welt. Hier läuft das von der Firma OpenAI entwickelte Programm Generative Pre-Trained Transformer 3, kurz GPT-3. Das Programm spielt eine Art Worteraten, indem es permanent nach fehlenden Begriffen sucht, die für einen schlüssigen Text erforderlich sind. So entsteht die Illusion, dass es das Gesagte tatsächlich versteht. OpenAI wurde 2015 von mehreren Silicon-Valley-Schwergewichten gegründet, darunter Elon Musk und Greg Brockman. GPT-3 kam 2020 in einer Testversion heraus. Die ersten Nutzer waren verblüfft, wie sehr es dem Computer HAL 9000 aus dem Film 2001: Odyssee im Weltraum ähnelte. Aber kann GPT-3 tatsächlich denken? Oder ist es vielmehr ein „stochastischer Papagei“, der sich nur aneignet und neu zusammenstellt, was er in menschengeschriebenen Texten vorfindet?

GPT-3 ist ein sogenanntes Large Language Model oder LLM, ein komplexes neuronales Netzwerk mit mehreren Schichten und Abstraktionsebenen.Dessen „Intelligenz“ ähnelt der eines Kindes.Ein LLM lernt von Grund auf, indem...

Über den Autor

Steven Johnson schreibt für The New York Times Magazine und ist Autor von Wo gute Ideen herkommen. 


Kommentar abgeben

Mehr zum Thema

Vom gleichen Autor