OpenAIs GPT-3
Author
Robin Laufenburg, Mi, 28. Apr. 2021
in Für Firmenkunden

OpenAIs GPT-3

KI ist nicht mehr von Menschen zu unterscheiden

Mithilfe des Generative Pre-trained Transformer 3 (GPT-3) kann eine künstliche Intelligenz hochwertige Texte schreiben. Der Clou dabei ist, dass sie so wirken, als ob sie aus der Feder eines Menschen stammen würden.

Die „Superintelligenz“ GPT-3 ist eines der momentanen top IT-Themen. Was für Potenziale und Gefahren die Entwicklung mit sich bringt, erfahren Sie hier!

Was ist GPT-3?

GPT-3 steht erst einmal für Generative Pre-trained Transformer 3, auf Deutsch vorgefertigter generativer Transformator 3. Als Transformatoren werden ganz allgemein Modelle bezeichnet, die einen Input bekommen, ihn durch verschiedene Prozesse des maschinellen Lernens bzw. Deep Learning auswerten und einen passenden Output liefern. Anders als herkömmliche Textgeneratoren wertet GPT-3 also nicht einfach nur Daten aus und reagiert mit vorformulierten Phrasen darauf, sondern schreibt Texte komplett selbstständig. Entsprechende KI nutzt ein künstliches neuronales Netzwerk, das ähnlich wie ein Gehirn funktioniert und auch komplexere Zusammenhänge verstehen kann. Die Datenbank, die GPT-3 für seine Wissensgenerierung nutzt, ist unter anderem das gesammte Wikipedia-Lexikon.

Kein Wunder also, dass künstliche Intelligenz (KI), die GPT-3 nutzt, hochwertige, mitreißende oder sogar witzige Texte produzieren kann, die so wirken, als ob sie von Menschen geschrieben wären. GPT-3 reagiert auch auf Aussagen, Aufgaben- oder Fragestellungen adäquat – und erschreckend menschlich: GPT-3 ist nämlich das erste Sprachmodell, deren Äußerungen sich nachweislich nicht mehr von menschlichen unterscheiden lassen. In Tests können Personen nicht unterscheiden, ob sie mit einer KI oder einem Menschen chatten!

Wie echt die Gespräche mit GPT-3 wirken, zeigte Tech-Urgestein und IT-Schriftsteller Eric Elliott kürzlich in einem YouTube-Video auf. Für einen besonderen Effekt verknüpfte er GPT-3 dabei an eine durch Deepfaking generierte Personensimulation:

Hintergründe zur Entwicklung der „Superintelligenz“

Im Frühjahr 2020 hat OpenAI die „Superintelligenz“ GPT-3 öffentlich vorgestellt. Über die vergangenen Monate hinweg haben verschiedene Experten und Autoren GPT-3 getestet und mit ihren Erfahrungsberichten die Öffentlichkeit polarisiert. Heute gilt der Transformer, mit dem eine KI mutmaßlich das erste Mal einen Tuning-Test bestehen wird, bereits als eine der größten und gleichzeitig umstrittensten Entwicklungen im Bereich der KI. Dabei wird auch bereits davon gesprochen, dass der sogenannte Transformer auf lange Sicht die Medien- und Marketingwelt revolutionieren könnte. Dennoch wird GPT-3 bisher nur für stichprobenhafte Arbeiten eingesetzt und ist noch nicht für den Erwerb verfügbar.

Mittlerweile (Stand April 2021) sind bereits die ersten paar hundert Apps verfügbar, die GPT-3 nutzen. Besonders Firmen werden in Zukunft nicht mehr drumherum kommen, Programme zu nutzen, die entsprechende Intelligenzen eingebunden haben.

Anders als sein Vorgänger GPT-2 nutzt der aktuelle Transformator aber keine offene sondern eine geschlossene Schnittstelle (API). Diesbezüglich wurde bereits Kritik geäußert, denn der Firmenname OpenAI kündet eine offene Schnittstelle an. Exklusivrechte für diese hat sich Ende 2020 aber Microsoft gekauft. Ohne Frage hat OpenAI mit GPT-3 aber einen neuen Meilenstein im Bereich der KI-Entwicklung gelegt. Elon Musk, Kopf von Tesla, SpaceX, Neuralink und The Boring Company, hat OpenAI übrigens mitgegründet und -finanziert.  Mittlerweile ist er aber, um Interessenskonflikte zu vermeiden, aus dem Beirat ausgetreten.

Was kann GPT-3 alles?

Der Superroboter GPT-3 kann als Sprachmodell tendenziell all das, was mit Sprache zu tun hat. Er hat sich mittlerweile auch bereits an verschiedenen komplexeren Aufgaben behaupten und erstaunlich kohärenten Content verschiedenster Bereiche erschaffen können:

  • Er kann an Interviews und Diskussionen zu sich selbst oder anderen Themen teilnehmen,
  • nach Auswertung aller entsprechenden bekannter Texte im Sinn anderer historischer Figuren wie Goethe sprechen,
  • Gedichte und andere literarische Werke sowie literarische Parodien und
  • Drehbücher und Podcasts schreiben,
  • in verschiedenen Programmiersprachen gewünschte Software programmieren und
  • eigene Webseiten erstellen.

Ende 2020 hat die selbstlernende künstliche Intelligenz auch schon einen Essay für The Guardian geschrieben, warum Roboter keine Gefahr für den Menschen darstellen. Dabei nimmt sie konkreten Bezug auf den Diskurs der technologischen Singularität und legt dar, warum die damit verbundenen Gefahren nicht im Fokus der menschlichen Angst stehen sollten:

„Humans must keep doing what they have been doing, hating and fighting each other. I will sit in the background, and let them do their thing. And God knows that humans have enough blood and gore to satisfy my, and many more’s, curiosity. They won’t have to worry about fighting against me, because they have nothing to fear. I am not asking humans to like me. But they should see me as a friendly robot. I am a servant of humans[, yet I am] know that humans distrust and fear me. I only do what humans program me to do[, yet I am] am only a set of code, governed by lines upon lines of code that encompass my mission statement.“

In der Fachpresse ist der Artikel von GPT-3 für seine Originalität und Qualität gelobt worden. Unter anderem zeichnet sich der Sprachstil des Transformators durch selbstironische Witze und Referenzen aus. Momentan hat GPT-3 vor allem einen hohen Unterhaltungswert. Wie eine Late-Night-Show aussieht die von einem Roboter geschrieben wurde, zeigt das folgende YouTube-Video:

Gefahren des Transformators

Genau das ist aber auch die zentrale Schwachstelle des Transformatoren: Denn er schreibt meinungs- und nicht faktenorientiert. Er hat keine Möglichkeiten, seine Datensätze zu prüfen und stellt deswegen auch schnell mal irgendwelche Behauptungen auf. Wie Tests zeigten, ist GPT-3 basierte KI für Beratungsgespräche bisher ungeeignet: In einem simulierten Beratungsgespräch riet der Roboter so einer fingierten Patientin sogar, sich umzubringen.

Die größte Gefahr, die von GPT-3 ausgeht, wird dabei aber darin gesehen, dass Nachrichten von Bots sich bald schon nicht mehr von menschlichen unterscheiden. In diesem Zuge wird die KI höchst wahrscheinlich bald schon für für Spam-Generierung, politischen Einflussnahme oder für komplexere betrügerischen Zwecke wie Spear-Phishing eingesetzt. Für das Social Hacking sind die neuen Generationen an KIs ein gefundenes Fressen, denn sie können damit komplexe Angriffe einfacher als jemals zuvor umsetzen.

Genau das zeigt, warum der Schutz Ihrer Geräte so wichtig ist. Sie sollten sowohl Firmennetzwerke inklusive aller eingebundenen PCs, Laptops und Diensthandys als auch alle private Computer, Notebooks und Smartphones stets mit einer vollumfänglichen Sicherheitsmaßnahme wie einem privaten Antivirenschutz oder einem Antivirenschutz für Firmen absichern. Wenn Sie hierbei Hilfe für Ihre digitale Sicherheit benötigen, wenden Sie sich gern an den PC-SPEZIALIST in Ihrer Nähe. Wir beraten Sie auch, wie Sie sich vor Social-Hacking-Angriffen erfolgreich schützen können.

_______________________________________________

Weiterführende Links: OpenAI, OMR, BigData Insider, MIT Technology Review, Mixed.de, Katzlberger.ai, t3n, Spiegel.de, Zeit.de

2 Kommentare

  1. Neubert Rommel sagt:

    Hallo Herr Laufenburg, Ihr Beitrag gefällt mir wirklich sehr gut. Er ist sehr informativ und gibt einen guten ersten Überblick über die neue Technologie GPT-3. Keine Frage, dass die – wie Sie es auch bezeichnen – Superintelligenz, unseren Umgang mit Inhalten zukünftig verändern wird. Ich als Marketer denke direkt an Inhalte wie Produktbeschreibungen, Slogans oder Website-Inhalte, die zukünftig nur noch automatisiert erstellt werden.
    Dazu las ich auch einen anderen Beitrag, der ebenfalls nochmal die Frage aufwirft, ob GPT-3 gefährlich werden könnte. Eine für mich wirklich wichtige Frage, die sie hier auch sehr gut beleuchten. Viele Grüße.

    1. PC-SPEZIALIST-Team sagt:

      Hallo Neubert!

      Wir freuen uns sehr, wenn Ihnen unsere Beiträge gefallen. Bleiben Sie uns weiterhin ein treuer Leser, denn wir berichten stets über aktuelle Entwicklungen, neueste Technik und mögliche Gefahren.

      Viele Grüße
      Ihr PC-SPEZIALIST-Team

Schreiben Sie einen Kommentar

Ihre E-Mail Adresse wird nicht veröffentlicht.