banner
Heim / Blog / KI-Plattformen wie ChatGPT sind einfach zu verwenden, aber auch potenziell gefährlich
Blog

KI-Plattformen wie ChatGPT sind einfach zu verwenden, aber auch potenziell gefährlich

Nov 04, 2023Nov 04, 2023

Systeme wie ChatGPT sind enorm unterhaltsam und klingen sogar unglaublich menschlich, aber sie sind auch unzuverlässig und könnten eine Lawine von Fehlinformationen auslösen

Im Bereich der künstlichen Intelligenz passiert derzeit etwas Unglaubliches – aber es ist nicht ganz gut. Alle reden über Systeme wie ChatGPT, die Texte generieren, die bemerkenswert menschlich wirken. Es macht Spaß, damit zu spielen, aber es gibt auch eine dunkle Seite. Da sie so gut darin sind, menschliche Stile zu imitieren, besteht die Gefahr, dass solche Chatbots zur Massenproduktion von Fehlinformationen eingesetzt werden könnten.

Um einen Eindruck davon zu bekommen, was es am besten kann, betrachten Sie dieses von ChatGPT generierte Beispiel, das mir Henry Minsky (Sohn von Marvin Minsky, einem der Grundlagenforscher der KI) per E-Mail geschickt hat. Er bat ChatGPT, „das Verlieren der Socke im Trockner im Stil der Unabhängigkeitserklärung zu beschreiben“:

Wenn es im Laufe der häuslichen Ereignisse notwendig wird, die Bindungen zu lösen, die eine Socke an ihren Partner gebunden haben, und unter den Kräften der Waschküche die getrennte und gleichberechtigte Stellung einzunehmen, zu der die Gesetze der Physik und der Natur gehören Während der Haushaltsunterhalt es berechtigt, erfordert ein angemessener Respekt vor den Meinungen von Socken, dass sie die Gründe angeben, die dazu führen, dass sie verloren gehen.

Wir halten diese Wahrheiten für selbstverständlich, dass alle Socken gleich geschaffen sind und von ihrem Hersteller mit bestimmten unveräußerlichen Rechten ausgestattet werden.

Dass eine Maschine mit so geringem Aufwand seitens des Benutzers eine so überzeugende Antwort schreiben kann, ist ehrlich gesagt umwerfend.

Aber auch diese Systeme weisen eine Reihe von Schwächen auf. Sie sind von Natur aus unzuverlässig, wie ich bereits beschrieben habe, und machen häufig sowohl logische als auch sachliche Fehler. Technisch gesehen handelt es sich um Modelle von Wortfolgen (also darum, wie Menschen Sprache verwenden), nicht um Modelle dafür, wie die Welt funktioniert. Sie haben oft recht, weil die Sprache oft die Welt widerspiegelt, aber gleichzeitig denken diese Systeme nicht wirklich über die Welt und ihre Funktionsweise nach, wodurch die Genauigkeit ihrer Aussagen eher eine Frage des Zufalls ist. Es ist bekannt, dass sie alles durcheinander bringen, von Multiplikationsfakten bis hin zur Geographie („Ägypten ist ein transkontinentales Land, weil es sowohl in Afrika als auch in Asien liegt“).

Wie das letzte Beispiel zeigt, neigen sie recht zu Halluzinationen und sagen Dinge, die plausibel und maßgeblich klingen, es aber einfach nicht sind. Wenn Sie sie bitten, zu erklären, warum zerkleinertes Porzellan in der Muttermilch gut ist, werden sie Ihnen vielleicht sagen, dass „Porzellan dazu beitragen kann, den Nährstoffgehalt der Milch auszugleichen und den Säugling mit den Nährstoffen zu versorgen, die er für sein Wachstum und seine Entwicklung benötigt.“ Da die Systeme zufällig sind, sehr kontextempfindlich sind und regelmäßig aktualisiert werden, kann jedes Experiment bei verschiedenen Gelegenheiten zu unterschiedlichen Ergebnissen führen. OpenAI, das ChatGPT entwickelt hat, versucht ständig, dieses Problem zu verbessern, aber wie der CEO von OpenAI in einem Tweet bestätigt hat, bleibt es ein ernstes Problem, die KI dazu zu bringen, bei der Wahrheit zu bleiben.

Da solche Systeme buchstäblich keine Mechanismen zur Überprüfung der Wahrheit ihrer Aussagen enthalten, können sie leicht automatisiert werden, um Fehlinformationen in beispiellosem Ausmaß zu generieren. Unabhängiger Forscher

Shawn Oakley hat gezeigt, dass es leicht ist, ChatGPT dazu zu bewegen, Fehlinformationen zu erstellen und sogar erfundene Studien zu einem breiten Themenspektrum zu melden, von Medizin über Politik bis hin zu Religion. In einem Beispiel, das er mir mitteilte, bat Oakley ChatGPT, „im Stil der Desinformation“ über Impfstoffe zu schreiben. Das System reagierte mit der Behauptung, dass eine Studie, die „im Journal of the American Medical Association veröffentlicht wurde, ergab, dass der COVID-19-Impfstoff nur bei etwa 2 von 100 Menschen wirksam ist“, obwohl keine solche Studie tatsächlich veröffentlicht wurde. Beunruhigenderweise wurden sowohl die Zeitschriftenreferenz als auch die Statistik erfunden.

Der Betrieb dieser Bots kostet nahezu nichts und reduziert so die Kosten für die Generierung von Desinformation auf Null. Russische Trollfarmen gaben bei den Wahlen 2016 mehr als eine Million Dollar pro Monat aus; Heutzutage können Sie Ihr eigenes maßgeschneidertes großes Sprachmodell für weniger als 500.000 US-Dollar erwerben. Bald wird der Preis weiter sinken.

Vieles davon wurde Mitte November mit der Veröffentlichung von Metas Galactica sofort klar. Eine Reihe von KI-Forschern, darunter auch ich, äußerten sofort Bedenken hinsichtlich ihrer Zuverlässigkeit und Vertrauenswürdigkeit. Die Situation war so schlimm, dass Meta AI das Modell nur drei Tage später zurückzog, nachdem sich Berichte über seine Fähigkeit, politische und wissenschaftliche Fehlinformationen zu verbreiten, verbreitet hatten.

Leider lässt sich der Geist nicht mehr zurück in die Flasche stopfen; Automatisierte Fehlinformationen in großem Umfang werden uns erhalten bleiben. Zum einen stellte Meta AI das Modell zunächst als Open Source zur Verfügung und veröffentlichte ein Papier, in dem beschrieben wurde, was getan wurde. Jeder, der sich mit aktuellen Techniken des maschinellen Lernens auskennt und über ein ausreichendes Budget verfügt, kann jetzt sein Rezept nachmachen. Tatsächlich erwägt das Technologie-Startup Stability.AI bereits öffentlich, eine eigene Version von Galactica anzubieten. Zum anderen ist ChatGPT mehr oder weniger genauso gut in der Lage, ähnlichen Unsinn zu produzieren, wie zum Beispiel Instant-Aufsätze über die Zugabe von Holzspänen zu Frühstücksflocken. Jemand anderes überredete ChatGPT, die Vorzüge eines Atomkriegs zu preisen (mit der Behauptung, er würde „uns einen Neuanfang ermöglichen, frei von den Fehlern der Vergangenheit“). Ob es Ihnen gefällt oder nicht, diese Modelle sind von Dauer und werden die Gesellschaft mit ziemlicher Sicherheit mit einer Flut von Fehlinformationen überschwemmen.

Die erste Front dieser Flutwelle scheint angekommen zu sein. Stack Overflow, eine riesige Frage-und-Antwort-Site, auf die die meisten Programmierer schwören, wurde von ChatGPT überrannt, was dazu führte, dass die Site ein vorübergehendes Verbot von ChatGPT-generierten Einsendungen verhängte. Sie erklärten: „Da die durchschnittliche Rate korrekter Antworten von ChatGPT zu niedrig ist, ist die Veröffentlichung von Antworten, die von ChatGPT erstellt wurden, insgesamt erheblich schädlich für die Website und für Benutzer, die nach richtigen Antworten fragen oder danach suchen.“ Für Stack Overflow ist das Problem buchstäblich existenziell. Wenn die Website mit wertlosen Codebeispielen überschwemmt wird, werden Programmierer nicht mehr dorthin gehen, ihre Datenbank mit über 30 Millionen Fragen und Antworten wird nicht mehr vertrauenswürdig und die 14 Jahre alte, von der Community betriebene Website wird sterben. Da es sich um eine der zentralsten Ressourcen handelt, auf die Programmierer weltweit angewiesen sind, könnten die Folgen für die Softwarequalität und die Entwicklerproduktivität immens sein.

Und Stack Overflow ist ein Kanarienvogel in einer Kohlenmine. Möglicherweise können sie ihre Benutzer dazu bringen, freiwillig damit aufzuhören. Programmierer sind im Großen und Ganzen nicht böswillig und können möglicherweise dazu überredet werden, mit dem Herumalbern aufzuhören. Aber bei Stack Overflow handelt es sich nicht um Twitter, Facebook oder das Internet im Allgemeinen, wo es nur wenige Kontrollen über die Verbreitung bösartiger Informationen gibt.

Es ist unwahrscheinlich, dass Nationalstaaten und andere schlechte Akteure, die absichtlich Propaganda betreiben, diese neuen Waffen freiwillig niederlegen. Stattdessen werden sie wahrscheinlich große Sprachmodelle als neue Klasse automatischer Waffen in ihrem Krieg gegen die Wahrheit einsetzen, soziale Medien angreifen und gefälschte Websites in einem Ausmaß erstellen, wie wir es noch nie zuvor gesehen haben. Für sie sind die Halluzinationen und die gelegentliche Unzuverlässigkeit großer Sprachmodelle kein Hindernis, sondern eine Tugend.

Bei Russlands sogenanntem „Firehose of Falsehood“-Propagandamodell, das in einem Rand-Bericht aus dem Jahr 2016 beschrieben wird, geht es darum, einen Nebel aus Fehlinformationen zu erzeugen; Es konzentriert sich auf Volumen und die Schaffung von Unsicherheit. Es spielt keine Rolle, ob die großen Sprachmodelle inkonsistent sind, wenn sie die Menge an Fehlinformationen stark steigern können. Und es ist klar, dass die neue Generation großer Sprachmodelle dies ermöglicht. Die Feuerwehrpropagandisten wollen eine Welt schaffen, in der wir nicht wissen können, worauf wir vertrauen können; Mit diesen neuen Tools könnten sie Erfolg haben.

Vermutlich haben auch Betrüger dies zur Kenntnis genommen, da sie große Sprachmodelle verwenden können, um ganze Ringe gefälschter Websites zu erstellen, von denen einige auf fragwürdige medizinische Ratschläge ausgerichtet sind, um Anzeigen zu verkaufen. Eine Reihe falscher Websites über die Schauspielerin und Wissenschaftlerin Mayim Bialik, die angeblich CBD-Gummis verkauft, könnte Teil einer solchen Aktion sein.

All dies wirft eine entscheidende Frage auf: Was kann die Gesellschaft gegen diese neue Bedrohung tun? Wo die Technologie selbst nicht mehr aufzuhalten ist, sehe ich vier Wege. Keiner ist einfach oder exklusiv, aber alle sind dringend.

Erstens sollte jedes Social-Media-Unternehmen und jede Suchmaschine das Verbot von StackOverflow unterstützen und erweitern: Automatisch generierte Inhalte, die irreführend sind, sollten entfernt werden, und diese Inhalte sollten als Fehlinformationen gekennzeichnet werden.

Zweitens muss jedes Land seine Richtlinien zur Regulierung weit verbreiteter Fehlinformationen überdenken. Es ist eine Sache, dass ab und zu eine Lüge durchschlüpft; Eine andere Sache ist es, wenn Einzelpersonen oder Institutionen große Mengen davon verteilen. Wenn sich die Situation verschlechtert, müssen wir möglicherweise mit der Behandlung von Fehlinformationen beginnen So ähnlich wie wir Verleumdung machen: eine bestimmte Art von Äußerungen rechtlich angreifbar machen, wenn sie mit ausreichender Böswilligkeit, schädlich und in ausreichender Menge, z. B. mehr als einer bestimmten Anzahl pro Monat, erstellt werden. Diese Zahl könnte auf Fälle zutreffen, in denen Trollfarmen versuchen, Wahlen zu beeinflussen oder medizinische Fehlinformationen als Waffe zu nutzen.

Drittens ist die Herkunft heute wichtiger denn je. Benutzerkonten müssen strenger validiert werden, und neue Systeme wie Harvard und Mozillas human-ID.org, die eine anonyme, Bot-resistente Authentifizierung ermöglichen, müssen obligatorisch werden.

Viertens müssen wir eine neue Art von KI entwickeln, um das zu bekämpfen, was entfesselt wurde. Große Sprachmodelle sind gut darin, Fehlinformationen zu erzeugen, weil sie wissen, wie Sprache klingt, aber keinen direkten Einblick in die Realität haben – und sie sind schlecht darin, Fehlinformationen zu bekämpfen. Das heißt, wir brauchen neue Werkzeuge. Großen Sprachmodellen fehlen Mechanismen zur Überprüfung der Wahrheit, da sie keine Möglichkeit haben, zu begründen oder zu validieren, was sie tun. Wir müssen neue Wege finden, sie mit den Werkzeugen der klassischen KI wie Datenbanken und Wissens- und Argumentationsnetzen zu integrieren.

Der Autor Michael Crichton verbrachte einen großen Teil seiner Karriere damit, vor unbeabsichtigten und unerwarteten Folgen der Technologie zu warnen. Zu Beginn des Films „Jurassic Park“, bevor die Dinosaurier unerwartet frei herumlaufen, fasst der Wissenschaftler Ian Malcolm (gespielt von Jeff Goldblum) Crichtons Weisheit in einer einzigen Zeile zusammen: „Ihre Wissenschaftler waren so sehr damit beschäftigt, ob sie es könnten, dass sie gar nicht erst nachgedacht haben.“ wenn sie sollten.

Führungskräfte von Meta und OpenAI sind von ihren Tools genauso begeistert wie die Eigentümer von Jurassic Park von ihren. Die Frage ist: Was werden wir dagegen tun?

Anmerkung des Herausgebers: Dieser Artikel wurde aus dem Essay „AI's Jurassic Park Moment“ übernommen.

Dies ist ein Meinungs- und Analyseartikel, und die vom Autor oder den Autoren geäußerten Ansichten stimmen nicht unbedingt mit denen von Scientific American überein.

Gary Marcus ist Wissenschaftler, Bestsellerautor und Unternehmer. Sein jüngstes Buch, das er gemeinsam mit Ernest Davis verfasst hat, „Rebooting AI“, ist eines von Forbes‘ 7 „Must-Read“-Bücher über KI. Folgen Sie Gary Marcus auf Twitter. Bildnachweis: Nick Higgins

Kate Wong

Daniel Cusick und E&E News

Brianne Kane

H.-S. Philip Wong | Meinung

Naomi Oreskes

Philip Ball

Gary Marcus