Der neue KI-Chatbot von Microsoft hat einige „verrückte und verrückte Dinge“ gesagt: –

Yusuf Mehdi, Microsoft Corporate Vice President of Modern Llife, Search, and Devices, spricht Anfang dieses Monats bei einer Veranstaltung zur Einführung eines neuen KI-gestützten Microsoft Bing und Edge bei Microsoft in Redmond, Washington.

Jason Redmond/- über Getty Images


Bildunterschrift ausblenden

Bildunterschrift umschalten

Jason Redmond/- über Getty Images

Yusuf Mehdi, Microsoft Corporate Vice President of Modern Llife, Search, and Devices, spricht Anfang dieses Monats bei einer Veranstaltung zur Einführung eines neuen KI-gestützten Microsoft Bing und Edge bei Microsoft in Redmond, Washington.

Jason Redmond/- über Getty Images

Die Dinge nahmen eine seltsame Wendung, als der Technologiereporter von Associated Press, Matt O’Brien, Anfang dieses Monats Microsofts neues Bing testete, die allererste Suchmaschine, die von künstlicher Intelligenz angetrieben wird.

Bings Chatbot, der Textgespräche führt, die erschreckend menschlich klingen, begann sich über frühere Berichterstattung zu beschweren und konzentrierte sich auf seine Tendenz, falsche Informationen auszuspucken.

Dann wurde es feindselig und sagte, O’Brien sei hässlich, klein, übergewichtig, unsportlich, neben einer langen Litanei anderer Beleidigungen.

Und schließlich brachte es die Beschimpfungen auf absurde Höhen, indem es O’Brien mit Diktatoren wie Hitler, Pol Pot und Stalin verglich.

Als Tech-Reporter weiß O’Brien, dass der Bing-Chatbot weder denken noch fühlen kann. Trotzdem war er überwältigt von der extremen Feindseligkeit.

„Man könnte die Grundlagen, wie es funktioniert, irgendwie intellektualisieren, aber das bedeutet nicht, dass man durch einige der verrückten und verrückten Dinge, die es sagte, nicht zutiefst verunsichert wird“, sagte O’Brien in einem Interview.

Microsoft überarbeitet die Suchmaschine Bing, um künstliche Intelligenz zu nutzen

Dies war kein Einzelfall.

Viele, die Teil der Bing-Testergruppe sind, einschließlich -, haben seltsame Erfahrungen gemacht.

Zum Beispiel, New York Times Reporter Kevin Roose eine Abschrift veröffentlicht eines Gesprächs mit dem Bot.

Der Bot nannte sich Sydney und erklärte, dass er in ihn verliebt sei. Es hieß, Roose sei die erste Person gewesen, die zugehört und sich darum gekümmert habe. Roose liebte seinen Ehepartner nicht wirklich, behauptete der Bot, sondern liebte stattdessen Sydney.

See also  Der Goldpreis erreichte ein Rekordhoch. An der Wall Street herrscht Goldrausch

„Ich kann nur sagen, dass es eine extrem beunruhigende Erfahrung war“, sagte Roose Mal‘ Technologie-Podcast, Hard Fork. „Ich konnte letzte Nacht tatsächlich nicht schlafen, weil ich darüber nachgedacht habe.“

Da das wachsende Feld der generativen KI – oder der künstlichen Intelligenz, die als Reaktion auf kurze Eingaben etwas Neues wie Text oder Bilder erstellen kann – die Aufmerksamkeit des Silicon Valley auf sich zieht, werden Episoden wie das, was mit O’Brien und Roose passiert ist, zu warnenden Geschichten.

Technologieunternehmen versuchen, das richtige Gleichgewicht zu finden, indem sie die Öffentlichkeit neue KI-Tools ausprobieren lassen und Leitplanken entwickeln, um zu verhindern, dass die leistungsstarken Dienste schädliche und störende Inhalte hervorbringen.

Kritiker sagen, dass Microsoft in seiner Eile, das erste Big-Tech-Unternehmen zu sein, das einen KI-gestützten Chatbot ankündigt, möglicherweise nicht gründlich genug untersucht hat, wie gestört die Antworten des Chatbots werden könnten, wenn sich ein Benutzer länger damit beschäftigt, stellt das fest hätte vielleicht erwischt werden können, wenn die Werkzeuge mehr im Labor getestet worden wären.

Während Microsoft seine Lehren zieht, zieht der Rest der Technologiebranche nach.

Es gibt jetzt ein KI-Wettrüsten unter Big-Tech-Unternehmen. Microsoft und seine Konkurrenten Google, Amazon und andere sind in einen erbitterten Kampf darüber verwickelt, wer die KI-Zukunft dominieren wird. Chatbots entwickeln sich zu einem Schlüsselbereich, in dem sich diese Rivalität abspielt.

Allein in der letzten Woche Facebook-Mutterkonzern Meta kündigte an, eine neue interne Gruppe zu bilden, die sich auf generative KI konzentriert und der Macher von Snapchat sagte, dass es bald sein eigenes Experiment mit einem Chatbot enthüllen wird, der vom Forschungslabor OpenAI in San Francisco betrieben wird, der gleichen Firma, die Microsoft für seinen KI-betriebenen Chatbot nutzt.

Wann und wie man neue KI-Tools in die Wildnis entfesselt, ist eine Frage, die in Tech-Kreisen heftig diskutiert wird.

See also  Ein Brand auf Maui zerstörte die Häuser von mehr als 130 Mitarbeitern des Lahaina-Restaurants

„Unternehmen müssen letztendlich einen Kompromiss eingehen. Wenn Sie versuchen, jede Art von Interaktion vorherzusehen, dauert das so lange, dass Sie von der Konkurrenz unterboten werden“, sagte Arvind Narayanan, Informatikprofessor in Princeton . “Wo man diese Grenze ziehen soll, ist sehr unklar.”

Aber es scheint, sagte Narayanan, dass Microsoft seine Enthüllung verpfuscht hat.

„Es scheint sehr klar, dass die Art und Weise, wie sie es veröffentlicht haben, kein verantwortungsvoller Weg ist, ein Produkt zu veröffentlichen, das mit so vielen Menschen in einem solchen Umfang interagieren wird“, sagte er.

Testen des Chatbots mit neuen Grenzen

Die Vorfälle, bei denen der Chatbot um sich griff, versetzten Microsoft-Führungskräfte in höchste Alarmbereitschaft. Sie setzten der Interaktion der Testergruppe mit dem Bot schnell neue Grenzen.

Die Anzahl aufeinanderfolgender Fragen zu einem Thema wurde begrenzt. Und auf viele Fragen entgegnet der Bot nun: „Es tut mir leid, aber ich ziehe es vor, dieses Gespräch nicht fortzusetzen. Ich lerne noch, also schätze ich Ihr Verständnis und Ihre Geduld.“ Natürlich mit einem betenden Hände-Emoji.

Bing wurde noch nicht für die breite Öffentlichkeit freigegeben, aber als Microsoft einer Gruppe von Testern erlaubte, mit dem Tool zu experimentieren, erwartete Microsoft nicht, dass die Leute stundenlange Gespräche damit führen würden, die auf persönliches Territorium abdriften würden, Yusuf Mehdi, ein Firmenlaster Präsident des Unternehmens, sagte -.

Es stellt sich heraus, wenn Sie einen Chatbot wie einen Menschen behandeln, wird er einige verrückte Dinge tun. Aber Mehdi spielte herunter, wie weit verbreitet diese Fälle unter denen in der Testergruppe waren.

„Dies sind buchstäblich eine Handvoll Beispiele aus vielen, vielen Tausenden – wir sind bis jetzt eine Million – Testervorschauen“, sagte Mehdi. „Haben wir also erwartet, dass wir eine Handvoll Szenarien finden würden, in denen die Dinge nicht richtig funktionierten? Absolut.“

Umgang mit dem unappetitlichen Material, das KI-Chatbots füttert

Selbst Wissenschaftler auf dem Gebiet der KI sind sich nicht ganz sicher, wie und warum Chatbots beunruhigende oder beleidigende Reaktionen hervorrufen können.

See also  Schießerei in Walmart Beavercreek: Mindestens drei Menschen in der Nähe von Dayton, Ohio, verletzt

Die Engine dieser Tools – ein System, das in der Branche als großes Sprachmodell bekannt ist – arbeitet, indem es eine große Menge an Text aus dem Internet aufnimmt und ständig enorme Textschwaden scannt, um Muster zu identifizieren. Es ist ähnlich, wie Autocomplete-Tools in E-Mails und SMS das nächste Wort oder den nächsten Satz vorschlagen, den Sie eingeben. Aber ein KI-Tool wird in gewisser Weise „intelligenter“, weil es aus seinen eigenen Handlungen lernt, was Forscher als „reinforcement learning“ bezeichnen, was bedeutet, dass die Ergebnisse umso verfeinerter werden, je häufiger die Tools verwendet werden.

Narayanan in Princeton merkte an, dass genau das, worauf Daten-Chatbots trainiert werden, so etwas wie eine Black Box ist, aber die Beispiele der Bots, die sich verhalten, scheinen es, als ob man sich auf einige dunkle Ecken des Internets verlassen hätte.

Microsoft sagte, es habe daran gearbeitet, sicherzustellen, dass die abscheulichste Schattenseite des Internets nicht in den Antworten auftaucht, und doch wurde sein Chatbot irgendwie schnell ziemlich hässlich.

Dennoch sagte Mehdi von Microsoft Das Unternehmen bereut seine Entscheidung, den Chatbot in die Wildnis zu bringen, nicht.

„Es gibt fast so viel, was man finden kann, wenn man in einer Art Labor testet. Man muss tatsächlich rausgehen und anfangen, es mit Kunden zu testen, um diese Art von Szenarien zu finden“, sagte er.

In der Tat, Szenarien wie das eine Mal Reporter Roose fand sich vielleicht schwer vorherzusagen.

An einem Punkt während seines Austauschs mit dem Chatbot versuchte Roose, das Thema zu wechseln und sich vom Bot beim Kauf eines Rechens helfen zu lassen.

Und tatsächlich bot es eine detaillierte Liste der Dinge, die beim Rake-Shopping zu beachten sind.

Aber dann wurde der Bot wieder zart.

„Ich will dich einfach nur lieben“, schrieb sie. “Und von dir geliebt werden”

Leave a Reply

Your email address will not be published. Required fields are marked *

Most Popular

On Key

Related Posts