Sam Altman warnt davor, dass KI uns alle töten könnte. Aber er möchte immer noch, dass die Welt es nutzt


New York
CNN

Sam Altman glaubt, dass die Technologie, die dem berühmtesten Produkt seines Unternehmens zugrunde liegt, das Ende der menschlichen Zivilisation herbeiführen könnte.

Im Mai betrat OpenAI-CEO Sam Altman den Anhörungsraum eines Unterausschusses des Senats in Washington, D.C. mit einem dringenden Appell an die Gesetzgeber: Schaffen Sie durchdachte Vorschriften, die das mächtige Versprechen der künstlichen Intelligenz berücksichtigen – und gleichzeitig das Risiko mindern, dass sie die Menschheit überwältigt. Es war ein entscheidender Moment für ihn und für die Zukunft der KI.

Mit der Einführung von OpenAIs ChatGPT Ende letzten Jahres wurde der 38-jährige Altman über Nacht zum Aushängeschild einer neuen Generation von KI-Tools, die Bilder und Texte als Reaktion auf Benutzereingaben generieren können, eine Technologie namens generative KI. Nicht lange nach seiner Veröffentlichung wurde ChatGPT zu einem bekannten Namen, der fast gleichbedeutend mit KI selbst ist. CEOs nutzten es zum Verfassen von E-Mails, Leute erstellten Websites ohne vorherige Programmiererfahrung und es bestand Prüfungen an juristischen und betriebswirtschaftlichen Fakultäten. Es hat das Potenzial, nahezu jede Branche zu revolutionieren, einschließlich Bildung, Finanzen, Landwirtschaft und Gesundheitswesen, von der Chirurgie bis zur Entwicklung medizinischer Impfstoffe.

Aber dieselben Tools haben Anlass zu Besorgnis über alles gegeben, vom Betrug in Schulen bis hin zur Verdrängung menschlicher Arbeitskräfte – und stellen sogar eine existenzielle Bedrohung für die Menschheit dar. Der Aufstieg der KI hat beispielsweise Ökonomen dazu veranlasst, vor einem Arbeitsmarkt zu warnen. Schätzungen von Goldman Sachs zufolge könnten irgendwann weltweit bis zu 300 Millionen Vollzeitjobs durch generative KI automatisiert werden. Laut einem Bericht des Weltwirtschaftsforums vom April könnten allein in den nächsten fünf Jahren rund 14 Millionen Stellen wegfallen.

In seiner Aussage vor dem Kongress sagte Altman, dass die Möglichkeit, KI zur Wählermanipulation und gezielten Desinformation einzusetzen, zu „meinem Bereich mit der größten Sorge“ gehöre.

Zwei Wochen nach der Anhörung unterzeichnete Altman zusammen mit Hunderten von führenden KI-Wissenschaftlern, Forschern und Wirtschaftsführern einen Brief, in dem es hieß: „Die Eindämmung des Risikos des Aussterbens durch KI sollte neben anderen gesellschaftlichen Risiken wie Pandemien und Atomkrieg eine globale Priorität sein.“ ”

See also  Das Repräsentantenhaus verlangt von Harvard einen Berg an Dokumenten zur Antisemitismus-Untersuchung

Die Warnung wurde in der Presse ausführlich behandelt, wobei einige meinten, sie zeige die Notwendigkeit, solche apokalyptischen Szenarien ernster zu nehmen. Es verdeutlichte auch eine wichtige Dynamik im Silicon Valley: Spitzenmanager einiger der größten Technologieunternehmen erzählen der Öffentlichkeit, dass KI das Potenzial hat, die Ausrottung der Menschheit herbeizuführen, und konkurrieren gleichzeitig darum, in diese Technologie zu investieren und sie in Produkten einzusetzen, die Milliarden von Menschen erreichen .

Obwohl Altman, ein langjähriger Unternehmer und Investor aus dem Silicon Valley, in den vergangenen Jahren weitgehend aus dem Rampenlicht blieb, ist er in den letzten Monaten als Aushängeschild der KI-Revolution in den Fokus gerückt. Dies hat ihn auch einem Rechtsstreit ausgesetzt,behördlicher Kontrolle und sowohl Lob als auch Verurteilung auf der ganzen Welt.

An diesem Tag bezeichnete Altman vor dem Unterausschuss des Senats jedoch den aktuellen Boom der Technologie als einen entscheidenden Moment.

“Ist [AI] Wird es wie die Druckerpresse sein, die Wissen, Macht und Gelehrsamkeit in der ganzen Welt verbreitet hat, die den gewöhnlichen, alltäglichen Menschen Macht verliehen hat, die zu größerem Gedeihen geführt hat, die vor allem zu größerer Freiheit geführt hat?“ er sagte. „Oder wird es eher wie bei der Atombombe sein – ein riesiger technologischer Durchbruch, aber die Folgen (schwerwiegend, schrecklich) verfolgen uns bis heute?“

Altman präsentiert sich seit langem als jemand, der sich der von KI ausgehenden Risiken bewusst ist, und er hat sich verpflichtet, verantwortungsvoll voranzukommen. Er ist einer von mehreren Technologie-CEOs, die sich mit führenden Vertretern des Weißen Hauses, darunter Vizepräsidentin Kamala Harris und Präsident Joe Biden, getroffen haben, um die Bedeutung einer ethischen und verantwortungsvollen KI-Entwicklung hervorzuheben.

Andere wollen, dass Altman und OpenAI vorsichtiger vorgehen. Elon Musk, der an der Gründung von OpenAI beteiligt war, bevor er aus der Gruppe austrat, und Dutzende von Technologieführern, Professoren und Forschern drängten Labore für künstliche Intelligenz wie OpenAI, das Training der leistungsstärksten KI-Systeme für mindestens sechs Monate einzustellen, und verwiesen auf „erhebliche Risiken für …“. Gesellschaft und Menschheit.“ (Gleichzeitig stellten einige Experten die Frage, ob diejenigen, die den Brief unterzeichnet hatten, ihren Wettbewerbsvorteil gegenüber anderen Unternehmen behaupten wollten.)

See also  Zhongzhi Enterprise Group: Chinesische Schattenbank kann ihre Rechnungen nicht bezahlen

Altman sagte, er stimme Teilen des Briefes zu, einschließlich der Aussage, dass „die Sicherheitsschwelle erhöht werden muss“, sagte jedoch, eine Pause sei kein „optimaler Weg“, um die Herausforderungen anzugehen.

Dennoch steht OpenAI fest auf dem Gaspedal. Zuletzt haben OpenAI und der iPhone-Designer Jony Ive Berichten zufolge Gespräche geführt, um vom japanischen Mischkonzern SoftBank eine Milliarde US-Dollar für ein KI-Gerät als Ersatz für das Smartphone aufzubringen.

„Ich habe ihn immer als unglaublich selbstkritisch gegenüber Ideen erlebt und war bereit, jede Art von Feedback zu jedem Thema entgegenzunehmen, mit dem er sich im Laufe der Jahre beschäftigt hat“, sagte Levie.

Aber Bern Elliot, Analyst bei Gartner Research, hat auf das berühmte Klischee hingewiesen: Es besteht die Gefahr, alles auf eine Karte zu setzen, egal wie viel Vertrauen man in den Korb setzt.

„Mit einem Korb können viele Dinge passieren“, fügte er hinzu.

Trotz seines Führungsstatus sagt Altman, dass er weiterhin besorgt über die Technologie sei. „Ich bereite mich auf das Überleben vor“, sagte er 2016 in einem Profil im New Yorker und erwähnte mehrere mögliche Katastrophenszenarien, darunter „KI, die uns angreift“.

„Ich habe Waffen, Gold, Kaliumjodid, Antibiotika, Batterien, Wasser, Gasmasken der israelischen Streitkräfte und ein großes Stück Land in Big Sur, zu dem ich fliegen kann“, sagte er.

Einige Experten der KI-Branche sagen jedoch, dass die Konzentration auf weit entfernte apokalyptische Szenarien möglicherweise von den unmittelbareren Schäden ablenken könnte, die eine neue Generation leistungsstarker KI-Tools für Menschen und Gemeinschaften verursachen kann. Rowan Curran, Analyst beim Marktforschungsunternehmen Forrester, erkannte die berechtigten Bedenken an, sicherzustellen, dass Trainingsdaten, insbesondere für riesige Modelle, nur minimale Verzerrungen aufweisen – oder eine Verzerrung aufweisen, die verstanden wird und gemildert werden kann.

„Die Vorstellung einer ‚KI-Apokalypse‘ als realistisches Szenario, das jede Art von Gefahr für die Menschheit darstellt – insbesondere kurz- und mittelfristig – ist nur spekulative Techno-Mythologie“, sagte er. „Die anhaltende Fokussierung darauf als eines der großen Risiken, die mit der Weiterentwicklung der KI einhergehen, lenkt von den sehr realen Herausforderungen ab, vor denen wir heute stehen, um aktuelle und zukünftige Schäden durch Daten und Modelle zu reduzieren, die von menschlichen Akteuren ungerechtfertigt angewendet werden.“

See also  FOMC: Die Fed hat heute eine große Änderung angekündigt. Und nein, wir reden hier nicht über Zinssätze

In der bisher vielleicht größten Aktion hat Präsident Biden Anfang dieser Woche eine Durchführungsverordnung vorgestellt, die Entwickler leistungsstarker KI-Systeme verpflichtet, die Ergebnisse ihrer Sicherheitstests der Bundesregierung mitzuteilen, bevor sie der Öffentlichkeit zugänglich gemacht werden, wenn sie die nationale Sicherheit gefährden , wirtschaftliche oder gesundheitliche Risiken.

Im Anschluss an die Anhörung im Senat äußerte Emily Bender, Professorin an der University of Washington und Direktorin des Labors für Computerlinguistik, Bedenken darüber, wie die Zukunft der KI aussehen wird, auch wenn sie stark reguliert ist. „Wenn sie ernsthaft glauben, dass dies zum Aussterben der Menschheit führen könnte, warum dann nicht einfach damit aufhören?“ Sie sagte.

Margaret O’Mara, Technikhistorikerin und Professorin an der University of Washington, sagte, dass gute Politikgestaltung auf vielfältigen Perspektiven und Interessen basieren sollte, nicht nur auf einer oder wenigen Personen, und dass bei der Gestaltung das öffentliche Interesse im Vordergrund stehen sollte.

„Die Herausforderung bei KI besteht darin, dass nur sehr wenige Menschen und Firmen wirklich verstehen, wie sie funktioniert und welche Auswirkungen ihr Einsatz hat“, sagte O’Mara und wies auf Ähnlichkeiten mit der Welt der Kernphysik vor und während der Entwicklung des Manhattan-Projekts hin die Atombombe.

Dennoch sagte O’Mara, dass viele Menschen in der Technologiebranche dafür plädieren, dass Altman die Kraft sei, die Gesellschaft mit KI zu revolutionieren, sie aber sicher zu machen.

„Diese Zeit ähnelt dem, was Gates und Jobs für den Personal-Computing-Moment der frühen 1980er-Jahre und den Software-Moment der 1990er-Jahre getan haben“, sagte sie. „Es besteht eine echte Hoffnung, dass wir Technologie haben können, die die Dinge verbessert, wenn die Leute, die sie herstellen, gute Menschen sind, klug und sich um die richtigen Dinge kümmern. Sam verkörpert das derzeit für KI.“

Die Welt verlässt sich darauf, dass Altman im besten Interesse der Menschheit mit einer Technologie handelt, die nach eigenen Angaben eine Massenvernichtungswaffe sein könnte. Obwohl er ein kluger und qualifizierter Anführer sein mag, ist er immer noch genau das: eine Person.

Leave a Reply

Your email address will not be published. Required fields are marked *

Most Popular

On Key

Related Posts