Welt

Barry O Sullivan: "Wir sind umgeben von künstlicher Intelligenz mit einer solchen Natürlichkeit, die wir nicht erkennen"

Barcelona hat diese Woche den Start des Projekts Artificial Intelligence für die Europäische Union (AI4EU) veranstaltet, einer Initiative der Europäischen Kommission (CE), die den Mitgliedstaaten eine Ressourcenplattform für künstliche Intelligenz (IA) zur Verfügung stellt, z Experten sowie für die breite Öffentlichkeit. Bis zu 60 führende Forschungszentren haben sich an diesen Tagen an der Polytechnischen Universität von Katalonien (UPC) getroffen, um an den ersten Treffen dieser Initiative teilzunehmen. Unter ihnen ist der Informatikprofessor Barry O Sullivan, Präsident der Europäischen Vereinigung für Künstliche Intelligenz (EurAI) – einer der wichtigsten der Welt – und seit Juni letzten Jahres Vizepräsident der Gruppe für Künstliche Intelligenz. Experten für hohes Niveau in der künstlichen Intelligenz der EG.

Kann ich die Zukunft der KI bis 2030 definieren, wie will die AI4EU?

Es ist ein ehrgeiziger Anspruch, aber Technologie ist überall und hat einen großen Einfluss auf unser Leben. Noch heute gibt es in der breiten Öffentlichkeit ein großes Unbekanntes, weshalb es wichtig ist, eine strategische Linie zu entwickeln, die aus wissenschaftlicher und technischer Sicht, aber auch ethisch orientiert ist.

Warum entwickelt Europa ethische Leitfäden für AI?

Ja, das Siegel der Intelligenz soll erklären können, warum wir eine Entscheidung treffen und keine andere. Viele IA-Systeme können es nicht garantieren, wie z tiefe Lernsystemedas mit ihm großes Datum Sie haben viel Bekanntheit erlangt. Sie sind hell und mächtig, aber sie können den Ursprung ihrer Antworten nicht erklären oder transparent sein. In letzter Zeit haben die Menschen bereits begonnen, die Zuverlässigkeit und Verantwortung der KI in Frage zu stellen und sich zu fragen, ob rechtliche Verstärkung erforderlich ist, falls etwas Schlimmes passiert. Der Rahmen ist jedoch aus ethischer Sicht nicht ausreichend. Autoren müssen für ihre Kreationen verantwortlich sein, und das A muss die Person immer in der Mitte haben.

Wenden wir es an, ohne es zu merken, die KI?

Absolut! Wir alle leben jeden Tag umgeben von AI: Die Tweets, die wir auf Twitter lesen, oder die von Netflix empfohlenen Filme haben ein AI-Tool ausgewählt. Ich Google! Wann immer wir die Suchmaschine verwenden, verwenden wir die KI oder wenn Roomba nur die Etage des Hauses reinigt, erfolgt dies durch die KI. Es ist brutal zu sehen, wie diese Methoden so natürlich angenommen wurden, dass die Menschen nicht erkennen, dass sie eine KI sind.

Wie soll die Gesellschaft diese Systeme verstehen?

Zuallererst benötigen Sie eine Schulung, um zu wissen, was es ist und wie es funktioniert, vor allem aber, um die Folgen ihrer Verwendung vorherzusagen. Es besteht kein Risiko. Wir kümmern uns um Gesichtserkennungssysteme: Wir geben sowohl personenbezogene Daten als auch unsere physischen Merkmale weiter und werden mit unserer Zustimmung gespeichert. Ich persönlich wundere mich, wie das iPhone Ihre Fotogalerie anhand der erkannten Gesichter organisieren kann: Wenn Ihr Vater einmal markiert wird, wird er in den restlichen Bildern markiert, die sein Gesicht erkennen.

Und das ist gefährlich?

Ich sage oft, dass IA-Systeme grundsätzlich unsicher sind. Sie können gut oder schlecht arbeiten, aber sie können auch sehr schlecht arbeiten. Die meisten sind geschult, und der Empfänger lernt nur die angegebenen Beispiele. Wir vertrauen darauf, dass die Besten ausgewählt werden, aber die KI kann mit voreingenommenen Daten zu Geschlecht, Rasse oder sozioökonomischem Charakter arbeiten, die nicht repräsentativ sind.

Wie zum Beispiel?

Da sind viele. Die IA hat kein Monopol auf die Wahrheit, und Computer haben nicht immer Recht. Stellen Sie sich eine direkte Anordnung für die Polizei von Barcelona vor: Die meisten Agenten müssen in den als dekadent geltenden Teil der Stadt ziehen, und nur wenige werden zu einem als gut befundenen Teil geschickt. Das Dekadent wird zu weiteren Festnahmen führen, und die vom System gesammelten Daten werden zeigen, dass es mehr Kriminelle gibt. Es ist ein sozialer Vorurteil, der durch die Daten verstärkt wird. Bei den Sprachen geht es genauso: Einige machen das Geschlecht zu den Dingen, andere nicht. Wenn wir die Pronomen analysieren, werden wir feststellen, dass die männlichen mit Autoritäts- oder Führungspositionen verbunden sind, während die weiblichen mit Betreuungs- oder Unterstützungsaktivitäten verbunden sind. Selbst die besten Systeme reproduzieren Vorurteile, weil das Problem nicht die KI ist, sondern die Gesellschaft, die die Systeme unterrichtet. Die Folgenabschätzung hat keinen gesunden Menschenverstand, und wir sollten in der Tat keine Angst vor der Intelligenz der Roboter und ihrer Dummheit haben.

Kann es jedoch Risiken für die Sicherheit von Menschen darstellen?

Wir sind durch Science Fiction und humanoide Roboter sehr verseucht. Die KI kann sich jedoch negativ auswirken. Wie alles im Leben hängt es davon ab, wie es angewendet wird. Die KI kann versagen oder sogar zum Übelgehen benutzt werden, aber a priori ist sie nicht schlecht. Damit kehren wir zum Beginn des Interviews zurück: Ethische Richtlinien und ein guter rechtlicher Rahmen reduzieren die Risiken erheblich. Die KI möchte die Probleme der Menschen lösen oder ihr Leben verbessern, wir glauben nicht, dass sie anderen bewusst Schaden zufügen.

Denken Sie, dass ein neuer internationaler Wettbewerb für AI entwickelt wurde?

Nein, ich denke nicht so. Es ist klar, dass es drei starke globale Akteure in IA gibt: die Vereinigten Staaten, Europa und China. Alles in allem glaube ich, dass sie unterschiedliche Prioritäten haben. Die Vereinigten Staaten bauen per System zuerst und dann reparieren; Wir sehen es mit sozialen Netzwerken, die sich häufig ausbreiten, bevor die Schöpfer oder die Gesellschaft sie verstehen können. China möchte KI-Systeme direkt in die Gesellschaft einbauen, um die Kontrolle zu übernehmen: Jeder Bürger wird eine Zahl haben, die seinen Wohlstand bis 2020 angeben wird. Ich sehe in diesen großen Unterschieden zu Europa und denke, der Wendepunkt sind die ethischen Richtlinien, für die wir regieren Es ist ein sehr strikter Schutz der Menschenrechte und personenbezogener Daten, und ich glaube, dass unsere Herangehensweise an die Folgenabschätzung – und wird dafür kämpfen – eine Menge Ethik.

Post Comment

This site uses Akismet to reduce spam. Learn how your comment data is processed.