Microsoft schränkt den Zugriff auf das Gesichtserkennungstool bei der Überholung der KI-Ethik ein | Gesichtserkennung

Microsoft überarbeitet seine Ethikrichtlinien für künstliche Intelligenz und lässt Unternehmen seine Technologie nicht mehr verwenden, um Dinge wie Rückschlüsse auf Emotionen, Geschlecht oder Alter mithilfe von Gesichtserkennungstechnologie zu machen, sagte das Unternehmen.

Als Teil seines neuen „verantwortungsbewussten KI-Standards“ beabsichtigt Microsoft, „den Menschen und seine Ziele in den Mittelpunkt von Systemdesignentscheidungen zu stellen“. Die High-Level-Prinzipien werden zu echten Veränderungen in der Praxis führen, sagt das Unternehmen, da einige Funktionen optimiert und andere aus dem Verkauf genommen werden.

Der Azure Face-Dienst von Microsoft beispielsweise ist ein Gesichtserkennungstool, das von Unternehmen wie Uber im Rahmen ihrer Identitätsüberprüfungsprozesse verwendet wird. Jetzt muss jedes Unternehmen, das die Gesichtserkennungsfunktionen des Dienstes nutzen möchte, aktiv die Nutzung beantragen, einschließlich derer, die es bereits in ihre Produkte integriert haben, um nachzuweisen, dass sie die KI-Ethikstandards von Microsoft erfüllen und dass die Funktionen dem Endbenutzer zugute kommen Gesellschaft.

Selbst die Unternehmen, denen der Zugriff gewährt wird, können einige der umstritteneren Funktionen von Azure Face nicht mehr nutzen, sagt Microsoft, und das Unternehmen wird die Gesichtsanalysetechnologie zurückziehen, die vorgibt, auf emotionale Zustände und Attribute wie Geschlecht oder Alter zu schließen.

„Wir haben mit internen und externen Forschern zusammengearbeitet, um die Einschränkungen und potenziellen Vorteile dieser Technologie zu verstehen und Kompromisse zu finden“, sagte Sarah Bird, Produktmanagerin bei Microsoft. „Speziell im Fall der Emotionsklassifizierung haben diese Bemühungen wichtige Fragen zum Datenschutz, zum Mangel an Konsens über eine Definition von ‚Emotionen‘ und zur Unfähigkeit, die Verbindung zwischen Gesichtsausdruck und emotionalem Zustand über Anwendungsfälle hinweg zu verallgemeinern, aufgeworfen.“

<gu-island name="EmbedBlockComponent" deferuntil="visible" props="{"html":"”,”caption”:”Melden Sie sich bei First Edition an, unserem kostenlosen täglichen Newsletter – jeden Wochentag morgens um 7 Uhr BST”,”isTracking”:false,”isMainMedia”:false,”source”:”The Guardian”,”sourceDomain” :”theguardian.com”}”>

Melden Sie sich für First Edition an, unseren kostenlosen täglichen Newsletter – jeden Wochentag morgens um 7 Uhr BST

Microsoft verschrottet die Emotionserkennung nicht vollständig – das Unternehmen wird sie weiterhin intern für Barrierefreiheitstools wie Seeing AI verwenden, die versuchen, die Welt für Benutzer mit Sehproblemen verbal zu beschreiben.

siehe auch  Krater Tenoumer, Mauretanien – Einer der am besten erhaltenen Krater der Erde

In ähnlicher Weise hat das Unternehmen die Verwendung seiner benutzerdefinierten neuronalen Sprachtechnologie eingeschränkt, die die Erstellung synthetischer Stimmen ermöglicht, die nahezu identisch mit der Originalquelle klingen. „Es ist … leicht vorstellbar, wie es verwendet werden könnte, um sich auf unangemessene Weise als Sprecher auszugeben und Zuhörer zu täuschen“, sagte Natasha Crampton, die verantwortliche KI-Beauftragte des Unternehmens.

Anfang dieses Jahres begann Microsoft damit, seine synthetischen Stimmen mit Wasserzeichen zu versehen, wobei geringfügige, unhörbare Schwankungen in die Ausgabe eingebaut wurden, was bedeutete, dass das Unternehmen erkennen konnte, wann eine Aufnahme mit seiner Technologie gemacht wurde. „Mit der Weiterentwicklung der neuralen TTS-Technologie, die synthetische Sprache von menschlichen Stimmen nicht mehr unterscheidbar macht, besteht die Gefahr schädlicher Deepfakes“, sagte Qinying Liao von Microsoft.

Newsletter

Leave a Reply

Your email address will not be published.

This site uses Akismet to reduce spam. Learn how your comment data is processed.