Der Traum von künstlicher Intelligenz ist in unserem Alltag angekommen, und die ethischen Diskussionen rund um KI haben in der Folge zugenommen, insbesondere darüber, wie viele Daten diese KI-Dienste von Benutzern sammeln. Schließlich gibt es dort, wo möglicherweise sensible Informationen massenhaft gespeichert werden, Cybersicherheits- und Datenschutzbedenken.
Microsofts Bing-Suchmaschine, die neu mit OpenAIs ChatGPT ausgestattet ist und derzeit eingeführt wird, hat ihre eigenen Bedenken mit sich gebracht, da Microsoft nicht die beste Erfolgsbilanz hat, wenn es darum geht, die Privatsphäre seiner Kunden zu respektieren.
Microsoft wurde gelegentlich wegen seiner Verwaltung und seines Zugriffs auf Benutzerdaten herausgefordert, wenn auch deutlich weniger als seine Zeitgenossen wie Apple, Google und Facebook, obwohl es mit vielen Benutzerinformationen handelt – auch wenn es gezielte Werbung verkauft.
Es wurde von bestimmten staatlichen Regulierungsbehörden und Organisationen ins Visier genommen, beispielsweise als Frankreich forderte, dass Microsoft die Nachverfolgung von Benutzern über Windows 10 einstellt, und das Unternehmen mit einer Reihe umfassender Maßnahmen reagierte.
Jennifer King, Direktorin für Verbraucherdatenschutz am Center for Internet and Society Stanford Law School, spekuliert, dass dies teilweise auf die langjährige Position von Microsoft zurückzuführen ist sowohl in seinem jeweiligen Markt als auch in langjährigen Beziehungen zu Regierungen, die ihm aufgrund seines Erbes gewährt wurden. Es verfügt über mehr Erfahrung im Umgang mit Regulierungsbehörden und hätte daher möglicherweise das gleiche Maß an Prüfung vermieden wie seine Konkurrenten.
Ein Datenstrom
Microsoft und andere Unternehmen müssen nun aufgrund der Popularität von Chatbots wie ChatGPT auf einen Massenzufluss von Chat-Daten von Benutzern reagieren. Entsprechend der Telegraph, Microsoft hat Gutachter, die Benutzerübermittlungen analysieren (öffnet in neuem Tab) um Schaden zu begrenzen und auf potenziell gefährliche Benutzereingaben zu reagieren, indem Benutzerkonversationsprotokolle mit dem Chatbot durchsucht und eingegriffen werden, um „unangemessenes Verhalten“ zu moderieren.
Das Unternehmen behauptet, dass es die Übermittlung personenbezogener Daten entfernt, die Chat-Texte der Benutzer nur bestimmten Prüfern zugänglich sind und diese Bemühungen die Benutzer schützen, selbst wenn ihre Gespräche mit dem Chatbot überprüft werden.
Ein Microsoft-Sprecher führte aus, dass es sowohl automatisierte Überprüfungsbemühungen (da viele Daten zu durchsuchen sind) als auch manuelle Prüfer einsetzt. Weiter heißt es, dass dies der Standard für Suchmaschinen sei und auch in der Datenschutzerklärung von Microsoft enthalten sei.
Der Sprecher bemüht sich, den Betroffenen zu versichern, dass Microsoft branchenübliche Datenschutzmaßnahmen für Benutzer anwendet, wie „Pseudonymisierung, Verschlüsselung im Ruhezustand, gesicherte und genehmigte Datenzugriffsverwaltung und Datenaufbewahrungsverfahren“.
Darüber hinaus können die Prüfer Benutzerdaten nur auf der Grundlage „nur eines verifizierten Geschäftsbedarfs und nicht Dritter“ einsehen. Microsoft hat seitdem seine Datenschutzerklärung aktualisiert, um das oben Gesagte zusammenzufassen und zu verdeutlichen – Benutzerinformationen werden gesammelt und menschliche Mitarbeiter bei Microsoft können diese möglicherweise einsehen.
Im Rampenlicht
Microsoft ist nicht das einzige Unternehmen, das genau untersucht wird, wie es Benutzerdaten sammelt und verarbeitet, wenn es um KI-Chatbots geht. OpenAI, das Unternehmen, das ChatGPT erstellt hat, gab auch bekannt, dass es Benutzergespräche überprüft.
Kürzlich gab das Unternehmen hinter Snapchat bekannt, dass es einen mit ChatGPT ausgestatteten Chatbot einführt, der seinem bereits bekannten Messenger-Chat-Format ähneln wird. Es hat Benutzer gewarnt, möglicherweise aus ähnlichen Gründen keine personenbezogenen sensiblen Informationen zu übermitteln.
Diese Bedenken vervielfachen sich, wenn man die Verwendung von ChatGPT und mit ChatGPT ausgestatteten Bots durch diejenigen betrachtet, die in Unternehmen mit ihren eigenen sensiblen und vertraulichen Informationen arbeiten, von denen viele Mitarbeiter davor gewarnt haben, vertrauliche Unternehmensinformationen in diese Chatbots einzugeben. Einige Unternehmen, wie z JP Morgan und Amazon (öffnet in neuem Tab)haben ihre Verwendung bei der Arbeit eingeschränkt oder ganz verboten.
Persönliche Benutzerdaten waren und sind ein zentrales Thema in der Technik im Allgemeinen. Der Missbrauch von Daten oder sogar die böswillige Verwendung von Daten kann schwerwiegende Folgen sowohl für Einzelpersonen als auch für Organisationen haben. Mit jeder Einführung einer neuen Technologie steigen diese Risiken – aber auch die potenzielle Belohnung.
Tech-Unternehmen täten gut daran, besonders darauf zu achten, dass unsere personenbezogenen Daten so sicher wie möglich sind – oder das Vertrauen ihrer Kunden verlieren und möglicherweise ihre noch jungen KI-Ambitionen zunichte machen.