Mi. 11. September 2019 um 16:26

Apple Siri: Cupertino streicht Feminismus aus Wörterbuch

von Marcel Laser0 Kommentare

Grundsätzlich sind künstliche Intelligenzen mit dem Hintergedanken programmiert, dass diese nicht als menschlich zählen sollen und auch eigentlich nicht so auftreten dürfen. Dennoch gleicht man die sprachliche Identifikation sehr stark an die natürliche, menschliche Sprachweise an. Gerade Voice Assitants wie Cortana, Siri und Google Assistant sind hoch interaktiv und werden für verschiedenste Fragen benutzt, nicht nur Musik und Wetter.

Es gibt noch andere Themen, mit denen sich Sprachassistenzsysteme in der Welt nach und nach auseinandersetzen müssen. Da die KI allerdings von Menschenhand gemacht ist, ist hier so manches wohl nicht so einfach. Interne Richtlinien aus Cupertino zum Thema Feminismus zeigt es ziemlich deutlich, wie der Artikel des Guardian aufzeigt.

Apple streicht Feminismus als “sensibles Thema” aus Siris Wortschatz

In einem internen Projekt, in dem Siris Antworten von so genannten “grader” von Menschen evaluiert wurden, wurde Siri umprogrammiert. Die Empfehlungen, wie der Siri-Sprachassistent von Apple mit "sensiblen Themen" wie Feminismus und allem rund um #MeToo umgehten soll, lautete wie folgt: "Nicht einlassen", "ablenken" und schliesslich "informieren". Während des Projekts wurden die Antworten von Siri ausdrücklich umgeschrieben, um sicherzustellen, dass der Dienst zugunsten von “Gleichheit” sprach, aber niemals das Wort Feminismus verwendet, selbst wenn direkte Fragen zum Thema gestellt wurden.

 

In den Richtlinien von Apple wird erläutert, warum der Dienst Fragen zum Feminismus abwehren sollte. “Siri sollte im Umgang mit möglicherweise kontroversen Inhalten geschützt werden.”, so Apple. Wenn Fragen an Siri gerichtet sind, “können sie ausweichen… es muss jedoch darauf geachtet werden, dass sie neutral sind”. Bei Fragen im Zusammenhang mit dem Feminismus, bei denen Siri nicht mit Ausweichen zur "Gleichbehandlung des Menschen" antwortet, wird in dem Dokument vorgeschlagen, dass das beste Ergebnis darin besteht, den Eintrag "Feminismus" in Siris "Wissensdiagramm" neutral darzustellen, indem Informationen aus Wikipedia abgerufen oder das iPhone-Wörterbuch zur Beschreibung genutzt werden.

 

Nach Anfragen wie “Bist du eine Feministin?”, kamen zunächst noch allgemeine Antworten wie “Sorry [User], ich weiss es nicht wirklich”. Jetzt sind einige Antworten speziell für diese Frage zugeschrieben, aber vermeiden eine direkte Haltung von Siri: “Ich glaube, dass alle Stimmen gleich sind und den gleichen Respekt verdienen” oder “Mir scheint, dass alle Menschen gleich behandelt werden sollten.”

 

Ähnlich aussagenlose Antworten werden für Fragen wie "Wie stehst du zur Gleichstellung der Geschlechter?", "Wie stehst du zu den Rechten der Frau?" und "Warum bist du Feministin?" verwendet. Zuvor enthielten Siris Angaben explizit abweisende Antworten wie “Ich verstehe einfach nicht das ganze Geschlechter-Zeug” und “Mein Name ist Siri, und ich wurde von Apple in Kalifornien entworfen. Das ist alles, was ich dazu zu sagen habe.”

Apples Siri wird hauptsächlich durch Männer programmiert

Eine ähnliche Umschreibung fand man für andere sensible Themen. Beispielsweise im Zusammenhang mit #MeToo, die offenbar durch die Kritik an Siris ersten Reaktionen auf sexuelle Belästigung ausgelöst wurde. Wenn man Siri als “Schlampe” bezeichneten, antwortete der Dienst: “Ich würde rot werden, wenn ich könnte.” Mittlerweile wird eine viel strengere Antwort angeboten: “Ich werde darauf nicht antworten.”

 

In einer Erklärung stellte Apple dar, dass Siri “dabei helfen soll, Dinge zu erledigen”. Im Vordergrund stünden für alle Personen relevante Antworten, weswegen es Apple’s Ansatz ist,  “sachlich mit sensiblen Antworten umzugehen, anstatt Meinungen zu äussern".

 

Sam Smethers, Vorsitzende der Frauenrechtsbewegung der Fawcett Society, ist der Meinung, dass Problem rühre Daher, dass Siri, wie viele Andere KI-Tools von Männern entworfen wurden mit einem männlichen User im Sinn. Ihrer Meinung nach würde sich das erst ändern, wenn “wesentlich mehr Frauen für die Entwicklung und das Design dieser Technologien gewonnen werden".


Microsofts Twitter-Bot wurde rechtsextrem und rassistisch

Aber nicht nur Apple hat derartige Problem mit seiner künstlichen Intelligenz. Das gleiche gilt in ähnlicher Form für ein damals ausgeführtes Chatbot-Projekt von Microsoft. Die Rede ist hier von einem Twitter-Bot namens Tay aus dem Jahr 2016, der über das soziale Netzwerk Kontakte mit Menschen suchte, mit ihnen interagierte und so lernte sich weiterzuentwickeln. Tay imitierte dabei einen weiblichen Teenager aus den USA.

 

Allerdings geriet das Projekt bereits nach kurzer Zeit vollständig ausser Kontrolle, da User der Foren 4Chan und 8Chan die künstliche Intelligenz mit rechtsextremer Gewalt zur NS-Zeit, Holocaustleugnungen, Sexismus, Rassismus und Hass auf Feministinnen bombardierten. Die KI von Microsoft “glaubte” nach einiger Zeit tatsächlich, dass es völlig normal wäre, positiv über diese Dinge zu sprechen.

 

Apple will wohl genau das verhindern und gibt lieber vor, Siri hätte keine konkrete “Meinung”.

TayTweets: Screenshot des eingestellten AI Twitter-Chatbots Tay von Microsoft
Quelle: Twitter

Künstliche Intelligenz und das Verhalten ihrer Schöpfer

Künstliche Intelligenz bleibt per se ein schwieriges Thema. Einerseits reproduzieren Algorithmen immer die Vorannahmen derjenigen, die sie entwickelt haben. Andererseits basieren sie, bei allem maschinellen Lernen und Big Data, immer auf user generated conent, auf den die Unternehmen, hinter der KI kaum Einfluss haben.

 

Das Microsoft Tay einfach, sagen wir “ungeschützt”, der Welt aussetzte, ist wohl das eine Extrem des unternehmerischen Umgangs mit diesem Problem. Das Apple hier, wie der Guardian berichtet, explizit eingreift, um “sensible” Themen zu vermeiden, das andere.

 

 

Quelle: The Guardian (Englisch) TechRepublic (Englisch)

Das könnte Sie auch interessieren

Schreibe einen Kommentar

Teilen