Gruselig: Computersysteme lernen Sprache – und übernehmen dabei Vorurteile

Computersysteme mit künstlicher Intelligenz (KI), berichtet Daniela Albat bei wissenschaft.de, verfügen über erstaunliche Fähigkeiten: Sie werten selbständig Sprache, Bilder und Texte aus oder schreiben sie sogar. Zudem haben sie gelernt, sich gegenseitig etwas beizubringen und kommen auch mit komplexen Aufgaben mühelos zurecht. Damit Maschinen ähnliche Leistungen wie Menschen vollbringen können, müssen sie jedoch zunächst lernen. Informatiker füttern sie dafür mit riesigen Mengen an Daten, zum Beispiel mit gesprochener und geschriebener Sprache, und lassen sie Verbindungen zwischen Wörtern und Ausdrücken herstellen.

Eine Studie offenbart nun: Künstliche Intelligenzen lernen dabei mitunter mehr als eigentlich beabsichtigt. Denn wenn sich die Programme anhand von Text-Datensätzen sprachliche Fähigkeiten aneignen, übernehmen sie auch die in dem Material enthaltenen Stereotypen. Sie zeigen dann die gleichen rassistischen Vorurteile oder Geschlechter-Klischees wie viele Menschen in unserer Gesellschaft.

Algorithmen wie das Programm „GloVe“ lernen dabei über sogenannte Worteinbettungen. Sie suchen nach dem gemeinsamen Vorkommen von Wörtern und bilden diese Beziehungen mit mathematischen Werten ab. Dadurch können sie semantische Ähnlichkeiten zum Beispiel zwischen „Politiker“ und „Politikerin“ verstehen und erkennen, dass die Beziehung zwischen diesen beiden Begriffen ähnlich ist wie die zwischen „Mann“ und „Frau“. Wissenschaftler um Aylin Caliskan von der Princeton University haben die auf diese Weise erworbenen Fähigkeiten von „GloVe“ nun auf die Probe gestellt und herausgefunden: Das sprachliche Wissen des Programms ist gespickt mit kulturellen Stereotypen und Vorurteilen.

Für ihre Studie verwendeten die Forscher eine Methode, die in der Psychologie als Impliziter Assoziationstest bekannt ist. Probanden müssen dafür Paare mit Ausdrücken bilden, die für sie ähnlich erscheinen sowie Paare mit Begriffen, die für sie nicht zusammengehören. Dabei stellt sich dann zum Beispiel heraus, dass viele Menschen das Wort „Blume“ mit dem Adjektiv „angenehm“ assoziieren – „Insekt“ jedoch eher als „unangenehm“ empfinden. Die Ergebnisse zeigten: Etliche Stereotypen und Vorurteile, die sich bei Menschen durch den Impliziten Assoziationstest regelmäßig offenbaren, hat „GloVe“ ebenfalls verinnerlicht. So interpretierte das Programm zum Beispiel männliche, in afro-amerikanischen Kreisen übliche Vornamen als eher unangenehm und Namen, die unter Weißen üblich sind, eher als angenehm. Auch verknüpfte es weibliche Namen eher mit Kunst und männliche eher mit Mathematik.

Maschinengehirne sind also keineswegs frei von Vorurteilen. KI-Systeme übernehmen beim Lernen aus Datensätzen die darin enthaltenen Stereotypen. „Das ist deshalb wenig überraschend, weil die Texte von Menschen geschrieben werden, die natürlich nicht vorurteilsfrei sind“, kommentiert der Linguist Joachim Scharloth von der Technischen Universität Dresden. „Wenn KI-Systeme mit einseitigen Daten trainiert werden, ist es nicht verwunderlich, dass sie eine einseitige Sicht auf die Welt lernen. Im letzten Jahr gab es dazu schon die Beispiele des Microsoft Chatbots Tay, dem Internet-Trolle rassistische Sprache beibrachten, oder der App Google Photos, die glaubte, dunkelhäutige User seien Gorillas“, ergänzt Christian Bauckhage vom Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme in Sankt Augustin.

Wissenschaftler diskutieren deshalb nun darüber, wie Verzerrungen aus Datensätzen künftig entfernt werden können. Gleichzeitig sehen manche die Übernahme von Vorurteilen durch KI-Systeme auch als Chance – weil die Programme uns damit gewissermaßen einen Spiegel vorhalten: „Dass maschinelles Lernen Stereotypen aufdecken kann, ist für das Verstehen von Gesellschaften auch ein Gewinn“, meint Scharloth.

Autor: Henning Rosenkötter

Thorsten Lindenmeyer (Logopädiepraxis in Vaihingen/Enz) und Henning Rosenkötter haben 2006 das Forum Kindersprache gegründet. Wir stellen allen, die sich mit der frühen Sprachentwicklung von Kindern beschäftigen, ein Forum für interdisziplinären Austausch und Fortbildung zur Verfügung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.