Vorurteile Künstlicher Intelligenz: So diskriminieren Algorithmen

 

 

 

Algorithmen sind nicht neutral. Ein Computer kann einen Menschen je nach Geschlecht, Hautfarbe oder anderen Merkmalen benachteiligen und entscheiden, wer einen Job oder Kredit bekommt.

 

Vom Einsatz Künstlicher Intelligenz erhoffte man sich auch objektivere Entscheidungen. Doch das erwies sich in vielen Fällen als Trugschluss. Algorithmen sind nicht neutral. Denn diese werden von Menschen gemacht, deren Vorurteile und blinde Flecken in die Programmierung mit einfliessen.

So hat beispielsweise die Bildsoftware von Google vor ein paar Jahren Afroamerikaner*innen als Gorillas kategorisiert. Bei Amazon wiederum wollte die Personalabteilung mit der Hilfe eines Algorithmus die besten Jobbewerbungen herausfiltern. Dies ging schief: Die Software hat Frauen grundsätzlich schlechter bewertet als Männer.

Warum eine Computerentscheidung diskriminiert oder nicht, ist gerade beim Einsatz von selbstlernenden Algorithmen nicht immer leicht herauszufinden: «Algorithmen stellen zwar selbst Regeln auf, aber sie kommunizieren diese nicht gegen aussen», sagt Julian Schmidli von SRF Data, «meistens weiss man gar nicht so genau, welche Regeln sie eigentlich aufgestellt haben. Sie sind eine Art Blackbox.»

Expertinnen sind sich einig: Auf automatisierte Verfahren müssen wir in Zukunft nicht verzichten — jedoch brauchenAlgorithmen ethische Richtlinien. «Es ist meistens nicht die Technologie, die böse oder schlecht ist», sagt Mascha Kurpicz-Briki, Professorin für Data Engineering der Berner Fachhochschule, «es ist sehr viel mehr die Anwendung oder der Umgang damit».

Wir bei SRF Forward fragen uns: Wie kommt es dazu, dass Algorithmen diskriminierend sein können und was hat das für Folgen für jeden und jede Einzelne von uns? Die Antworten darauf und Lösungen zum Problem erhältst du im Video.

Dieser Beitrag erschien auf srf.ch