Kostenlose Beratung 030 69206347

Algorithmen: Was sie können und wofür sie verantwortlich sind

Für das Suchmaschinen-Ranking und für die Suchmaschinen-Optimierung sind sie unverzichtbar: Algorithmen berechnen die Rangposition passend zu den Sucheingaben der Nutzer, SEOs wissen um die Vorgehensweisen und versuchen für Ihre Kunden das Beste daraus abzuleiten. Schon länger gibt es die Diskussion darüber, ob Algorithmen nicht besser kontrolliert werden sollten, damit sie nicht diskriminierend wirken. Doch liegt das Problem wirklich bei den Algorithmen?

Justizminister Maas hat auf der Konferenz Digitales Leben – Vernetzt. Vermessen. Verkauft die fehlende Kontrolle der Algorithmen kritisiert und von der nächsten Bundesregierung gefordert, dass sie mittels wissenschaftlich fundierter Kontrolle dafür sorgt, dass Algorithmen nicht diskriminieren. Die gesetzliche Grundlage dafür soll ein digitales Antidiskriminierungsgesetz sein, dass vorurteilsfreies Programmieren von den verantwortlichen Unternehmen einfordert.

Die Reaktion auf den Vorschlag zur Transparenz und Kontrolle von Algorithmen war oft zurückhaltend bis ablehnend. Das könnte damit zusammenhängen, dass Maas gerade mit dem Netzwerkdurchsetzungsgesetz sich unbeliebt bei Netzwerkbetreibern und Internet-Kritikern gemacht hatte. Der Vorschlag wurde teilweise als staatliche Kontrolle der öffentlichen Diskussion und auch als gefährlich für die Meinungsfreiheit im Netz eingestuft, obwohl der Vorschlag eigentlich das Ziel hatte, Hass- und Fake-Kommentare in sozialen Netzwerken einzudämmen.

Auch bei dieser Problemlage spielen Algorithmen eine wichtige Rolle. Gemeinhin wird davon ausgegangen, dass die Algorithmen in sozialen Netzwerken Filter-Blasen fördern und Diskussionen aufheizen. Auch das ist nicht von den Netzwerkbetreibern gewollt, aber das Ergebnis wird von ihnen auch nicht angemessen reflektiert, so dass ein Gesetz nötig sei, um hier wieder eine Friedenswirkung zu erreichen.

Beim allgemeinen Algorithmen-Problem geht es auch um ungewollte Diskriminierung. Wer in einer Gegend wohnt, wo viele Autokredite nicht oder nur verspätet zurückgezahlt werden, der muss damit rechnen, dass auch er schwieriger an einen Kredit kommt oder deutlich mehr bezahlen muss. Doch wenn man genau hinschaut, ist das kein Problem der Algorithmen. Hier hat der Auftraggeber festgelegt, dass das Risiko eines Kreditausfalls auch über die Berücksichtigung der Wohngegend bestimmt werden soll. Eine möglicherweise rationale Vorgehensweise, wenn man weniger Kreditausfälle haben möchte, faktisch aber eine Diskriminierung von Bewohnern bestimmter Gegenden. Doch nicht die Algorithmen sind für diese Benachteiligung verantwortlich, sondern die Aufgabenbeschreibung (Spezifikation), die der Auftraggeber festgelegt hat.

Denkbar ist natürlich auch, dass solche Benachteiligungen unbeabsichtigt erfolgen. Möglicherweise weil die Daten, die für einen maschinellen Lernprozess ausgewählt wurden, bereits implizit Vorurteile über Personen enthalten. Maas fordert nun Transparenz oder Kontrolle in diesem Prozess. Von einigen Kritikern ist eingewandt worden, dass Suchmaschinen wie Google sich bisher sehr erfolgreich gegen das Offenlegen ihrer Algorithmen gewehrt haben. Hierbei wird aber übersehen, dass man für die Kontrolle von Algorithmen auf Vorurteilsfreiheit keine umfassende Offenlegung braucht. Es genügt, wenn man die Effekte der Algorithmen bestimmen kann. Das ist dann wie bei der Suchmaschinen-Optimierung, wo man ein besseres Ranking für seine Auftraggeber erreichen kann, ohne im Detail die Algorithmen durchleuchtet zu haben.

Schreibe einen Kommentar