20.03.2017 | 8:56 AM | Kategorie:
0

„Algorithmen sind nicht wertefrei“

Julia Neidhardt am Podium bei otsconnect

Jeden Tag sind wir mit unzähligen Informationen konfrontiert. Was dabei für uns relevant ist und was nicht, entscheidet unser persönlicher Filter. In den sozialen Netzwerken übernehmen Algorithmen diese Funktion und sortieren für uns vermeintlich uninteressante Inhalte aus. Wie dabei eine sogenannte Filterblase entsteht und wie diese technisch überwunden werden könnte, haben wir Datenanalystin Julia Neidhardt von der TU Wien gefragt.

Wie würden Sie kurz Ihren Arbeitsalltag bzw. Ihre Position auf der TU Wien beschreiben?

Einerseits unterrichte ich die mathematischen und statistischen Methoden, die man für die Analyse großer Datenmengen bzw. deren Vernetzung untereinander braucht. Andererseits entwickle ich diese Methoden in der Forschung anhand konkreter Fragestellungen weiter. Ich beschäftige mich etwa damit, wie sich Diskussionen in Social-Media-Kanälen entwickeln, also wie sich die User gegenseitig hinsichtlich der Themen und Stimmungen beeinflussen und ob sich dabei konkrete Muster erkennen lassen. Im Zusammenhang mit Hasspostings lautet eine Frage: Sind die Leute von vornherein aggressiv und beleidigend oder wird dieses Verhalten durch bestimmte Dynamiken gefördert? Um das zu untersuchen, arbeite ich mit einer österreichischen Tageszeitung zusammen. Wir analysieren, wie die User im Online-Forum miteinander diskutieren und wie sie sich dabei gegenseitig aufschaukeln. In einem anderen Projekt untersuche ich, wie Persönlichkeitsmerkmale und Reisevorlieben zusammenhängen, um herauszufinden, für welche User welche Reisetipps passend sind.

Was ist eine Filterblase und wie entsteht sie aus technischer Sicht?

Online-Unternehmen gehen verstärkt in die Richtung, die Inhalte für User zu personalisieren. Dabei spielen etwa Suchmaschinen oder Recommender-Systeme eine große Rolle. Recommender-Systeme haben zum Ziel, Produkte oder Information auf Webseiten personalisiert zu empfehlen. Amazon oder Netflix greifen beispielsweise darauf zurück. Dadurch kann eine Filterblase entstehen. Personalisierung heißt nämlich, dass die Informationen, die dem Benutzer oder der Benutzerin auf einer Website gezeigt werden, den jeweiligen Vorlieben entsprechen. Dinge, die nicht so relevant erscheinen, werden herausgefiltert oder weiter unten gelistet. Die Einschätzung, ob etwas relevant ist, kann auf unterschiedlichen Wegen erfolgen. Oft werden dafür frühere Suchbegriffe als Referenz verwendet oder das, was der User in der Vergangenheit angeklickt oder gekauft hat. Online-Plattformen merken sich diese Aktionen und lernen so, was die einzelnen Benutzerinnen und Benutzer interessiert. Das kann aber auch dazu führen, dass die Auswahl verzerrt ist. Wenn ich regelmäßig Artikel über Ausländerkriminalität lese, bekomme ich neue, ähnliche Beiträge vorgeschlagen. Schaue ich mir dann wieder einen Artikel darüber an, fühlt sich das System bestätigt und wird mir in Zukunft noch mehr Artikel dazu präsentieren, während andere Themen eher ausgeklammert und dadurch unsichtbar werden. So entsteht dann die Filterblase, also eine eingeschränkte Sicht auf die Welt.

Inwiefern beschäftigt sich die TU Wien mit der Thematik rund um die Filterbubble?

Die TU Wien hat den Anspruch, kritisches Denken zu vermitteln. Wir thematisieren die Auswirkungen unserer Forschung und die Rolle der Informatik in der heutigen Gesellschaft. Das Beispiel der Filterblase zeigt, dass diese Rolle durchaus zwiespältig ist: Einerseits würde es ohne die Informatik das Web gar nicht geben, also eine Quelle an Informationen, die in ihrer Größe und Vielfältigkeit mit nichts zu vergleichen ist. Andererseits bringt die Informatik die Algorithmen hervor, die es braucht, um angesichts der Menge an Informationen eine Auswahl zu treffen – mit allen damit verbundenen Vor- und Nachteilen. Die Fakultät für Informatik hat letztes Jahr ein Zentrum für Informatik und Gesellschaft eingerichtet, das sich mit der Janusköpfigkeit der Disziplin auseinandersetzt. Im Sommersemester wird auch zum zweiten Mal die Lehrveranstaltung „Critical Algorithm Studies“ angeboten. Diese wurde von Studierenden der Informatik initiiert und beschäftigt sich damit, dass Algorithmen nicht wertfrei sind, sondern auch Vorurteile reproduzieren können. Eine Studie der Carnegie Mellon Universität belegt etwa, dass Männern bei Google öfters angesehene, gut bezahlte Jobs angezeigt werden als Frauen.

Kann man Algorithmen überwinden? Bzw. braucht es mehr Kreativität in der Programmierung?

Ein Algorithmus ist ein Regelwerk, eine Schritt-für-Schritt Anleitung zur Lösung eines Problems. Daher kann er auch überwunden werden, man muss einfach die Regeln ändern. Mehr Kreativität in der Programmierung ist auf jeden Fall ein guter Ansatz. Auch sollte man sich bei der Entwicklung eines Algorithmus überlegen, welche Auswirkungen er auf die Gesellschaft haben könnte. Außerdem ist es wichtig, mehr Transparenz von Online-Plattformen zu fordern: Die User haben ein Recht darauf zu wissen, warum sie bestimmte Inhalte zu sehen bekommen, also welche Daten von ihnen verwendet und wie diese gewichtet werden.

Wo sehen Sie den Ausweg aus der Filterblase? Ist der technisch geprägt oder liegt es an den Usern?

Beides. In der wissenschaftlichen Community wird die Diskussion, was einen guten Algorithmus ausmacht, immer breiter geführt. Es geht nicht mehr nur darum, möglichst effiziente Algorithmen zu entwickeln, sondern es sollen auch die Userbedürfnisse besser berücksichtigt werden. Eine Möglichkeit, um der Filterblase im Rahmen von Recommender-Systemen entgegenzuwirken, sind Algorithmen, die Empfehlungen breiter streuen und das Serendipity-Prinzip anwenden: Demnach sollen die Empfehlungen für die Benutzerinnen und Benutzer sowohl relevant als auch überraschend sein. Das ändert das Verhalten der User, die Informationen, die konsumiert werden, werden vielfältiger. Diese Verhaltensänderung beeinflusst wiederum den Algorithmus, der ja aus dem Verhalten der User lernt.

Welche Empfehlung können Sie Kommunikatoren und Organisationen im Umgang mit der Filterblase geben?

Wichtig ist, sich bewusst zu sein, dass die Information, die uns präsentiert wird, gefiltert und damit nicht immer ausgewogen ist. Wie so oft sind Zweifel und kritisches Denken das Um und Auf. Falls der Bedarf besteht, mehr Details über die zugrundeliegenden Mechanismen zu erfahren, sollte das Gespräch mit Expertinnen und Experten gesucht werden. Die TU Wien steht hier gerne zur Verfügung ;).

 

Mehr zum Thema

 

 

Kommentieren

Ihre Daten werden im Rahmen der Kommentarfunktion gespeichert, darüberhinaus aber für keine weiteren Zwecke verwendet. Weitere Informationen finden Sie in unserer Datenschutzerklärung.

Kommentar zurücksetzen