Die zunehmende Digitalisierung der Gesellschaft führt dazu, dass immer
mehr, immer voraussetzungsreichere und zunehmend komplexere
Entscheidungsprozesse an Computerprogramme delegiert werden.
Computerprogramme bestehen aus Algorithmen, also aus
Verfahrensvorschriften, die dem Computer sein Verhalten vorgeben. Diese
Algorithmen werden von Menschen programmiert. Man könnte deshalb
argumentieren, dass die Delegation von Entscheidungsprozessen an
Computerprogramme kein grundsätzliches Problem darstellt, weil Computer
letztlich nur Befehle ausführen, die Menschjen ihnen einprogrammiert
haben. So einfach ist es jedoch nicht. Zum einen sind viele der
Softwareprogramme, auf deren Entscheidungen wir uns im täglichen Leben
verlassen, kommerzielle Produkte, und ihre Hersteller behandeln die in
ihnen implementierten Entscheidungslogiken als Betriebsgeheimnisse. Zum
anderen werden die Softwareprogramme zunehmend lernfähig. Das gilt
insbesondere für die so genannten prädiktiven Systeme, die aus einem
beobachteten Verhalten Muster ableiten, die dann verwendet werden, um
Voraussagen über wahrscheinliches zukünftiges Verhalten zu treffen.
Solche Algorithmen werden zunehmend in Bereichen eingesetzt, in denen
Daten über das Verhalten menschlicher Akteure die Grundlage der
Vorhersagen bilden. Im Alltag bereits weit verbreitet sind prädiktive
Systeme, die aus den Daten von Kunden Vorhersagen über deren
Konsumverhalten und künftige Vorlieben ableiten und dieses prädiktive
Wissen beispielsweise für personalisierte Werbung einsetzen. In den USA
nutzen Richter und Bewährungshelfer prädiktive Systeme, um die
Rückfallwahrscheinlichkeit von Straftätern abzuschätzen. Auch bei der
Personalauswahl in Einstellungsverfahren kommen solche Systeme bereits
breit zum Einsatz. Der zunehmende Einfluss algorithmischer
Entscheidungsprozesse in allen Sphären des gesellschaftlichen Lebens
wirft eine Vielzahl soziologischer Fragen auf: Wie verändert sich das
Verhältnis von Privatheit und Öffentlichkeit, wenn sich aus den
Datenspuren, die Akteure in ihrem alltäglichen Leben hinterlassen,
personenbezogenes Wissen über Verhaltensdispositionen verschiedenster
Art ableiten lassen? Welche Gefahren der Manipulierbarkeit ergeben sich
aus diesem prädiktiven Wissen? In welchem Umfang wirken prädiktive
Systeme diskriminierend, etwa wenn vorurteilsbehaftete
Verhaltenseinschätzungen in die automatisierte Musterbildung einfließen
oder bei der Musterbildung Verhaltenseigenschaften mit gruppenbezogenen
Personenmerkmalen verknüpft werden, um so personengruppenspezifische
Vorhersagen treffen zu können? Gegenstand des Seminars ist es, diese und
andere Fragen anhand aktueller Forschungsliteratur zu diskutieren.
- Trainer/in: Ingo Schulz-Schaeffer
- Trainer/in: Camillo David Westerhoff