Wie leben Menschen und Maschinen zusammen?

Eine Grafik veranschaulicht die Ähnlichkeiten von Gehirnfunktionen und Künstlicher Intelligenz. Die elektronischen Schaltungen ähneln der tatsächlichen Gehirnstruktur. Foto: Dong Wenjie/Moment/Getty Images

„Das Thema ‚Künstliche Intelligenz, Digitalisierung und Algorithmus‘ ist in aller Munde. In unserer neuen Forschungsgruppe arbeiten Wissenschaftlerinnen und Wissenschaftler aus Soziologie, Wirtschaftswissenschaft und Informatik zusammen – das ist für mich sehr spannend.“ Der Soziologe Prof. Dr. Uwe Vormbusch von der FernUniversität in Hagen koordiniert das interdisziplinäre Projekt „Artificial Intelligence as ‚virtual citizens‘ in a plural and dynamic society”, das von der VolkswagenStiftung gefördert wird. „Daran, dass sich selbstlernende Maschinen in der Gesellschaft verbreiten werden, scheint es wenig Zweifel zu geben, die technische Entwicklung schreitet wahnsinnig schnell voran“, erläutert der Leiter des Lehrgebiets Soziologie II, Soziologische Gegenwartsdiagnosen. „Wir wollen die gesellschaftliche Dimension von Maschinenlernen und Algorithmen untersuchen, deshalb liegt die Projektführung in Hagen. Außerdem haben wir den Antrag federführend gestaltet, mit dem wir uns gegen ziemlich harte Konkurrenz durchgesetzt haben.“

Künstliche Intelligenz und Maschinenlernen

Etablierte Forschungsgruppen können sich bei der VolkswagenStiftung um bis zu 1,5 Millionen Euro Förderung bewerben, um sich vier Jahre lang aus sozial- und gesellschaftswissenschaftlicher Perspektive mit Künstlicher Intelligenz (KI) und Maschinenlernen zu beschäftigen. So weit ist das Projekt „Artificial Intelligence as ‚virtual citizens‘ in a plural and dynamic society“ noch nicht. Die Forschungsgruppe erhält aber Zuschüsse, um einen „großen“ Antrag vorzubereiten; zum Jahreswechsel 2019/2020 soll dieser dann eingereicht werden.

Ein Mann blickt in Richtung Kamera Foto: FernUniversität
Prof. Uwe Vormbusch

Interdisziplinär und international

„Bei unserem Projekt geht es um Fairness, Vertrauen, Moral und partizipative Technikentwicklung“, erläutert Prof. Uwe Vormbusch. Über diese Schlüsselkonzepte werde in den Sozialwissenschaften schon lange diskutiert, in der Informatik noch nicht so. Beide Fachrichtungen zusammenzubringen sei grundlegend für das Projekt. Dafür soll der theoretische Ansatz der „Soziologie der Konventionen“ mit Künstlicher Intelligenz und Maschinenlernen verbunden werden. Den Antrag hat Vormbusch gemeinsam mit seiner damaligen Wissenschaftlichen Mitarbeiterin Dr. Karolin Kappler entwickelt, die mittlerweile am Wirtschaftsinformatik-Lehrstuhl des Projektpartners Prof. Dr. Stefan Smolnik tätig ist.

„Wir werden vielleicht keine Maschinen bekommen, die moralisch kompetenter sind als Menschen. Aber wir werden selbstlernende Maschinen haben, deren Entscheidungen zum einen nicht transparent sind, zum anderen ethische und moralische Konsequenzen haben“, so Vormbusch. Neben ihm befassen sich drei weitere Kollegen unterschiedlicher Fachrichtungen mit diesen Fragestellungen. Experte für Social Computing ist Prof. Dr. Carlos Castillo von der Universität Pompeu Fabra in Barcelona, Fachmann für Maschinelles Lernen und Künstliche Intelligenz Prof. Dr. Kristian Kersting von der TU Darmstadt.

Ein Mann blickt in Richtung Kamera Foto: Hardy Welsch
Prof. Stefan Smolnik

Prof. Smolnik, Spezialist für Betriebliche Anwendungssysteme, forscht mit seinem Team an der FernUniversität. Im Rahmen des KI-Projekts zu Gamification und Technologieakzeptanz vor allem im Bereich von Smart Mobility. Wie werden Pendler beispielsweise dazu gebracht, Smart-Mobility-Apps (auch langfristig) zu benutzen? Was braucht es, damit Pendlerinnen und Pendler ihre Fahrgewohnheiten ändern und unter Umständen auch einmal das Transportmittel wechseln oder eine für sie ungünstigere Strecke fahren, um damit das Stauaufkommen für alle auf der Straße zu reduzieren? Ihre moralischen Beweggründe und Motivation spielen hierbei eine wichtige Rolle, die mit Hilfe der „Soziologie der Konventionen“ verstanden werden sollen. Ein verbessertes Zusammenwirken zwischen Menschen und Technologie – gerade auch in Hinblick auf Fairness und Transparenz von KI-gestützten Entscheidungen – ist dabei das Ziel.

„Virtuelle Bürgerinnen und Bürger“

Die Hagener Soziologinnen und Soziologen begreifen Künstliche Intelligenz als „Virtual Citizens“, als „Virtuelle Bürgerinnen und Bürger“. Damit ist die Gesellschaft eigentlich schon keine (rein) menschliche mehr. Die technischen Apparaturen werden zunehmend selbst tätig und lernen selbstständig. Vollständig verstehen könne man sie in immer mehr Anwendungsfällen nicht mehr. Ausgangspunkt der Projektarbeit ist laut Vormbusch daher die Untersuchung, wie das, was Menschen wichtig ist, in maschinellem Lernen abgebildet werden kann, also das, „was uns wichtig ist, was unser Leben und unser Verhalten beeinflusst, und bestimmte moralische Vorstellungen“.

Geht es also darum, den Maschinen klar zu machen, wie sie sich in die menschliche Gesellschaft einzufügen haben? Vormbusch: „Ich glaube, man muss davon ausgehen, dass die moralische Ordnung, die wir aufgestellt haben, Brüche hat.“ Denn es gebe Unterschiede: Jede Gesellschaft, jede Hochschule, jeder Mikrokosmos sei ein bisschen verschieden. „Wenn wir nicht mehr selbst festlegen können, was ‚intelligente‘ Maschinen lernen – und an diesem Punkt sind wir –, können wir auch nicht mehr festlegen, was sie lernen sollen. Vielmehr werden die Maschinen aus Gelerntem eigene Schlüsse ziehen.“ Das sei bereits Realität, z.B. beim autonomen Fahren oder bei diagnostischen Entscheidungen in der Medizin auf der Grundlage von Maschinenwissen: „Kognitives Wissen und moralische Entscheidungen können bei Maschinen nicht mehr außen vor gelassen werden. Sie müssen zusammen betrachtet werden.“

Maschinen bringen sich in Gesellschaft ein

Ist eine Maschine also kein reiner Rechner mehr? „Doch, aber wir wissen nicht, wie sie rechnet und wie sie zu ihren Entscheidungen kommt“, betont Vormbusch. „Selbst Fachleute können nicht mehr reproduzieren, wie ‚intelligente‘ Maschinen zu Ergebnissen kommen, die wir nicht vorhersagen können.“ Diese können gravierende Konsequenzen haben, von Empfehlungen in der Welt des Konsums – Welchen Urlaub buche ich? – bis hin zu datenbasierten Rahmungen von Expertenentscheidungen im Feld von Leben und Sterben: Welche Therapie für welchen Patienten? „Deswegen ist die Annahme ‚Wir müssen den Maschinen zeigen, wie Gesellschaft geht‘, schon brüchig geworden, weil Maschinen bereits mithandeln und sich in die Gesellschaft einbringen, erläutert Vormbusch. Die „Soziologie der Konventionen“ geht davon aus, dass in der Gesellschaft verschiedene widerstreitende moralische Ordnungen existieren. Menschen sind, so der Forscher, fähig und gezwungen, in konkreten Situationen moralische Konflikte unter Rückgriff auf eine begrenzte Anzahl von moralischen Ordnungen ganz praktisch zu entscheiden.

„Wir wollen jetzt zusammen mit den Wirtschaftswissenschaftlerinnen und Wirtschaftswissenschaftlern, den Informatikerinnen und Informatikern etwas machen, was wir ‚Spaces of Negotiation‘ genannt haben, ‚Aushandlungsräume‘“, so Vormbusch. In ihnen sollen sich Menschen und selbstlernende Maschinen darüber auseinandersetzen, wie man alltägliche Fragen basierend auf moralischen Ordnungen entscheiden kann: Wie man am besten von A nach B kommt. Wie man mit Krankheitsdiagnosen umgeht. Wie man Bildungszertifikate beurteilt. Die Forschungsgruppe will Felder herausarbeiten, auf denen sich moralische Fragen stellen. „Und dann wollen wir untersuchen, wie wir Menschen mit Maschinen zusammen lernen lassen können.“

„Künstliche Intelligenz betrifft alle gesellschaftlichen Lebensbereiche, überall werden Aussagen mit ihr hergestellt.“

Prof. Uwe Vormbusch

KI durchdringt das alltägliche Leben

Vormbusch: „Künstliche Intelligenz betrifft alle gesellschaftlichen Lebensbereiche, überall werden Aussagen mit ihr hergestellt.“ Bei Bonitätsprüfungen im Bankenbereich oder Bewerbungsverfahren zum Beispiel: „Es besteht schon die Sorge, dass Maschinen Daten aus verschiedenen Quellen, auch aus Datenbanken, zusammensuchen, in ein Profil umsetzen und dieses mit dem Durchschnitt vergleichen.“ Damit sind sie an Entscheidungen beteiligt, die oft schwerwiegende Folgen haben: „Es ist immer problematisch, wenn man Algorithmen und Entscheidungssysteme, die für einen bestimmten Kontext gedacht waren, in einem anderen anwendet.“

Ein weiteres Problem könnte sein, dass Maschinen unreflektiert „Bias“, d.h. Verzerrungen, aufnehmen und weiterverarbeiten. Dies sind soziale Vorannahmen, Diskriminierungen und Stereotype, die in Gesellschaften existieren. Daraus, dass bei Universitätsprofessorinnen und Universitätsprofessoren unterdurchschnittlich viele Menschen mit schwarzer Hautfarbe vertreten sind, könnte der Algorithmus lernen, dass Schwarze keine guten Mitarbeitenden sind und sie bei Bewerbungsverfahren diskriminieren. Vormbusch: „So können gesellschaftliche Vorurteile verstärkt und verstetigt werden. Die Maschine nimmt sie auf und reproduziert sie in einer Art und Weise, die wir noch gar nicht richtig verstehen.“

Gerd Dapprich | 21.05.2019