Eine Frage des Vertrauens
Neue Technologien verändern unsere Gesellschaft. Die Forschung der künstlichen Intelligenz zeigt, dass nicht nur technische Fragestellungen beantwortet werden müssen. Akzeptanz und das Zusammenspiel mit dem Menschen sind wesentliche Faktoren, die mitbestimmen, ob sich ein Businessmodell ableiten lässt.
Beitrag aus dem Jahresmagazin View
«Hmm – Ähm», als Google am 18. Mai 2018 seine Sprachsoftware Duplex vorstellte, überzeugte sie, weil sie eigenständig einen Termin beim Coiffeur vereinbaren oder eine Tischreservation im Chinarestaurant aufgeben konnte. Vor allem aber verblüffte sie, weil die Worte mit Zögern und Stocken vermenschlicht wurden.
«Spracherkennung ist heute ein typisches Anwendungsgebiet von künstlicher Intelligenz», sagt Theresa Schachner, Researcher am Department of Management, Technology, and Economics (MTEC) der ETH Zürich. Solange diese Systeme nur einzelne Fähigkeiten des Menschen abbilden müssen, gibt es bereits sehr gute Anwendungen, wie etwa auch in der Bilderkennung. Nicht der Mensch als Ganzes, sondern einzelne Fähigkeiten werden abgebildet. «Es ist eine Art Siloblick. Wir konzentrieren uns auf gewisse kognitive Fähigkeiten. Diese werden automatisiert und digitalisiert», sagt Schachner. Aus diesen lassen sich Businessmodelle ableiten, auch für Versicherer.
Die heutige Forschung unterscheidet zwei verschiedene Bereiche. Auf der einen Seite werden konkrete Anwendungen erforscht und programmiert. Auf der anderen Seite werden die Auswirkungen auf Management, Strategien und Organisationen untersucht. Theresa Schachner forscht im zweiten Gebiet. «Es ist spannend, die Relevanz für die Wirtschaft zu untersuchen. Aus Forschungsperspektive interessieren mich neben den Vorteilen auch die Hindernisse, die Stolpersteine.» Grundsätzlich erkennt sie drei Gründe, die der Verbreitung von künstlicher Intelligenz-Anwendungen im Wege stehen.
- Blackbox: Es ist nicht für jede Branche gleich einfach, künstliche Intelligenz einzusetzen. Ein Algorithmus der künstlichen Intelligenz ist zu einem gewissen Grad undurchsichtig. Einzelne Verarbeitungsschritte führt die künstliche Intelligenz «selbstständig» aus. Wenn die Frage der Haftung zentral wird, kann dieses «Blackbox»-Element den Einsatz eines solchen Algorithmus verhindern, weil dessen Entscheid nicht gänzlich nachvollziehbar gemacht werden kann.
- Fehlendes Vertrauen: Auch wenn ein Algorithmus zu 99 Prozent richtige Entscheide fällt, heisst das auch, dass er falsche fällt. Dass uns ein solcher Algorithmus eine falsche Serienempfehlung am Fernsehen gibt, mag akzeptiert werden. Bei einer Krankheitserkennung wird es schwieriger, das Vertrauen zu erhalten.
- Befangenheit: Oberflächlich könnte man meinen, dass ein Algorithmus gerecht und fair ist. Doch dies blendet aus, dass die Funktionsweise davon abhängt, mit welchen Daten der Algorithmus trainiert wird.
Dennoch sieht Theresa Schachner für die Industrie und insbesondere die Versicherer Potenzial: «Für die Versicherer spannend ist sicher das Underwriting. Und vor allem beim Schadenmanagement ist die Datenlage schon sehr gut.» So sieht sie einzelne Produkte, die mit künstlicher Intelligenz praktisch automatisiert möglich sind. Beispielsweise eine Flugversicherung könnte bis zur Auszahlung im Schadenfall von einem Algorithmus gesteuert werden. Allerdings gibt Schachner zu bedenken, dass dies nur bei einfachen standardisierten Produkten funktioniert. Bei komplexen wie einer Krankenversicherung dauere dies noch. Und selbst bei den standardisierten Produkten ist noch immer irgendwo der Mensch involviert.
Was in den Unternehmen passiert, wenn diese Algorithmen zum Einsatz kommen, ist noch wenig erforscht. «Wir wissen noch nicht was passiert, wenn etwa alle Analysen durch künstliche Intelligenz durchgeführt werden», so Schachner. Es gibt einen Fall eines Unternehmens, das ein Vorstandsmitglied durch einen Algorithmus ersetzte. Dabei zeigte sich, dass der Algorithmus in seinen Entscheiden Unternehmen bevorzugt, die ebenfalls Algorithmen einsetzen. «Was allerdings der Grund für diese Verhalten ist, ist grossteils unbekannt», so Schachner. Aber offensichtlich ist, dass diese Fragen weiter gehen als lediglich nach Effizienzsteigerungen oder Kostensenkungen zu suchen. Es sind Fragen auf der interpersonellen Ebene. Wie verändert sich die Organisationsstruktur? Wie verändern die Mitarbeitenden ihr Verhalten, ihre Entscheide? Theresa Schachner: «Wir wissen nicht, was passiert, wenn wir Schritt für Schritt unsere Entscheide einem Algorithmus abtreten. Der Effekt kann über das hinausgehen, was angedacht war. Aber wir haben im Moment noch die Chance, dies zu steuern.»
Wer oder was ist künstliche Intelligenz
Der britische Mathematiker Alan Turing entwickelte 1950 einen Test für künstliche Intelligenz. Seine These: Wenn ein Mensch bei einem Frage-Antwort-Spiel nicht mehr unterscheiden kann, ob ein Mensch oder eine Maschine antwortet, dann sei künstliche Intelligenz erreicht. Fragen und Antworten erfolgten dabei schriftlich. Was Turing anstrebte, wird heute als schwache künstliche Intelligenz bezeichnet: die Nachbildung einer einzelnen abgegrenzten kognitiven Fähigkeit. Starke künstliche Intelligenz meint dagegen die vollumfängliche Spiegelung der menschlichen Fähigkeiten. Es dürfte noch einige Jahre dauern, bis ein Mensch Eins zu Eins durch eine Maschine ersetzt werden kann. Ob es zur starken künstlichen Intelligenz noch eines völlig neuen Ansatzes bedarf oder ob es sich um eine Weiterentwicklung der schwachen künstlichen Intelligenz handelt, ist in der Forschung umstritten.
Schwache künstliche Intelligenz ist ein Oberbegriff für eine Klasse von Software-Algorithmen. Ihnen ist eigen, dass die Verarbeitung der Informationen nicht nach dem klaren «wenn–dann»-Prinzip erfolgt. Vielmehr gewichtet der Algorithmus Informationen auf verschiedenen Ebenen des Verarbeitungsprozesses. Durch die Verarbeitung grosser Mengen an Daten «lernt» der Algorithmus eigenständig, die Gewichtungen anzupassen.