Handschlag zwischen Mensch und digitalem Arm mit 'AI'.

«KI verändert die Risikoprüfung, die Verantwortung bleibt beim Menschen»

Interview
15. April 2026

Künstliche Intelligenz soll das Underwriting schneller und präziser machen. Doch je mehr Entscheidungen, Datenflüsse und Prozesse automatisiert werden, desto drängender werden die Fragen nach Verantwortung, Transparenz und neuen Risiken, die erst durch KI entstehen. 

Im Interview spricht Christoph E. Nabholz, Gründer von Risk Insight Consulting und langjähriger Risikoexperte (u. a. bei Swiss Re), über die zentralen Befunde aus dem Kapitel «Der digitale Underwriter: Wie KI die Risikodeckung neugestaltet». Dieses hat er im Sammelband «Künstliche Intelligenz in der Versicherungsbranche: Insider-Perspektiven zu Chancen, Risiken und Praxisanwendungen» mitverfasst.

Herr Nabholz, Sie zeigen in Ihrem Beitrag grosses Potenzial für KI in der Risikoprüfung auf. Wo schafft KI heute bereits den grössten konkreten Nutzen im Underwriting?

Christoph E. Nabholz: Vor allem bei der Effizienzsteigerung und der Datenverarbeitung. Der traditionelle Underwriting-Job umfasst heute immer noch das Zusammenfassen und Beurteilen von Dokumenten, das Treffen von Entscheidungen und die Festlegung von Risikoprämien. Dokumente können heute automatisiert zusammengefasst werden. Man kann auch bessere Risiko-Scoring-Methodologien erarbeiten und findet beispielsweise Anhaltspunkte für Betrugsfälle: Wurde eine Information in einem Antrag verschwiegen, kann die KI das besser erkennen, sodass noch einmal nachgehakt werden kann.

Person in blauem Anzug lächelt und lehnt sich auf weisse Barriere.
Gerade in den USA, dem weltweit grössten Versicherungsmarkt, ist noch vieles ungeklärt: Wer haftet wofür? Der Chatbot? Das Unternehmen? Der Anbieter des Foundation Models?

Wie verändert sich dadurch die Rolle des Underwriters? 

Christoph E. Nabholz: Bei der Festlegung von Prämien braucht es nach wie vor den Menschen. Was man automatisieren kann, sind einfache Fälle, die mit Standardprämien abgedeckt sind, zum Beispiel ein Auto. Prämien werden altersklassifiziert – hatte man für die letzten fünf Jahre keinen Schaden, kann die Prämie automatisiert festgesetzt werden. Dadurch kann sich der Underwriter auf komplexere Fälle konzentrieren, bei denen grosse Schadensummen, strategische Entscheidungen, Produktentwicklung oder Innovation im Vordergrund stehen. Er wird damit mehr und mehr zum Kontrolleur und Lenker des Underwritings.

 

Sie kommen zugleich zum Schluss, dass der Wandel eher schrittweise als disruptiv verlaufen dürfte. Warum ist das so? 

Christoph E. Nabholz: Zum einen bewegen wir uns in der Versicherungsbranche in einem sehr konservativen Umfeld. Viele Praktiken haben sich über lange Zeit hinweg entwickelt. Gerade beim Pricing und bei der Modellierung möchte man sicher sein, dass die eingesetzten Modelle verlässlich und nachvollziehbar sind. Andererseits stehen Menschen hinter diesen Entscheidungen, die Modelle nicht einfach akzeptieren, sondern kritisch hinterfragen. Das gilt besonders bei solchen Blackbox-Modellen wie generativer KI, bei denen oft unklar bleibt, wie eine Entscheidung zustande gekommen ist. Wer am Ende die Verantwortung trägt, will die Kontrolle nicht leichtfertig an ein Tool abgeben.

Hinzu kommt die Datenqualität. Viele Versicherer arbeiten noch mit veralteten, fragmentierten Systemen, die nicht miteinander verknüpft sind. Aus einer solchen Datengrundlage lässt sich nur begrenzter Nutzen ziehen. Die Daten so umzustrukturieren, dass man ihnen vertrauen und sie besser auswerten kann, verursacht erhebliche Implementierungskosten. Schliesslich besteht auch die Unsicherheit des wirtschaftlichen Nutzens. KI sollte dort implementiert werden, wo der Nutzen hoch ist. In der Risikobeurteilung ist dieser bislang vielerorts kleiner, als man zunächst erwartet. Das kann sich jedoch ändern. Gerade die Preisgestaltung ist die Kernkompetenz des Underwriters – und die gibt er nicht gern aus der Hand. 

Wer am Ende die Verantwortung trägt, will die Kontrolle nicht leichtfertig an ein Tool abgeben.

Christoph E. Nabholz

Sie haben die ökonomische Perspektive geschildert. Wie sieht es mit dem kulturellen Widerstand aus? 

Christoph E. Nabholz: KI bringt nicht nur Chancen, sondern auch neue Risiken mit sich. Man muss sich dessen bewusst sein, wie schnell KI in Unternehmen entlang der gesamten Wertschöpfungskette Einzug hält – von der Kundenbeziehung bis zum Claims-Prozess. Wenn alles automatisiert und miteinander verknüpft ist und Systeme oder Agenten miteinander interagieren, können Kaskadeneffekte entstehen, die heute noch gar nicht absehbar sind. Genau deshalb ist die Nachvollziehbarkeit von Entscheidungsprozessen so wichtig. 

Hinzu kommt, dass der Beruf des Underwriters stark durch Erfahrung geprägt ist. Lange Zeit galt: Je mehr Erfahrung und Wissen jemand mitbringt, desto wertvoller ist er in seiner Funktion. In diesem Zusammenhang stellt sich auch die Frage nach der Arbeitsplatzsicherheit. Verlieren wir künftig Jobs? Das hätte nicht nur betriebliche, sondern auch gesellschaftliche und politische Auswirkungen. 

 

Datenqualität, Infrastruktur, Fachwissen und Change Management werden in Ihrem Buch als zentrale Voraussetzungen genannt. Was wird bei der Einführung von KI in der Praxis am häufigsten unterschätzt?

Christoph E. Nabholz: Datenqualität ist ganz vorne mit dabei. Viele Unternehmen arbeiten noch mit komplexen IT- Infrastrukturen, die teilweise noch aus den 1990er Jahren stammen und inzwischen Lifecycle-Probleme aufweisen. Besonders bei Merger und Acquisitions müssen unterschiedliche Systeme zusammengeführt werden – darunter leidet die Datenqualität zusätzlich. Vieles liegt zudem noch in Papierform vor oder ist nur unzureichend strukturiert. 

Neben der Infrastruktur wird oft auch das Change Management unterschätzt. KI soll aus Effizienzgründen oder wegen Sparvorgaben oft möglichst rasch eingeführt werden. In der Praxis zeigt sich jedoch häufig erst später, welche Folgen dies für Prozesse, Verantwortlichkeiten und Risiken hat.

Auch die Regulierung darf man nicht unterschätzen. Es gibt unterschiedliche Ansätze – etwa den EU AI Act. KI in ein Unternehmen zu integrieren, ist kein Plug-and-Play-Vorgang. Es ist ein tiefgreifender organisatorischer Wandel. Deshalb beginnt alles mit der Frage: Was mache ich mit meinen Daten?

InsurSkills – insure your skills

Die Privatversicherer wollen ihre Mitarbeitenden befähigen, sich selbst mit ihren Kompetenzen und ihrer Arbeitsmarktfähigkeit auseinanderzusetzen. Damit wird auch das lebenslange Lernen gefördert. Zu diesem Zweck wurde InsurSkills entwickelt. Mit InsurSkills werden 17 Kompetenzen analysiert, die künftig in der Versicherungsbranche an Bedeutung gewinnen werden. Finden Sie jetzt heraus, wo Ihre Stärken und Schwächen liegen – kostenlos, anonym und eigenverantwortlich.

Sie argumentieren, dass generative KI vorerst eher in unterstützenden Funktionen eingesetzt wird als in der eigentlichen Kernentscheidung. Warum ist diese Zurückhaltung sinnvoll?

Christoph E. Nabholz: Weil es an Transparenz fehlt. Wie Entscheidungsprozesse zustande kommen, ist oft schwer nachvollziehbar. Hinzu kommt die Frage des Framings: Wie frage ich etwas ab? Wie gestalte ich das Prompting? Der Prompt wird damit selbst Teil des Prozesses. Gleichzeitig verändern sich die Modelle laufend. Jedes Modell hat andere Eigenschaften, während die Prompts oft nicht im gleichen Mass angepasst werden. Das schafft neue Risiken. 

Deshalb muss sehr genau geprüft werden, in welche Prozesse generative KI eingebettet werden soll und wo nicht. Regulatorisch sind Unternehmen auch weiterhin verpflichtet, angemessene Transparenzmassnahmen sicherzustellen. Die grösste Hürde bleibt aber die Haftungsfrage. Gerade in den USA, dem weltweit grössten Versicherungsmarkt, ist noch vieles ungeklärt: Wer haftet wofür? Der Chatbot? Das Unternehmen? Der Anbieter des Foundation Models? 

Viele Unternehmen arbeiten noch mit komplexen IT- Infrastrukturen, die teilweise noch aus den 1990er Jahren stammen.

Christoph E. Nabholz

Sie sprechen auch agentenbasierte KI (Agentic AI) an. Was könnte ein solcher agentischer Underwriting-Prozess künftig leisten? 

Christoph E. Nabholz: Sehr viel. In der Praxis fehlen Underwritern oft Informationen, weil Kundinnen und Kunden Anträge nicht vollständig ausfüllen. Solche Rückfragen liessen sich automatisieren, etwa indem ein System Kundinnen und Kunden gezielt auf fehlende Angaben hinweist. Daten könnten auch automatisiert gesammelt und zentralisiert werden. Gerade bei der Betrugserkennung liegt hier eine Chance: Maschinen erkennen Muster, die dem Menschen möglicherweise entgehen. Spannend sind zudem die Feedbackschleifen zwischen Underwriting und Claims. Wenn diese Bereiche besser miteinander kommunizieren, können Erkenntnisse aus Schadensfällen schneller zurück in die Risikoprüfung fliessen. Ein Agent könnte helfen, diese Kommunikation aufrechtzuerhalten und systemisch zu strukturieren. 

 

Ihr Beitrag zeigt, dass KI nicht nur Werkzeug im Underwriting ist, sondern selbst zum Versicherungsrisiko wird. Welche KI-Risiken werden die Branche in den nächsten Jahren besonders beschäftigen?

Christoph E. Nabholz: An erster Stelle steht die Haftungsfrage. In unserem Buch führen wir das Beispiel des Air- Canada-Chatbots an, der einen Kunden falsch beraten hat. Der Kunde vertraute auf die Auskunft des Chats und handelte entsprechend. Als er sich später an das Claims Departement wandte, wurde die Zahlung verweigert. Der Kunde argumentierte, dass ihm diese Information vom Chatbot gegeben worden sei. Letztlich wurde entschieden, dass das Unternehmen für die Auskunft des Chatbots verantwortlich, und damit der Chatbot eine separate juristische Person darstellt. Solche Gerichtsentscheide werden sicherlich zunehmen und die Frage der Haftbarkeit klären. 

 

Sie beschreiben auch sogenannte «Tail Risks» Was ist das? 

Christoph E. Nabholz: Wir haben eine ganze Liste von sogenannten Tail Risks, die wir im Buch diskutieren. Tail Risks sind gross und nicht einfach nachzuvollziehen. Wir starten im Buch mit Rogue A.I., also wenn die KI fehlgeleitet ist und zum Beispiel Marketingentscheidungen trifft, um ein Produkt auf den Markt zu bringen und dabei dann unlautere Praxis verwendet um die vorgegebenen Absatzziele zu erreichen. Ein weiteres Tail Risk ist die geographisch limitierte Anzahl von Anbietern von Foundation Modellen, diese könnte zu erheblichen Folgewirkungen führen, wenn einer dieser Anbieter kompromittiert wird, ebenso wie Abhängigkeitsrisiken durch Lock-in-Effekte.

Wenn der Underwriter so stark entlastet wird, dass er sich nur noch auf die komplexesten Fälle konzentriert, stellt sich die Frage, ob das kognitiv überhaupt zu bewältigen ist.

Christoph E. Nabholz

Sie beschreiben «Silent AI» in Anlehnung an «Silent Cyber». Wo zeigt sich dieses Risiko heute schon konkret?

Christoph E. Nabholz: Silent AI beschreibt Risiken, die nicht explizit versichert sind, aber implizit in Policen enthalten sein können. Ein Beispiel ist der Autopilot von Tesla. Nach einem tödlichen Unfall im Jahre 2019 stellte sich die Frage, ob die Verantwortung beim Fahrer oder auch beim System beziehungsweise beim Hersteller lag. In diesem Fall wurde vom Gericht entschieden, dass Tesla mitverantwortlich ist, obwohl der Fahrer darauf hingewiesen wurde, dass er im Autopilot-Modus auch bereit sein soll zu intervenieren. Solche Konstellationen zeigen, wie gross die rechtliche Unsicherheit bei KI-bezogenen Haftungsfragen noch ist.

 

Weshalb entwickeln sich eigenständige Deckungen für KI-Risiken bislang noch zurückhaltend? 

Christoph E. Nabholz: Es gibt zwar einen Markt, aufgrund rechtlicher Unsicherheiten ist dieser jedoch noch klein. Ausserdem fehlen historischen Daten. In Europa gibt es eine OECD-Datenbank mit rund über 4'000 dokumentierten KI-Zwischenfällen – das ist noch zu wenig, um belastbare Statistik zu betreiben. Hinzu kommt, dass Vorfälle nicht immer transparent gemeldet werden. Ein weiterer Punkt ist die fehlende Standardisierung: Es gibt bislang kaum standardisierte Produkte oder standardisierte Lösungen. Standards sind noch neu und in der Praxis noch nicht breit implementiert.

 

Wenn Sie Versicherern in der Schweiz für die nächsten zwei bis drei Jahre eine Empfehlung mitgeben müssten, wo sollten sie beim Thema KI im Underwriting zuerst ansetzen?

Christoph E. Nabholz: Ich würde bei der Datenqualität beginnen. Gerade beim Pricing sind klare, strukturierte Datenquellen unerlässlich. Sie sind die Grundlage für jeden sinnvollen KI-Einsatz. Wenn KI künftig stärker direkt auf dem Underwriting Desk eingesetzt wird,  braucht es zudem klare Governance-Strukturen. Risk Governance ist zentral. Unternehmen müssen von Anfang an mitdenken, was schieflaufen könnte – und wie sich solche Risiken im klassischen Sinne des Risk Managements vermeiden lassen.

 

Was hat Sie persönlich am meisten überrascht daran, wie KI die Risikoprüfung und Risikodeckung verändert?

Christoph E. Nabholz: Mich überrascht vor allem, wie schnell KI-Modelle die Welt verändern und wie schnell sie in Prozesse integriert werden. Selbst ich habe manchmal Mühe, nachzuvollziehen, welche Agenten und Tools man nutzen sollte – und praktisch täglich kommt etwas Neues hinzu. 

Ich frage mich aber auch, was das für Underwriter bedeutet. Wenn der Underwriter so stark entlastet wird, dass er sich nur noch auf die komplexesten Fälle konzentriert, stellt sich die Frage, ob das kognitiv überhaupt zu bewältigen ist. Damit das Gehirn effizient arbeiten kann, braucht es auch Erholungsphasen. Deshalb sollte man KI nicht nur technologisch betrachten. Im Zentrum sollte weiterhin der Mensch, die Organisation und die gesamte Transformation stehen. Wir müssen uns stärker damit beschäftigen, was das für den Underwriter, für einzelne Berufe und für die Arbeitswelt insgesamt bedeutet.

Über den Autoren

Christoph E. Nabholz ist Gründer von Risk Insight Consulting und langjähriger Risikoexperte (u. a. bei Swiss Re). Im Interview spricht er über die zentralen Befunde aus dem Kapitel «Der digitale Underwriter: Wie KI die Risikodeckung neugestaltet», das er im Sammelband «Künstliche Intelligenz in der Versicherungsbranche» mitverfasst hat.