Handschlag zwischen Mensch und digitalem Arm mit 'AI'.

«L’IA transforme l’examen du risque, l’humain reste le seul responsable»

Interview
15. avril 2026

L’intelligence artificielle est censée améliorer la rapidité et la précision de la procédure de souscription. Or, plus les décisions, les flux de données et les processus sont automatisés, plus les questions relatives à la responsabilité, à la transparence et aux nouveaux risques engendrés par l’IA se font pressantes. 

Dans cet entretien, Christoph E. Nabholz, fondateur de RiskInsight Consulting et expert en risques de longue date (notamment auprès de Swiss Re), évoque les principaux enseignements du chapitre «Le souscripteur numérique: comment l’IA redéfinit la couverture des risques» dont il est l’auteur et qui est tiré de l’ouvrage collectif «L’intelligence artificielle dans le secteur de l’assurance – Perspectives d’initiés sur les opportunités, les risques et les applications pratiques» (le tout, en allemand uniquement).

Monsieur Nabholz, dans votre article, vous mettez en évidence l’énorme potentiel que représente l’IA en matière d’examen des risques. Quel est, à l’heure actuelle, le principal apport de l’IA dans le cadre de la procédure de souscription?

Christoph E. Nabholz: Elle contribue essentiellement à en améliorer l’efficacité et le traitement des données. La procédure de souscription comprend traditionnellement la synthèse et l’évaluation de documents, la prise de décisions et la détermination des primes de risque. Nombre des documents considérés peuvent aujourd’hui être résumés de manière automatisée. Il est également possible d’élaborer des méthodes plus efficaces de notation des risques et de déceler plus aisément des indices de fraude à l’assurance. Si une information a été dissimulée dans une proposition, l’IA s’en rend compte plus facilement, ce qui permet au souscripteur de procéder à des investigations complémentaires.

Person in blauem Anzug lächelt und lehnt sich auf weisse Barriere.
Aux États-Unis justement, le plus grand marché mondial de l’assurance, beaucoup de choses doivent encore être clarifiées: qui est responsable de quoi? Le chatbot (agent conversationnel)? L’entreprise? Le fournisseur du modèle de fondation?

En quoi le rôle du souscripteur s’en trouve-t-il modifié? 

Christoph E. Nabholz: En matière de détermination des primes, l’intervention humaine demeure de mise. Les dossiers pouvant être automatisés sont les cas simples couverts par des primes standards, comme les assurances automobiles. Les primes varient en fonction de l’âge: si aucun sinistre n’a été déclaré au cours des cinq dernières années, la prime peut être fixée automatiquement. La personne en charge de la souscription se concentre dès lors sur les cas plus complexes où les sommes en jeu sont plus conséquentes, où les décisions revêtent une importance stratégique et où le développement des produits et l’innovation jouent un rôle non négligeable. Elle assume ainsi davantage un rôle de contrôleur et d’ordonnateur de la souscription.

 

Vous en arrivez également à la conclusion que cette évolution devrait être progressive plutôt que disruptive. Pourquoi? 

Christoph E. Nabholz: D’une part, le secteur de l’assurance évolue dans un environnement très conservateur. Nombre de ses pratiques se sont développées au fil du temps. En matière de tarification et de modélisation justement, il s’agit de s’assurer que les modèles utilisés sont fiables et intelligibles. D’autre part, ces décisions sont prises par des personnes qui ne se contentent pas d’accepter les modèles, mais les remettent aussi en question d’un œil critique. Cette remarque vaut particulièrement pour les modèles de type «boîte noire», comme l’IA générative, où la manière dont une décision a été prise reste souvent obscure. 

La qualité des données est également problématique. Nombreux sont les assureurs qui travaillent encore avec des systèmes obsolètes et fragmentés qui ne sont pas reliés entre eux. De telles bases de données n’offrent qu’une utilité limitée. Restructurer les données de manière à pouvoir s’appuyer sur elles et mieux les exploiter entraîne des frais de mise en œuvre considérables. Sans parler de l’incertitude quant au réel intérêt économique. Le recours à l’IA devrait être limité aux applications où il constitue une véritable avancée. Or, en matière d’évaluation des risques, cette utilité ne s’est jusqu’ici pas vraiment vérifiée, contrairement à ce que l’on a pu croire au premier abord. Mais les choses peuvent évoluer. Toutefois, la tarification relève précisément de la compétence-clé du souscripteur – et il n’a pas vraiment envie d’en être dépossédé. 

La personne qui assume la responsabilité finale n’entend pas céder le contrôle à un outil à la légère.

Christoph E. Nabholz

Vous avez décrit la perspective économique. Qu’en est-il de la résistance culturelle? 

Christoph E. Nabholz: L’IA ne s’accompagne pas seulement de nouvelles opportunités, mais aussi de nouveaux risques. Il faut avoir bien conscience de la rapidité avec laquelle l’IA s’immisce dans les activités des compagnies le long de la chaîne de valeur, de la relation client au processus de gestion des sinistres. Si tout est automatisé et interconnecté et que les systèmes ou les agents numériques interagissent entre eux, des effets en cascade sont à craindre, que personne n’est en mesure de prévoir aujourd’hui. C’est précisément pour cette raison que la transparence des processus décisionnels est si importante. 

À cela s’ajoute le fait que la profession de souscripteur s’appuie énormément sur l’expérience. Pendant longtemps, on estimait que plus une personne est expérimentée et riche de connaissances, plus elle est précieuse dans sa fonction. En l’espèce, la question de la sécurité de l’emploi se pose également. Allons-nous perdre des emplois? Il faut s’attendre à des répercussions non seulement au niveau de l’entreprise, mais aussi sur les plans social et politique. 

 

Dans votre livre, vous citez la qualité des données, l’infrastructure, l’expertise et la gestion du changement comme prérequis de base. Lors de l’introduction de l’IA, qu’est-ce qui est généralement sous-estimé?

Christoph E. Nabholz: La qualité des données arrive nettement en tête. Nombreuses sont les entreprises qui travaillent encore avec des infrastructures informatiques complexes, dont certaines remontent aux années 1990 et présentent désormais des problèmes liés à leur cycle de vie. C’est surtout compliqué lors de fusions et d’acquisitions, car il s’agit alors de réunir des systèmes différents. La qualité des données s’en trouve d’autant plus altérée. Par ailleurs, beaucoup d’informations sont disponibles uniquement sous forme papier ou sont insuffisamment structurées. 

Outre l’infrastructure requise, une bonne gestion du changement s’impose; or, son rôle majeur est généralement minimisé également. Motivée par des gains en efficacité ou des objectifs d’économies, l’introduction de l’IA se fait souvent sous la pression du temps. Une telle précipitation n’est néanmoins pas sans conséquences dans la pratique en termes de processus, de responsabilités et de risques. Et la prise de conscience est alors bien tardive. Il ne faut pas non plus sous-estimer l’impact de la réglementation. Il existe différentes approches – comme le règlement de l’EU sur l’IA. L’intégration de l’IA au sein d’une entreprise ne relève pas d’un processus «plug-and-play» (prêt à l’emploi). Elle implique une réelle réorganisation en interne. C’est pourquoi, la première question à se poser, c’est de savoir quoi faire de ses propres données?

InsurSkills – insure your skills

Les assureurs entendent donner à leurs collaborateurs les moyens de s'interroger eux-mêmes sur leurs propres compétences et leur employabilité. Cela permet également d'encourager l'apprentissage tout au long de la vie. InsurSkills permet d'analyser 17 compétences qui gagneront en importance à l'avenir dans l'assurance. Découvrez dès maintenant quels sont vos points forts et vos points faibles - gratuitement, de manière anonyme et en toute autonomie.  

Vous avancez que l’IA générative est actuellement davantage utilisée dans des fonctions de soutien que dans la prise de décision proprement dite. Pourquoi cette prudence est-elle une bonne chose?

Christoph E. Nabholz: Parce qu’il y a un manque de transparence. Il est souvent difficile de comprendre comment les décisions sont prises. Il y a aussi la question du cadre à définir: comment dois-je énoncer ma requête? Comment formuler mes instructions (en anglais, prompt)? Le prompt fait ainsi lui-même partie intégrante du processus. Parallèlement, les modèles ne cessent d’évoluer en permanence. Chaque nouveau modèle présente des caractéristiques différentes, alors que les prompts ne sont souvent pas adaptés au même rythme. Cette situation génère de nouveaux risques. 

C’est la raison pour laquelle il convient de se demander très précisément quels processus se prêtent à une intégration de l’IA et lesquels ne s’y prêtent pas. Au niveau réglementaire, les entreprises demeurent tenues de garantir des mesures de transparence appropriées. Mais le principal obstacle reste la question de la responsabilité. Aux États-Unis justement, le plus grand marché mondial de l’assurance, beaucoup de choses doivent encore être clarifiées: qui est responsable de quoi? Le chatbot (agent conversationnel)? L’entreprise? Le fournisseur du modèle de fondation? 

Nombreuses sont les entreprises qui travaillent encore avec des infrastructures informatiques complexes, dont certaines remontent aux années 1990.

Christoph E. Nabholz

Vous évoquez également l’IA agentique. Quel pourrait être l’apport d’un agent IA dans le processus de souscription? 

Christoph E. Nabholz: Très important. Dans la pratique, il manque souvent des informations aux souscripteurs parce que les clients ne répondent pas à toutes les questions de la proposition. Ces demandes de précision pourraient être automatisées, par exemple avec un système dédié au signalement des informations manquantes aux clients. Les données pourraient aussi être collectées et centralisées de manière automatisée. En matière de détection des fraudes, il y a un certain potentiel: les machines arrivent mieux à identifier des schémas qui peuvent échapper à l’œil humain. Les boucles de rétroaction entre la souscription et les sinistres sont également passionnantes. Si ces services communiquent mieux entre eux, les enseignements tirés des sinistres sont plus rapidement réintégrables dans l’examen des risques. Un agent pourrait aider à maintenir cette communication et à la structurer au sein du système. 

 

Il ressort de votre étude que l’IA n’est pas seulement un outil dans le cadre de la souscription, mais qu’elle constitue elle-même un risque en termes d’assurance. Quels risques liés à l’IA vont particulièrement donner du fil à retordre au secteur de l’assurance dans les années à venir?

Christoph E. Nabholz: Il y aura surtout des problèmes en lien avec les questions de responsabilité. Dans notre livre, nous citons l’exemple du chatbot d’Air Canada qui a délivré un conseil erroné à un client. Le client s’est fié aux informations fournies par l’agent conversationnel et a agi en conséquence. Lorsqu’il s’est ensuite adressé au service des réclamations, le remboursement promis lui a été refusé. Le client a fait valoir que cette information lui avait été donnée par le chatbot. Pour finir, le tribunal a statué que l’entreprise était responsable des informations livrées par le chatbot et que celui-ci avait donc valeur de personne morale distincte. De telles décisions de justice ne manqueront pas de se multiplier et de concourir à la clarification de la question de la responsabilité. 

 

Vous décrivez également les «risques extrêmes». De quoi s’agit-il? 

Christoph E. Nabholz: Dans le livre, nous abordons un certain nombre de risques dits «de pertes extrêmes». Les risques extrêmes sont des risques importants qui ne sont pas faciles à appréhender. Nous commençons le livre par l’IA rebelle, lorsque l’IA s’égare et prend, par exemple, des décisions marketing pour lancer un produit qui recourent à des pratiques déloyales, ceci dans le but d’atteindre les objectifs de vente fixés. Un autre risque extrême consiste dans le nombre géographiquement limité de fournisseurs de modèles de fondation, qui pourrait avoir des conséquences considérables si l’un de ces fournisseurs venait à être discrédité, ainsi que dans les risques de dépendance liés aux effets de verrouillage (en anglais, lock-in effects).

Si le travail de la personne en charge de la souscription s’en trouve tellement allégé qu’elle n’est plus amenée qu’à se concentrer sur les dossiers les plus complexes, il convient de se demander si cela reste vraiment gérable pour elle sur le plan cognitif.

Christoph E. Nabholz

Vous décrivez l’«IA silencieuse» en référence au «cybersilencieux». Où ce risque se manifeste-t-il concrètement à l’heure actuelle?

Christoph E. Nabholz: L’«IA silencieuse» (en anglais, silent AI) décrit des risques qui ne sont pas explicitement assurés, mais qui peuvent être implicitement couverts par les polices d’assurance. Prenons l’exemple de l’Autopilot Tesla. À la suite d’un accident mortel survenu en 2019, la question s’est posée de savoir si la responsabilité en incombait au conducteur ou aussi au système, et par voie de conséquence au constructeur. En l’espèce, le tribunal a jugé que la responsabilité de Tesla était également engagée, bien que le conducteur ait été informé qu’il devait être prêt à intervenir même en cas d’activation du mode pilote automatique. Il ressort de tels cas de figure que l’incertitude juridique demeure élevée en matière de responsabilité civile en lien avec l’IA.

 

Pourquoi le développement de couvertures spécifiques pour les risques liés à l’IA reste-t-il timide? 

Christoph E. Nabholz: Certes, un marché existe, mais il est encore modeste du fait des incertitudes juridiques. De plus, l’historique de données est insuffisant. En Europe, une base de données de l’OCDE recense plus de 4000 incidents liés à l’IA – ce qui est bien trop peu pour établir des statistiques fiables. À cela s’ajoute le fait que les incidents ne sont pas toujours signalés en toute transparence. Autre écueil, l’absence de normalisation: à l’heure actuelle, il n’existe pas vraiment de produits ni de solutions standardisés. Les normes sont récentes et ne sont pas encore appliquées par tout le monde.

 

Au regard de l’introduction de l’IA dans la procédure de souscription, si vous deviez prodiguer un conseil aux assureurs suisses pour les deux ou trois prochaines années, quel serait-il? Par où devraient-ils commencer?

Christoph E. Nabholz: Je commencerais par la qualité des données. En matière de tarification justement, des sources de données claires et dûment structurées sont indispensables. Elles sont essentielles à une utilisation rationnelle de l’IA. Par ailleurs, si l’IA doit désormais être davantage utilisée directement dans le cadre de la procédure de souscription, cela implique aussi des structures de gouvernance nettes. La gouvernance des risques est primordiale. Il revient aux entreprises de réfléchir en amont à tout ce qui pourrait mal tourner – et à la manière dont ces risques peuvent être évités au sens classique de la gestion des risques.

 

Qu’est-ce qui vous a le plus surpris personnellement dans la manière dont l’IA transforme l’examen et la couverture des risques?

Christoph E. Nabholz: Je suis surtout surpris par la rapidité avec laquelle les modèles d’IA transforment le monde et s’intègrent dans les processus. J’ai moi-même parfois du mal à comprendre quels agents et quels outils utiliser, sans compter que de nouveaux instruments apparaissent pratiquement chaque jour. 

Mais je m’interroge aussi sur les répercussions concrètes pour les souscripteurs. Si le travail de la personne en charge de la souscription s’en trouve tellement allégé qu’elle n’est plus amenée qu’à se concentrer sur les dossiers les plus complexes, il convient de se demander si cela reste vraiment gérable pour elle sur le plan cognitif. Pour que le cerveau puisse fonctionner efficacement, il a également besoin de phases de repos. En conséquence, l’IA ne devrait pas être considérée uniquement d’un point de vue technologique. L’être humain, le fonctionnement de l’organisation et la transformation de l’ensemble des interactions devraient demeurer au cœur des préoccupations. Il nous faut davantage nous pencher sur les implications potentielles pour le souscripteur, pour différentes professions et pour le monde du travail en général.

Portrait de l’auteur

Fondateur de Risk Insight Consulting, Christoph E. Nabholz est un expert en risques de longue date (notamment auprès de Swiss Re). Dans cet entretien, il évoque les principaux enseignements du chapitre «Der digitale Underwriter: Wie KI die Risikodeckung neugestaltet» (en allemand uniquement; «Le souscripteur numérique: comment l’IA redéfinit la couverture des risques») qu’il a publié au sein de l’ouvrage collectif «Künstliche Intelligenz in der Versicherungsbranche» (uniquement en allemand, «L’intelligence artificielle dans le secteur de l’assurance»).