
Le développement fulgurant de l’IA engendre de nouveaux régimes de responsabilité, des incertitudes en matière de couverture et une importance croissante de la réglementation (par exemple, le règlement européen sur l’IA). Les erreurs, la discrimination et la protection des données sont autant de défis majeurs.
Les récentes avancées technologiques ont considérablement amélioré les capacités de l’intelligence artifi-cielle (IA) et de l’apprentissage automatique. Cela a éveillé l’intérêt de l’opinion publique et encouragé les entreprises à intégrer l’IA dans leurs activités quotidiennes. Ces progrès offrent des gains de productivité et des opportunités économiques, ce qui laisse escompter une croissance considérable. Or, au regard du développement exponentiel des capacités de l’IA, des exigences réglementaires spécifiques et des con-trôles plus stricts par des opérateurs humains s’imposent et de nouvelles questions de responsabilité se posent.
L’OCDE définit un système d’IA comme un système basé sur une machine capable de faire des prédictions, de formuler des recommandations ou des décisions portant sur une tâche spécifique à partir d’objectifs définis par l’homme, qui influencent des environnements physiques ou virtuels.
L’IA se divise en deux catégories:
Bien qu’aucune véritable IAG n’existe à l’heure actuelle, les progrès récemment réalisés au niveau des modèles de base, tels que les grands modèles linguistiques et les modèles générateurs d’images, commen-cent à dépasser les capacités traditionnellement attribuées à l’IAG.
Les débats sur la sécurité, la protection des données et l’éthique soulignent l’importance d’une gouver-nance et d’une réglementation appropriées de ces technologies, ce qui entraîne un besoin croissant de dispositions réglementaires adaptées.
À l’instar de toute autre technologie, l’IA peut ne pas s’avérer à la hauteur des attentes, comme ne pas répondre aux normes de performance, renforcer les préjugés sans le vouloir, être vulnérable aux attaques malveillantes, voire causer des dommages réels. Chaque opportunité, et elles sont nombreuses dans le domaine de l’IA, s’accompagnera forcément toujours de son lot de risques.
À l’heure actuelle, l’exposition à ce risque se limite à quelques secteurs. Celui des technologies de l’information est le plus touché, ce qui n’a rien de surprenant dans la mesure où c’est là que sont dévelop-pés les systèmes d’IA. Avec la généralisation de l’IA, ces risques ne manqueront pas de s’étendre à plu-sieurs autres domaines. Exposés à la multiplication inéluctable des dommages corporels, le secteur de la santé et celui de l’industrie pharmaceutique donneront du fil à retordre aux assureurs. Les infrastructures critiques et la mobilité sont également concernées: les réseaux intelligents et les véhicules autonomes en affectent le bon fonctionnement et sont susceptibles d’être à l’origine de la multiplication des accidents et de leur aggravation.
À court terme, les principales préoccupations porteront sur les risques liés aux aspect éthiques, aux préju-gés et à la protection des données. Si les modèles d’IA finissent par s’imposer, il existe un risque que des erreurs soient intégrées dans le stockage et l’analyse des données. Les secteurs qui manipulent des don-nées personnelles sensibles, comme ceux de la santé, de la finance ou du droit, sont particulièrement ex-posés. Lorsque les difficultés initiales liées à la création de modèles d’IA seront résolues, le principal pro-blème consistera dans les risques liés au produit.
Le potentiel de croissance de l’IA varie en fonction des régions et des secteurs, sachant que l’introduction de cette technologie devrait être plus rapide là où le potentiel d’automatisation est plus élevé et l’IA plus accessible. Au regard de son potentiel, l’AIG est considérée comme un risque émergent sur le marché de l’assurance. L’articulation de la couverture d’assurance, en termes d’étendue de la couverture, de limites, d’exclusions ou de domaines d’application, constituera un défi majeur pour les assureurs.
Les différences régionales sont considérables en matière de réglementation de l’IA, même si la plupart des régions n’ont pas encore adopté de lois spécifiques pour en régir l’utilisation.
Le règlement établissant des règles harmonisées concernant l’intelligence artificielle (règlement sur l’IA) constitue le premier texte réglementaire complet sur l’IA au monde. Les dommages causés par l’IA peu-vent être tant matériels qu’immatériels et avoir des répercussions physiques, psychologiques, sociales et économiques.
Dans la plupart des régions du monde, c’est le flou total en ce qui concerne l’IA et les régimes de respon-sabilité civile existants. En outre, les systèmes d’IA sont largement tributaires de données et relèvent dès lors souvent des lois applicables en matière de protection de ces dernières. Si ces textes législatifs visent tous la protection des consommateurs et la garantie de l’endossement des responsabilités en cas de dom-mages causés par des produits (IA comprise), leurs approches de la responsabilité divergent fondamenta-lement les unes des autres et constituent une véritable gageure pour les assureurs. La manière dont les autorités de régulation, les juristes et les parties prenantes clarifieront l’interaction entre ces différents corpus réglementaires sera déterminante pour prévenir toute confusion et garantir une protection efficace des personnes affectées par les technologies utilisant l’IA.
le règlement sur l’IA, entré en vigueur le 21 mai 2024, est la première législation complète au monde en matière d’IA qui réglemente les systèmes d’IA afin de garantir les droits et la sécurité des consom-mateurs. Il classe l’IA en quatre niveaux de risque et définit les exigences relatives à l’utilisation de cette technologie. Le projet de règlement européen sur la responsabilité en matière d’IA vise à faciliter l’indemnisation des dommages causés par des produits et services dotés d’IA en harmonisant les me-sures de protection et en introduisant une présomption de responsabilité pour les systèmes d’IA à haut risque. Adoptée le 10 octobre 2024, la directive européenne révisée sur la responsabilité pour les pro-duits défectueux (PLD) couvre les logiciels et les systèmes d’IA, permet l’indemnisation des atteintes à la santé psychologique et prolonge les délais de prescription. En vigueur depuis le 25 mai 2018, le rè-glement général de l’UE sur la protection des données (RGPD) introduit des règles plus strictes en ma-tière de traitement des données à caractère personnel et complète la PLD.
Au regard de la complexité de ce sujet, il faudra du temps pour développer des produits d’assurance adé-quats qui couvrent spécifiquement les risques liés aux différentes applications de l’IA.
Nombre d’incertitudes subsistent quant à l’évolution de la législation en matière de responsabilité civile liée à l’IA ainsi que de celle d’autres réglementations et dispositions s’y rapportant, ce qui soulève des ques-tions sur les couvertures d’assurance traditionnelles existantes. De nouvelles solutions sur mesure sont en cours d’élaboration et actuellement proposées sur certains marchés.
Les dommages causés par l’utilisation de l’IA peuvent être matériels ou immatériels. Différentes polices existantes sont déjà en mesure de couvrir les divers types d’exposition. En effet, la police ne mentionne généralement pas expressément les risques liés à l’IA et ne les exclut pas explicitement non plus.
Quelques exemples pour illustrer cette situation:
Les assureurs sont obligés de procéder à une veille attentive de l’évolution des risques liés à l’IA afin de s’assurer que leurs polices reflètent fidèlement la couverture qu’ils entendent offrir à ces risques d’exposition émergents. Les incertitudes relatives aux domaines de risque liés à l’IA pourraient gagner en importance et nécessiter un examen plus approfondi.
L’horizon temporel pour les demandes d’indemnisation assurées liées à la responsabilité civile en matière d’IA devrait évoluer parallèlement au développement de cette technologie et de ses applications. Dans un avenir immédiat, l’accent sera mis sur la compréhension et l’atténuation des risques liés à l’IA. Au regard de l’intégration croissante de l’IA dans de nombreux secteurs, les élévations de prétentions en dommages-intérêts à long terme devraient se multiplier, notamment du fait des nouvelles dispositions réglementaires combinées à l’attribution de davantage de responsabilités aux entreprises et au durcissement des exi-gences envers ces dernières. Les assureurs doivent demeurer vigilants, revoir en permanence leurs polices et les adapter à l’évolution constante du paysage des risques.
Les risques émergents sont des risques futurs, d'un genre nouveau, qui se profilent à l'horizon avec des contours flous: leur probabilité de survenue et l'ampleur des dommages qu'ils pourraient causer ne peuvent pas encore être évaluées de manière fiable. Contrairement aux risques traditionnels, les risques émergents évoluent de manière dynamique et sur de longues périodes. Leur potentielle ampleur n’est donc souvent perceptible que tardivement – voire a posteriori.
L’ASA procède donc régulièrement à une évaluation et analyse les principales tendances et les défis majeurs pour le secteur de l’assurance. La sélection repose sur les tendances technologiques, sociales et écologiques, les changements réglementaires ainsi que sur leur importance pour la souscription. L’objectif est d'identifier les signaux d’alerte précoce, d’offrir des indications sur les développements futurs et, ainsi, aider les assureurs et les entreprises dans l’évaluation des risques.
Vous trouverez plus d’informations sur ce sujet ici ou dans notre brochure.
Les logiciels addictifs et les médias sociaux influencent l’attitude des utilisateurs et génèrent de nouveaux risques: santé mentale, tendances sociétales et responsabilité civile.

L’assistance à la conduite et la conduite (semi-)autonome s’affirment: nouveaux défis en termes de sécurité, de dépendance à l’informatique et de transfert de responsabilité.

Dix risques émergents en bref: impact sur la responsabilité civile et la réassurance, tendances, pression réglementaire et effets sur la souscription et la gestion des risques.
