Aidez-nous à améliorer votre expérience sur le site de la ChAD.

Votre avis est important ! Prenez quelques minutes pour répondre à notre sondage et nous faire part de vos impressions. Cliquez ici pour répondre au sondage.

Merci pour votre participation !

i
Fermer

Désolé, mais rien ne correspond à votre critère de recherche. Veuillez réessayer avec d'autres mots-clés.

Passer au contenu

Les préoccupations face à l’intelligence artificielle : ce que la ChAD retient de sa Tournée d’échanges

Date de publication : 24 juillet 2024

La Tournée d’échanges visant l’innovation de ses services a permis à la ChAD d’engager la discussion avec les certifiés et les parties prenantes sur divers sujets, dont l’utilisation de l’intelligence artificielle (IA).

Au fil des discussions, un constat s’est imposé : les participants à la tournée se demandent comment tirer profit de cette technologie en constante évolution, tout en respectant les lois et règlements, dont les codes de déontologie des certifiés. Le sujet avait d’ailleurs été traité dans l’article de la ChAD L’intelligence artificielle en assurance de dommages publié en 2021.

Puisque l’utilisation de l’IA continuera son ascension dans les prochaines années, elle mérite une attention particulière des différentes parties prenantes en assurance de dommages.

D’ailleurs, le plan stratégique de la ChAD prévoit l’étude des nouvelles technologies susceptibles d’impacter la pratique des certifiés, dont l’IA générative. Ultimement, la ChAD souhaite outiller les certifiés dans l’utilisation de l’IA dans leur pratique professionnelle et, par ricochet, protéger le public.

Qu’est-ce que l’IA générative? 

Il existe plusieurs catégories d’intelligence artificielle. Par exemple, l’IA traditionnelle peut reconnaître les modèles – comme un système GPS – ou classifier le contenu existant1. L’IA générative utilise des données existantes afin de générer « un nouveau contenu similaire aux données sur lesquelles il a été entraîné »2 (visuel, texte, audio, code informatique).

La Tournée d’échanges a ainsi permis de franchir un nouveau pas dans l’évaluation des impacts de l’IA en assurance de dommages en questionnant les participants sur leurs préoccupations, la réalité des certifiés à ce sujet ainsi que leurs besoins.

Cet article fait le tour de cinq principales préoccupations discutées durant la Tournée d’échanges en lien avec l’IA. La ChAD en profite également pour dévoiler l’état de l’avancement de ses travaux visant l’excellence dans l’accompagnement des certifiés en lien avec l’IA.

Cinq préoccupations tirées de la Tournée d’échanges

1.     Interprétation des codes de déontologie

Afin de bien accompagner les certifiés pour une utilisation responsable de l’IA, les participants à la tournée ont exprimé le besoin d’être guidés sur l’interprétation des articles des codes de déontologie pouvant être associés à l’utilisation des technologies, dont l’IA.

Négligence, déclaration susceptible d’induire en erreur, tenir compte des limites de ses connaissances, protection des renseignements confidentiels des clients… Les articles des codes de déontologie pourraient être liés à des cas concrets d’utilisation de l’IA pour permettre aux certifiés de bien comprendre leurs obligations à cet égard.

L’objectif serait de vérifier la possibilité d’intégrer des directives spécifiques concernant l’utilisation responsable des nouvelles technologies, dont l’IA générative, par les certifiés ainsi que les limites de cette utilisation.

2.     Protection des renseignements personnels

Les dirigeants de cabinets et les certifiés sont conscients de leur responsabilité concernant la protection des données de leurs clients, notamment en raison de la Loi sur la protection des renseignements personnels dans le secteur privé et des codes de déontologie.

L’intégration de l’IA en assurance de dommages suscite donc des interrogations. Si les certifiés utilisent l’IA, quels sont les protocoles pour protéger les renseignements personnels des clients et prévenir les fuites de données? Quelles sont les utilisations autorisées et celles proscrites? Quels sont les systèmes d’IA sécuritaires pour éviter les enjeux de cybersécurité et comment reconnaître ces systèmes?

Les participants à la tournée souhaitent un accompagnement à ce sujet.

3.  Rôle-conseil et valeur du certifié

Les participants à la Tournée d’échanges ont exprimé craindre une diminution des interactions entre le certifié et le client en raison de l’intégration de l’IA. Ils souhaitent que l’IA serve à effectuer les tâches répétitives et administratives, mais sans enlever de valeur au rôle-conseil du certifié. Idéalement, une utilisation responsable de l’IA devrait alléger le certifié de certaines tâches, libérant ainsi plus de temps pour qu’il puisse se consacrer pleinement à son rôle-conseil.

En fait, l’intelligence artificielle ne devrait pas remplacer le jugement et les conseils des certifiés. Les participants sont d’avis que, malgré les avantages de l’IA, le discernement humain reste essentiel pour appliquer les codes de déontologie de manière appropriée, prendre des décisions professionnelles et approuver ce qui est communiqué aux clients.

De plus, la transparence au sujet de l’utilisation de l’IA au cours de la relation entre l’assuré et le certifié devrait être privilégiée. Afin de vivre une expérience client satisfaisante, celui-ci a le droit de savoir si, par exemple, une action a été effectuée ou un renseignement a été communiqué à l’aide de l’IA et quel est l’apport de l’IA, le cas échéant. Rappelons que peu importe la technologie utilisée, que ce soit l’IA ou une autre, le certifié demeure responsable de l’application de son code de déontologie. En d’autres mots, il ne pourrait pas attribuer un préjudice subi par son client à la technologie utilisée.

Qui est responsable de la réponse fournie par un chatbot?3

L’histoire

Un client utilise le chatbot d’une compagnie aérienne pour s’informer des tarifs spéciaux pour urgence familiale. Le chatbot lui indique notamment qu’il peut remplir un formulaire de remboursement à cet effet dans les 90 jours suivant la date à laquelle le billet a été émis. Satisfait de la réponse, le client achète les billets au tarif régulier et fait son voyage.

Quelques jours plus tard, il soumet le formulaire, mais se fait répondre que le remboursement pour la réduction tarifaire ne sera pas possible puisque le voyage est déjà complété : l’information « valide » se trouvait sur une page Web statique de la compagnie, mais le chatbot lui a transmis une information erronée. Le transporteur aérien soutient alors qu’il ne peut être tenu responsable de l’information fournie par le chatbot. Le client poursuit la compagnie devant les tribunaux (cour des petites créances).

La décision

La décision conclut que le transporteur aérien est responsable des informations trompeuses provenant de son site Web, qu’elles soient contenues dans une page Web statique ou transmise par un chatbot.

Cette décision démontre qu’une organisation ne peut pas se dégager de sa responsabilité en blâmant des informations erronées fournies par une technologie d’intelligence artificielle. De la même façon, le certifié en assurance de dommages est responsable déontologiquement de l’information qu’il fournit à un client, même si cette information a été générée par une technologie d’IA.

4.  Formation introductive et continue

L’IA présente un potentiel pour aider les cabinets et les certifiés à bien servir leurs clients, à condition que tous soient formés adéquatement. Une grande proportion de participants à la Tournée était d’avis qu’une formation introductive sur les nouvelles technologies, dont l’IA générative, est nécessaire pour que les professionnels effectuent leur travail en cohérence avec la protection du public. Les risques pour le professionnel et pour le public ainsi que les questions éthiques devraient être abordés.

Puis, il a été question de réfléchir à d’autres formations en lien avec l’IA. Cela permettrait aux certifiés de développer leurs compétences professionnelles en cohérence avec l’évolution des risques déontologiques associés à cette technologie. Leur pratique serait ainsi adaptée en continu tout au long de leur carrière.

5. Méthodes d’accompagnement

Comment les certifiés seront-ils accompagnés pour intégrer l’IA dans leur pratique professionnelle? L’objectif étant de protéger le public, les participants à la Tournée sont préoccupés face au choix des meilleurs moyens d’assurer une accessibilité à des ressources destinées à outiller les certifiés.

Concrétiser et vulgariser l’accompagnement, informer adéquatement les responsables de la conformité des cabinets, organiser des rencontres d’information, tester régulièrement les connaissances des certifiés : bref, il faudra innover dans les moyens de communication pour assurer une compréhension par tous les certifiés.

Position et travaux de la ChAD pour l’encadrement de l’IA en assurance de dommages

La ChAD est en accord avec l’intégration et l’utilisation responsable de l’IA dans la pratique professionnelle des certifiés. En ce sens, elle s’implique activement en vue d’adapter l’encadrement existant à l’utilisation de l’IA par les certifiés.

Voici un aperçu des actions effectuées et des initiatives à venir :

Actions terminées

  • Vigie multisectorielle incluant l’analyse :
    • De la jurisprudence;
    • Des réflexions d’autres ordres professionnels et organismes publics dans l’intégration de l’IA dans la pratique de leurs membres;
    • Du rapport Prêt pour l’IA du Conseil de l’innovation du Québec;
    • Du document de réflexion et de discussion de l’Autorité des marchés financiers (l’Autorité).
  • Production du mémoire de la ChAD concernant l’encadrement de l’IA en assurance de dommages.

Actions en cours ou à venir

  • Collaboration avec les parties prenantes pour s’impliquer dans l’accompagnement des certifiés afin d’intégrer l’IA dans leur pratique professionnelle en cohérence avec les meilleures pratiques proposées par l’Autorité et le mémoire de la ChAD.
  • Production des outils destinés aux certifiés, d’activités de sensibilisation et de formations en lien avec l’utilisation de l’IA dans la pratique professionnelle.
  • Vigie en continu de l’évolution de l’IA.

1.L’intelligence artificielle générative, Centre canadien pour la cybersécurité

2.Prêt pour l’IA, Conseil de l’Innovation du Québec, p. 4

3.Moffatt c. Air Canada, 2024-02-14