CONGÉ DE PÂQUES : les bureaux de la ChAD seront fermés du 29 mars au 1ᵉʳ avril 2024.

  • Si vous vivez une problématique en lien avec la fin de période durant le congé de Pâques, veuillez nous écrire à formation@chad.qc.ca, notre équipe pourra vous répondre à son retour à partir du 2 avril. Selon la nature du problème, la ChAD fera le nécessaire pour ne pas vous pénaliser.
  • Si vous êtes certifié et que vous n’avez pas terminé vos obligations de formation continue en date du 31 mars 2024, l’Autorité des marchés financiers communiquera avec vous au début du mois d’avril pour vous indiquer les prochaines étapes.
  • Si vous êtes un dispensateur de formation et que vous n’avez pas saisi toutes les présences des formations données avant le ou au 31 mars, vous avez jusqu’au 4 avril 17 h pour saisir les présences.

 

i
Fermer

Désolé, mais rien ne correspond à votre critère de recherche. Veuillez réessayer avec d'autres mots-clés.

Passer au contenu

Intelligence artificielle et secteur financier au congrès de l’Acfas : opportunités, défis et enjeux déontologiques

Date de publication : 3 septembre 2024

L’intelligence artificielle (IA) redéfinit le paysage de nombreux secteurs, et le domaine des services financiers, dont fait partie l’assurance de dommages, ne fait pas exception. Avec des algorithmes sophistiqués aux solutions d’automatisation avancées, l’IA promet d’améliorer l’efficacité opérationnelle et de personnaliser les services clients.

Cependant, cette révolution technologique s’accompagne de défis importants, notamment en matière de déontologie, de protection des consommateurs, d’équité et de gestion des risques.

D’ailleurs, la ChAD a partagé les préoccupations exprimées par les certifiés en assurance de dommages sur l’IA dans un précédent article intitulé Les préoccupations face à l’intelligence artificielle : ce que la ChAD retient de sa Tournée d’échanges.

En mai 2024, dans le cadre du 91e congrès de l’Association canadienne-française pour l’avancement des sciences (Acfas), les professeures Maya Cachecho (Droit, UdeM) et Sandrine Prom Tep (Marketing, ESG UQAM) ont organisé un colloque sur le thème La Fintech : à la croisée de la finance, du droit, de la technologie et du marketing.

Marc Beaudoin, président-directeur général de la ChAD y a fait une intervention sur le thème L’encadrement déontologique des représentants qui utilisent l’IA, explorant les enjeux éthiques et réglementaires liés à l’intégration de l’intelligence artificielle dans le secteur de l’assurance de dommages.

L’événement a offert une plateforme de discussion pour explorer les impacts de l’intelligence artificielle dans le secteur financier, en mettant en lumière les défis juridiques, pratiques et technologiques associés à cette révolution numérique.

Cet article revient sur les principaux propos du colloque, en mettant l’accent sur les implications pour la pratique professionnelle des certifiés en assurance de dommages. Il vise à présenter les recommandations et les perceptions de l’intelligence artificielle dans le domaine financier.

Impact de la technologie, y compris de l'IA, sur les services financiers

Lors du colloque, la professeure Maya Cachecho, LL.D. , de la Faculté de Droit de l’Université de Montréal (UdeM) a indiqué que : « La pandémie a contribué de manière significative à l’utilisation des solutions technologiques dans divers aspects de la finance. Ce changement est particulièrement manifeste dans les domaines du paiement en ligne, des modes d’achat numériques et de la manière dont les transactions financières sont effectuées. »

Les consommateurs, contraints de rester chez eux, ont rapidement adopté ces nouvelles méthodes pour leurs achats quotidiens. Cette adoption a non seulement modifié les comportements d’achat des consommateurs, mais a également transformé les modèles d’affaires des institutions financières et des fournisseurs de produits et de services financiers.

Les plateformes de négociation en ligne et les applications de gestion de portefeuille ont démocratisé l’accès aux marchés financiers, permettant aux investisseurs particuliers de gérer leurs investissements avec une facilité sans précédent.

En outre, l’avancée des technologies, telles que les robots-conseillers, a rendu l’investissement plus accessible et moins coûteux, tout en offrant des conseils personnalisés basés sur des algorithmes avancés. Cependant, ces progrès rapides ne sont pas sans risques et nécessitent des adaptations importantes.

La nécessité d'un encadrement déontologique de l'utilisation de l'IA : le cas en assurance de dommages

L'intelligence artificielle, en particulier l'IA générative, est devenue un outil puissant, largement reconnu pour son potentiel à stimuler l'innovation et améliorer l'efficacité. Cependant, l'intégration rapide de l'IA dans divers aspects de la vie quotidienne n'est pas sans risques.
Marc Beaudoin
président-directeur général de la ChAD

L’un des principaux risques posés par l’IA est la propagation d’informations fausses ou trompeuses, souvent appelée désinformation, ce qui contrevient à l’article 15 du Code de déontologie des représentants en assurance de dommages. Cela peut porter atteinte à la transparence, à l’équité et à la confiance envers les professionnels, les entreprises et les institutions.

Responsabilité des professionnels quant aux informations générées par l’IA générative

L’histoire

Dans une affaire récente, une avocate a soumis, au soutien d’une procédure devant le tribunal, deux références proposées par ChatGPT. Or, ces deux références avaient été inventées et les décisions n’existaient tout simplement pas. Cette situation a mené à un débat juridique sur la responsabilité de l’avocate et l’impact de l’information erronée sur le dossier. Le tribunal a dû déterminer si l’avocate pouvait être tenue responsable des informations trompeuses fournies par une IA.

Décision

Le tribunal a conclu que l’avocate ne pouvait pas se dégager de sa responsabilité en se fiant sur une technologie d’intelligence artificielle. Même si les cas fictifs avaient été retirés avant l’audience, leur inclusion initiale a eu un impact sur la préparation de la partie adverse, rendant l’avocate responsable des conséquences.

Cette décision démontre qu’un professionnel ne peut pas se soustraire à sa responsabilité pour des informations erronées fournies par une technologie d’intelligence artificielle.

De la même façon, le certifié en assurance de dommages est responsable déontologiquement de l’information qu’il fournit à un client, même si cette information a été générée par une technologie d’IA. La vigilance et la vérification rigoureuse des informations sont essentielles pour éviter de telles erreurs.1

Pour atténuer ces risques, la ChAD est d’avis qu’il faut adapter l’encadrement existant à l’utilisation responsable de l’IA par les certifiés . Cela inclut la nécessité de définir clairement la responsabilité des intervenants et de formuler des règles entourant le partage des responsabilités entre les différents acteurs du système d’IA, dans une approche où l’ensemble des parties, à savoir les développeurs, les employeurs et les certifiés, sont imputables des risques liés à l’utilisation.

De plus, la transparence au sujet de l’utilisation de l’IA au cours de la relation entre l’assuré et le certifié devrait être privilégiée.

L’intelligence artificielle ne devrait pas remplacer le jugement et les conseils des certifiés. Le discernement humain reste essentiel pour appliquer les codes de déontologie de manière appropriée, prendre des décisions professionnelles et approuver ce qui est communiqué aux clients, comme le précisent les articles 9, 29 et 37(5) du Code de déontologie des représentants en assurance de dommages.

Marc Beaudoin explique que le développement de systèmes d’IA (SIA) au sein des organisations soulève également des questions sur le pouvoir et le contrôle. Avec une capacité croissante à prendre des décisions autonomes, les SIA peuvent influencer les opérations des organisations de manière significative.

Une réflexion éthique approfondie est nécessaire pour garantir que l’IA est utilisée de manière équitable et responsable. Pour permettre un bon usage de l’IA, il est nécessaire que les organisations et les représentants suivent certaines bonnes pratiques.

Avant l’intervention des représentants, l’entreprise doit :

  • Encadrer les risques selon leur gravité : plus le risque est faible, moins il y a besoin d’encadrement; plus le risque est élevé, comme dans le cas de l’IA générative, plus un cadre rigoureux est nécessaire.
  • Définir la responsabilité des intervenants : chaque acteur impliqué dans le développement, l’intégration et l’utilisation de l’IA doit connaître ses responsabilités.
  • Surveiller et corriger les données pour réduire les biais involontaires intégrés par les systèmes d’IA – essentiel pour assurer l’équité dans les prises de décisions.

Pendant son intervention, le représentant doit :

  • Se familiariser et bien se former à l’usage de la technologie : le représentant doit comprendre les défis techniques et éthiques liés à l’IA.
  • Respecter les normes déontologiques : cela inclut la confidentialité, la non-négligence et la transparence des pratiques, comme stipulé dans les articles 9, 15, 23, 24, et 37 (1) du Code de déontologie des représentants en assurance de dommages, ainsi que dans les articles 10, 16, 20, 21, 22, 23, 27 et 58 (1) du Code de déontologie des experts en sinistre.
  • Assurer la transparence : le représentant devrait informer le consommateur de l’utilisation de l’IA à risque élevé, garantissant ainsi la transparence.

Rappel des obligations des certifiés quant aux renseignements personnels

Outre les systèmes d’IA qui doivent garantir la confidentialité et un contrôle robuste empêchant l’utilisation des données par de tierces parties, la ChAD rappelle l’importance pour les agents, les courtiers et les experts en sinistre de respecter leurs obligations à cet égard. Pour plus d’informations, vous pouvez consulter la procédure de protection des renseignements personnels.

Le paradoxe de la formation : entre nécessité et manque d'engagement

Lors de son intervention intitulé Le paradoxe de la formation : entre nécessité et manque d’engagement au colloque, Chantal Lamoureux, présidente-directrice générale de l’Institut de planification financière du Québec, a souligné que « le développement des compétences technologiques est essentiel pour rester compétitif dans un marché en constante évolution. »

Toutefois, un paradoxe persiste : bien que la nécessité de se former soit évidente, l’engagement à se former des professionnels reste insuffisant.

Les résultats préliminaires d’un récent sondage mené par la chaire de recherche en planification financière IG Gestion de patrimoine de l’Université Laval auprès des planificateurs financiers du Canada (plus de 1000 répondants) montrent que :

  • 18 % sont formés à l’utilisation de l’IA,
  • 25 % utilisent l’IA dans un cadre professionnel, principalement pour des outils de projection financière ou l’IA générative,
  • 35 % utilisent ces technologies dans des projets personnels.

Ces chiffres montrent que bien que la technologie soit accessible et puisse offrir des avantages considérables, une large majorité des professionnels ne l’utilisent pas ou n’ont pas encore développé les compétences nécessaires pour en tirer parti. Un tel sondage n’a pas été mené en assurance de dommages, néanmoins le parallèle peut se faire avec la formation continue des agents, courtiers et experts en sinistre.

Pour combler ce fossé entre la nécessité de se former à l’IA et le manque d’engagement à cet égard, il est impératif de promouvoir une culture de la formation continue. Les entreprises doivent encourager leurs employés à se former pour rester compétitives dans un marché en constante évolution. De même, les organismes d’encadrement doivent inciter leurs membres à se former, non seulement pour respecter les standards de l’industrie et la règlementation, mais aussi pour offrir un service de qualité aux consommateurs.

 

Parallèle entre le conseil en services financiers et l’assurance de dommages

L’intégration de la technologie dans les pratiques des conseillers en services financiers offre à la fois des opportunités prometteuses et des défis significatifs – tout comme en assurance de dommages. Parmi les préoccupations majeures figurent la cybersécurité, les biais potentiels, et l’origine des données utilisées.

Un sondage Léger réalisé exclusivement pour la Chambre de la sécurité financière (CSF) met en lumière les préférences des clients en matière d’interactions.

Seulement 10 % des répondants déclarent qu’ils préfèrent traiter avec un robot-conseiller, tandis qu’une large majorité de 71 % privilégie l’interaction avec un conseiller humain. Une telle donnée n’existe pas pour l’industrie de l’assurance de dommages, cependant ces chiffres soulignent l’importance persistante de l’humain dans la relation de confiance entre le conseiller et le client, malgré les avancées technologiques.

Marie Elaine Farley, Ad.E., ICD.D, présidente et chef de la direction de la CSF, souligne que « la technologie doit être un outil qui enrichit l’expertise du conseiller, plutôt qu’un substitut à la relation de confiance essentielle au service financier. »

Cependant, l’intégration de la technologie dans le quotidien des conseillers financiers ne se fait pas sans soulever des questions importantes qui s’appliquent également aux agents, courtiers et experts en sinistre. Parmi les enjeux les plus pressants, on trouve :

  • Cybersécurité : avec l’augmentation des échanges numériques, la protection des données sensibles devient encore plus essentielle. Les représentants doivent veiller à ce que les informations de leurs clients soient sécurisées contre les cyberattaques et les violations de données.
  • Biais potentiels : l’utilisation d’algorithmes et d’outils d’IA peut introduire des biais non intentionnels dans le rôle-conseil. Il est crucial de s’assurer que ces technologies sont développées et utilisées de manière éthique pour éviter toute discrimination.
  • Outils quotidiens : la technologie offre une variété d’outils pouvant améliorer l’efficacité des conseillers, tels que les systèmes de gestion de la relation client (CRM) ou les outils d’analyse de données. Cependant, l’adoption de ces outils nécessite une formation adéquate pour en maximiser les avantages.
  • Provenance des données : la qualité et la source des données utilisées par les conseillers sont essentielles pour fournir des conseils fiables. Il est important que les conseillers s’assurent que les données qu’ils utilisent sont précises, à jour, et proviennent de sources crédibles.

L’adoption de l’IA par les représentants en services financiers est inévitable et nécessaire pour rester compétitifs dans un marché en constante évolution. Cependant, il est impératif de ne pas perdre de vue l’importance de l’humain dans ce processus. Les clients continuent de valoriser l’expertise et l’empathie que seuls les conseillers humains peuvent offrir.

Le colloque La Fintech : à la croisée de la finance, du droit, de la technologie et du marketing a fourni des données précieuses sur l’intégration des technologies avancées dans le secteur financier.

En mettant en avant l’importance d’un encadrement approprié et adapté, de standards déontologiques élevés, et de la formation continue, l’événement a ouvert la voie à une meilleure compréhension des enjeux et des opportunités que présente l’intégration de l’IA.

__________

1. 2024 BCSC 285 (CanLII) | Zhang v Chen | CanLII