CONGÉ DE PÂQUES : les bureaux de la ChAD seront fermés du 29 mars au 1ᵉʳ avril 2024.

  • Si vous vivez une problématique en lien avec la fin de période durant le congé de Pâques, veuillez nous écrire à formation@chad.qc.ca, notre équipe pourra vous répondre à son retour à partir du 2 avril. Selon la nature du problème, la ChAD fera le nécessaire pour ne pas vous pénaliser.
  • Si vous êtes certifié et que vous n’avez pas terminé vos obligations de formation continue en date du 31 mars 2024, l’Autorité des marchés financiers communiquera avec vous au début du mois d’avril pour vous indiquer les prochaines étapes.
  • Si vous êtes un dispensateur de formation et que vous n’avez pas saisi toutes les présences des formations données avant le ou au 31 mars, vous avez jusqu’au 4 avril 17 h pour saisir les présences.

 

i
Fermer

Désolé, mais rien ne correspond à votre critère de recherche. Veuillez réessayer avec d'autres mots-clés.

Passer au contenu

L’intelligence artificielle en assurance de dommages

Date de publication : 6 juillet 2021

« Le célèbre physicien Stephen Hawking a un jour déclaré ceci : “Réussir à créer une intelligence artificielle serait la plus grande réalisation dans l’histoire de l’humanité, mais elle pourrait malheureusement être aussi sa dernière, à moins d’apprendre à éviter les risques.” »[1]

L’intelligence artificielle (IA) n’est plus un concept à définir[2]; elle transforme déjà différents domaines de l’industrie de l’assurance de dommages, de la gestion des relations avec les clients à la souscription, en passant par la gestion des sinistres et la prévention. En revanche, l’intégration de l’IA ne se fait pas sans heurts; de plus en plus d’algorithmes pas encore au point sont parfois exploités, comportant ainsi des risques d’erreur, de fiabilité et de sécurité non négligeables pour les consommateurs. Comment l’industrie relèvera-t-elle le défi d’intégrer l’IA de façon responsable afin de minimiser les effets négatifs potentiels et, par conséquent, de maintenir la confiance des assurés? Il s’agit certes d’une responsabilité partagée, des régulateurs, aux assureurs, au rôle des professionnels.

L’intelligence artificielle est définie comme « un ensemble de techniques informatiques d’apprentissage automatique permettant d’accomplir des tâches cognitives plus ou moins générales associées à l’intelligence humaine qui transforme déjà durablement le fonctionnement du secteur de l’assurance »[3].

Les systèmes d’intelligence artificielle (SIA) réfèrent aux systèmes informatiques utilisant des algorithmes d’intelligence artificielle, que ce soit un logiciel, un objet connecté ou un robot[4].

 

 

L’IA en assurance de dommages

L’intelligence artificielle est d’ores et déjà utilisée par certains assureurs. Par ailleurs, « d’ici la fin de 2023, 40 % des assureurs automatiseront leurs processus de réclamation à l’aide des technologies d’intelligence artificielle et des interfaces conversationnelles, ce qui leur permettra d’améliorer leurs délais de réponse, l’efficacité et la personnalisation du service »[5], peut-on lire dans le dernier rapport annuel sur les institutions financières de l’Autorité des marchés financiers.

Le milieu du courtage a aussi emboîté le pas : le Regroupement des cabinets de courtage d’assurance du Québec (RCCAQ) a récemment déployé un agent conversationnel (chatbot) grâce au soutien financier de l’Office québécois de la langue française. « Il s’agit d’une plateforme d’intelligence artificielle unique en français qui répond instantanément aux questions des courtiers liées à la souscription et aux produits d’assurance et qui permet une augmentation de productivité de 15 % des utilisateurs », mentionne Bertrand Rouault, directeur développement des affaires au RCCAQ.  

L’intelligence artificielle pourra certes augmenter la productivité, mais les assureurs pourront également mieux souscrire les risques. Anne-Marie Hubert, associée directrice pour l’est du Canada chez EY, donne  ces exemples : « Avec la télématique, les assureurs pourront identifier si votre fils est un conducteur plus prudent que sa sœur; avec des capteurs satellites, détecter des fuites de gaz plus rapidement ou avec divers objets connectés, prévenir des sinistres. Le potentiel des systèmes d’IA et de l’analyse des données est illimité. »

Si les tentacules de l’IA peuvent s’infiltrer à de multiples niveaux dans l’industrie, cinq domaines clés seront définitivement transformés[6] :

  • Gestion de la relation client : répondre aux questions des clients, les accompagner dans la souscription, leur proposer le meilleur produit qui correspond à leurs besoins, aider les professionnels à conseiller leurs clients.
  • Gestion des sinistres : automatiser l’estimation des dégâts ou l’expertise d’un bien, analyser la situation, les déclarations ou les devis pour l’indemnisation.
  • Fraude : identifier les cas de fraude.
  • Design de produits : segmenter davantage la clientèle pour personnaliser les produits, améliorer la prévision et la souscription du risque, adapter les produits aux comportements des clients ou proposer des assurances au paiement selon l’usage.
  • Prévention : anticiper et prévenir des risques, réagir plus rapidement lors d’un sinistre, prévenir des comportements à risque et limiter la survenance des sinistres.

Le nudging au service de la prévention

Dans le domaine de la prévention, l’intelligence artificielle pourrait non seulement prévoir certains risques, mais les atténuer, voire en éliminer. Depuis déjà quelques années, les assureurs multiplient les initiatives et les outils pour encourager les bons comportements des assurés en vue de réduire les risques de dommages. Cette pratique constitue le nudging.

« Le nudging est un coup de pouce qui permet d’influencer le comportement d’un client pour l’améliorer, explique Nathalie de Marcellis-Warin, présidente-directrice générale de CIRANO et professeure titulaire de mathématiques et de génie industriel à Polytechnique Montréal. Son utilisation devrait toujours s’inscrire dans un esprit d’amélioration de la collectivité. » Elle nomme par exemple : rendre les communautés plus résilientes aux catastrophes naturelles, prévenir des accidents et des dommages ou optimiser l’utilisation de l’énergie. « L’intérêt moral et social doit supplanter l’avantage pécuniaire pour l’assuré », ajoute-t-elle.

De plus, considérant que le recours au nudging requiert une cueillette et une analyse de données sur les comportements ou les habitudes des assurés par le biais d’applications, d’objets connectés ou de capteurs, il faut éviter de l’imposer. « Pour être légitime et pour que le nudging fonctionne, il est nécessaire que l’assuré comprenne, accepte et partage les objectifs proposés par l’assureur, indique Mme de Marcellis-Warin. C’est une condition sine qua non au maintien de la confiance des assurés. » Par ailleurs, le Baromètre CIRANO 2017[7] indiquait que 45 % de la population était prête à partager ses données pour des besoins d’assurance en échange de conseils.  Les assureurs, les cabinets et les professionnels gagnent donc à expliquer davantage les objectifs moraux pour améliorer la situation des assurés ou prévenir un sinistre.

Ils doivent aussi proposer des objets connectés qui garantissent l’anonymat des assurés et la confidentialité de leurs renseignements personnels. « Le nudging devrait être utilisé par l’assureur en guise de statistique pour ajuster ses prédictions et non comme des données permettant d’évaluer le comportement d’un assuré en particulier », précise Mme Hubert. Elle privilégie également la transmission de résultats plutôt que le partage de données brutes : « Le nombre de kilomètres parcourus par le véhicule plutôt que son parcours détaillé », illustre-t-elle. Enfin, il ne devrait pas être utile de transmettre des données en continu; les rendre accessibles pour vérification en cas de sinistre devrait par exemple suffire. 

Dans le cas où le nudging serait utilisé pour évaluer l’utilisation d’un véhicule (télématique) ou d’une résidence (domotique), l’objet connecté devrait prévoir une récompense, comme la modulation à la baisse de la tarification de la prime, ce qui est généralement le cas dans l’industrie. Les agents et les courtiers qui offrent ce type de produit doivent informer les assurés des avantages et des inconvénients d’y adhérer et leur signifier clairement les renseignements qui seront recueillis ainsi que l’utilisation qui en sera faite.

Utilisation des données et protection des renseignements : incompatibles?

Force est de constater que la collecte de renseignements des assurés ne fera qu’augmenter avec l’utilisation de nudging, d’objets connectés et de systèmes d’intelligence artificielle.

Alibaba, une entreprise de commerce électronique chinoise d’envergure semblable à Amazon, a récemment fait un partenariat avec une compagnie d’assurance de dommages afin qu’une protection d’assurance soit proposée aux clients lorsqu’ils acquièrent un bien. « C’est certainement une optimisation du développement d’affaires que de croiser les données de ventes avec les nouveaux besoins du client en matière d’assurance, mais les clients ont-ils accepté de partager ce type d’information ? Et savent-ils seulement que leurs renseignements personnels sont utilisés à cette fin ? », questionne Mme Hubert.

Depuis quelques années, de nombreuses brèches quant à la protection des renseignements personnels ont ébranlé la confiance du public. En effet, près de 90 % des Canadiens se disent « préoccupés par la possibilité que des entreprises ou des organisations utilisent leurs renseignements personnels en ligne pour prendre des décisions à leur sujet »[8], notamment concernant une réclamation d’assurance. À l’échelle de la province, 47 % des Québécois jugent essentiel que le gouvernement fasse de  la protection des données personnelles recueillies par les objets connectés et les programmes d’IA une priorité[9].

Pour concilier l’usage des données et la protection de la vie privée, les assureurs, les cabinets et les professionnels doivent agir de façon responsable. Olivier Blais, expert en science des données et cofondateur de Moov AI, explique qu’« il se crée actuellement une forte pression entre les projets d’hyperpersonnalisation qui sont possibles grâce à l’intelligence artificielle et le respect des données personnelles. Les algorithmes de certains modèles statistiques doivent être ajustés ou repensés complètement. On observe une tendance à vouloir utiliser des données synthétiques similaires aux données collectées qui permettent d’anonymiser les données personnelles originales. Bref, la surveillance des algorithmes ne fait que commencer. »

Par ailleurs, le gouvernement du Québec va moderniser[10] l’encadrement en matière de protection des renseignements personnels. Le projet de loi (PL-64) dans sa forme actuellement proposée imposerait entre autres aux assureurs et aux cabinets de :

  • Réaliser une évaluation des facteurs relatifs à la vie privée pour tout système électronique impliquant la collecte, l’utilisation, la communication, la conservation ou la destruction de renseignements personnels;
  • Identifier un responsable de la protection des renseignements personnels qui veillera notamment à assurer le plus haut niveau de confidentialité des systèmes technologiques qu’elle utilise pour recueillir les renseignements;
  • Préciser les moyens par lesquels les renseignements sont recueillis, le nom du tiers pour qui la collecte est faite et, le cas échéant, la possibilité que les renseignements soient communiqués à l’extérieur du Québec.

Mme Hubert souhaite aussi que le Canada s’inspire des avancées législatives outre-mer pour améliorer l’encadrement et protéger les assurés : « En Europe, la législation quant à la protection des données est plus robuste. Par exemple, le consentement à l’utilisation des données doit être donné pour une fin très précise, l’assuré a le droit de recevoir de l’information quant aux décisions automatisées prises par un algorithme et si l’assuré choisit de ne plus partager ses données, l’assureur devra rééduquer son algorithme sans les données de ce client. » Un projet de loi canadien (C-11) déposé à l’automne 2020 propose d’accorder des droits plus étendus aux individus et d’imposer des obligations plus strictes aux entreprises, notamment en matière de divulgation des incidents et de traitement automatisé des données.

Rappel des obligations des certifiés quant aux renseignements personnels

Outre les systèmes d’IA qui doivent garantir la confidentialité et un contrôle robuste empêchant l’utilisation des données par de tierces parties, la ChAD rappelle l’importance pour les agents, les courtiers et les experts en sinistre de respecter leurs obligations à cet égard.

Lors de la soumission, les agents et les courtiers doivent obtenir le consentement verbal ou écrit du client afin de recueillir et d’utiliser ses renseignements personnels. Son consentement manifeste, libre et éclairé doit être donné à des fins spécifiques et pour une durée déterminée. Votre demande auprès de la personne concernée doit préciser les éléments suivants :

  • L’utilisation qui sera faite de ses renseignements personnels;
  • Les personnes ou entreprises qui y auront accès;
  • L’endroit où sera détenu le dossier;
  • La période de validité du consentement;
  • Les droits d’accès et de rectification aux renseignements personnels à son dossier.

Les experts en sinistre ont les mêmes obligations quant à la cueillette et à l’utilisation des renseignements personnels des assurés. De plus, dans le cadre de leurs enquêtes, s’ils ne peuvent recueillir les renseignements personnels requis auprès de l’assuré, les experts en sinistre doivent obtenir le consentement de ce dernier avant de les recueillir  auprès d’un tiers

Fondements de l’assurance ébranlés

L’assurance repose sur deux piliers fondateurs :

  1. L’aspect aléatoire du risque : le contrat d’assurance est basé sur le principe que ni l’assuré ni l’assureur ne peut prédire si un sinistre surviendra.
  2. La mutualisation du risque : l’assurance fonctionne selon le principe de mutualisation, soit que l’ensemble des primes payées par un groupe d’assurés servent à indemniser les quelques personnes touchées par un sinistre.

Si l’IA a le pouvoir de mieux évaluer certains risques, son utilisation non judicieuse pourrait contribuer à responsabiliser de façon très individuelle certains assurés – hypersegmenter – et, par conséquent, démutualiser les risques. Ainsi, une personne prudente pourrait limiter de nombreux risques et avoir besoin de très peu d’assurance alors qu’une personne moins prudente ou moins avertie pourrait devoir assumer des primes substantielles ou pire, ne pas être en mesure de s’assurer.

« Il faut préserver l’équilibre entre la responsabilité individuelle et la solidarité sociale, puisque les assurés sont aussi vulnérables à la malchance aléatoire d’un sinistre que celle provoquée en partie par un comportement », explique Mme de Marcellis-Warin. Malgré une meilleure connaissance du profil de risque de chaque assuré, l’industrie doit tracer la ligne entre le risque accidentel (brute luck) et celui lié au comportement (option luck[11]) afin de conserver une solidarité des risques propre à l’industrie de l’assurance. « Par conséquent, l’assureur doit demeurer prudent avec l’utilisation des données massives pour prédire les risques associés à un comportement », ajoute-t-elle.

Pour ce faire, une des recommandations de la Déclaration de Montréal[12]  consiste à intégrer ou à conserver un paramètre aléatoire dans les algorithmes afin d’assurer la mutualisation des risques. Daniel Shreiber, chef de la direction de Lemonade, suggérait qu’une mention transparente et obligatoire soit indiquée aux contrats indiquant qu’une portion de la prime subventionne un assuré plus à risque[13].

L’IA doit donc contribuer à améliorer les pratiques, sans se traduire par une hypersegmentation qui nuirait à la confiance du public et à l’industrie.

Éliminer les discriminations

L’assurance est fondée sur une différenciation de certains groupes d’individus. Par exemple, un jeune homme conducteur est considéré comme un facteur de risque accru en assurance automobile. D’ailleurs, les assureurs définissent parfois leur modèle d’affaires sur l’appréciation ou non de risques spécifiques. Or, l’utilisation d’algorithmes pourrait renforcer certaines discriminations involontaires, comme imposer une prime plus élevée à une communauté ethnique. Pour éviter d’alimenter de telles injustices, comment distinguer un facteur de risque et un biais?

« En Europe, une prime d’assurance plus coûteuse pour un jeune homme conducteur est illégale. Il en va de même pour les critères de géolocalisation. Au Québec, les assurés qui habitent un quartier défavorisé paient leur prime plus cher puisqu’il y a un risque élevé de vol comparativement à l’assuré qui a la chance d’habiter un autre quartier. Quels facteurs de risques sont légitimes en assurance et quelles discriminations nous tolérerons ou éliminerons? Il faut y réfléchir collectivement », propose Mme Hubert.

L’ultime objectif est d’exploiter des systèmes d’IA qui ne renforcent pas de biais ou n’en créent pas de nouveaux. Mme de Marcellis-Warin appelle à la vigilance, particulièrement lors du choix de l’échantillon de départ qui entraînera le système : « S’il y a une augmentation des défauts de paiement par certains assurés, l’algorithme va tenir compte de leurs caractéristiques communes afin d’identifier dans le futur les personnes ayant les mêmes caractéristiques, lesquelles se verraient imposer une prime plus élevée. Cela dit, il faut éviter d’utiliser un tel échantillon initial sans quoi on se trouverait à alimenter un algorithme biaisé en amont. »

Il peut sembler difficile de bâtir des algorithmes sans biais alors qu’ils sont entraînés par les humains inévitablement truffés, sans malice, de préjugés, mais il est crucial de demeurer aux aguets afin de mitiger ce genre de dérapage[14].   

La responsabilité du professionnel

« Le métier de l’assurance est un métier de confiance : l’assuré paie un produit en ayant confiance qu’il sera dédommagé si un sinistre survient, explique Mme Hubert. Le client aura confiance si le processus de réclamation est efficace, si les produits sont clairs, s’il comprend les protections qu’il achète, si ses données personnelles sont bien protégées, si les algorithmes utilisés sont compréhensibles. »

Les algorithmes et les facteurs qui influencent les risques et les décisions devraient être compréhensibles afin que le professionnel – ou une personne responsable à laquelle les professionnels ont accès – puisse être en mesure de justifier, dans la mesure du possible, les décisions des systèmes d’IA. Pour que les agents, les courtiers et les experts en sinistre puissent remplir leurs obligations, ils doivent disposer des connaissances appropriées et donc être formés au préalable et en continu. « Nous travaillons fort pour produire une intelligence artificielle “explicable” de façon à permettre aux gens utilisant cette technologie de ne pas se buter à une boîte noire, mais à des décisions qu’ils sont capables de justifier et en lesquelles ils ont confiance, précise Mme de Marcellis-Warin. Cela dit, puisque l’IA se veut supérieure à l’intelligence humaine, on ne pourra certes pas tout expliquer; il faut toutefois être en mesure de prouver que l’algorithme n’a pas été entraîné avec des biais ou qu’il n’en a pas accentués. »

Kathryn Hume, directrice générale chez Borealis AI, abonde dans le sens où l’explicabilité n’est peut-être pas l’objectif à viser. Il importe plutôt d’attester quand un algorithme prend une décision favorable ou défavorable, ou si cette décision se situe dans une zone grise; la confiance envers cette décision deviendrait alors incertaine. Mme Hume précise : « L’explicabilité propre à l’IA n’est pas la même que celle utilisée dans le langage quotidien. Au lieu d’expliquer le pourquoi d’une décision, on cherchera à mesurer la confiance des prédictions de l’algorithme. L’idée consiste à vérifier que l’algorithme fait ce que nous pensons qu’il fait. Et de savoir quand une décision se situe dans une zone inconnue afin de pouvoir fouiller ou explorer davantage les raisons qui expliquent alors la décision. »[15]   

L’assuré doit également savoir quand il traite avec un système automatisé; et à ce moment, si le besoin se fait sentir, qu’il puisse en tout temps communiquer avec un professionnel. Ce dernier devrait être en mesure de justifier les principaux éléments du profil de la personne qui influencent plus particulièrement le changement de tarification ou la décision de l’assureur. S’il n’est pas en mesure d’avoir l’information nécessaire pour donner les renseignements permettant au client de prendre une décision éclairée, il doit l’en aviser.

D’ailleurs, l’intégration des systèmes d’IA dans l’industrie doit absolument s’arrimer avec des formations de base, tant pour ceux qui arrivent dans l’industrie que ceux qui y sont déjà. La formation sera un vecteur important. La Déclaration de Montréal précise notamment que « [de] telles formations doivent alors non seulement permettre d’acquérir les compétences techniques pour savoir utiliser des SIA dans des tâches quotidiennes, mais elles doivent également amener ces professionnels utilisateurs de SIA à en faire un usage responsable en étant sensibilisés aux dimensions éthiques et sociales de cette utilisation »[16].

Enfin, le principe 9 de la Déclaration indique aussi que « seuls des êtres humains peuvent être tenus responsables de décisions issues de recommandations faites par des SIA et des actions qui en découlent »[17], d’où l’importance de bien comprendre l’environnement technologique dans lequel le professionnel certifié évolue.

S’adapter aux changements

Selon Yoshua Bengio, chercheur québécois spécialisé en intelligence artificielle et pionnier de l’apprentissage profond, l’IA comporte des espoirs[18], notamment ceux de libérer plusieurs tâches administratives.

Du même avis, Mme de Marcellis-Warin distingue l’intelligence artificielle et l’intelligence augmentée : « L’intelligence augmentée est l’intelligence artificielle au service de l’humain. Nous n’éviterons pas une transformation des emplois, mais cela doit se faire dans un contexte responsable. Ainsi, les tâches où l’humain n’a pas de valeur ajoutée seront automatisées, alors que celles où son intervention apporte une valeur ajoutée au client demeureront. » L’objectif : améliorer la productivité et les services sans extraire l’humain de l’équation. Par conséquent, si les responsabilités vont se transformer, elles ne vont pas nécessairement disparaître. D’ailleurs, la valeur ajoutée doit être perçue par les clients et les employés, ce qui alimentera la confiance dans toutes les relations.

« Nous devenons une industrie qui utilisera de plus en plus les technologies pour mieux servir les besoins en assurance, mais sans oublier l’humain, les assurés et les professionnels, explique Anne-Marie Poitras, présidente-directrice générale de la ChAD. Il faut donc s’assurer de former une relève et des professionnels qui ont des valeurs éthiques et qui embrassent les changements technologiques. »

Il va sans dire que l’assurance de dommages est un sujet complexe pour les consommateurs et que le conseil des agents et des courtiers ainsi que l’accompagnement des experts en sinistre sont toujours, et seront encore, pertinents pour les années à venir.

7 principes pour une IA responsable

Le rapport « Intelligence artificielle, solidarité et assurances en Europe et au Canada » établit sept principes pour soutenir l’adoption, le développement et l’utilisation de l’intelligence artificielle (IA) de façon éthique et respectueuse envers les assurés.

1. Bien-être : L’IA doit contribuer à accroître le bien-être des assurés, notamment en améliorant leur situation, en limitant des dommages ou en prévenant des sinistres.

2. Solidarité : L’IA ne doit pas démutualiser les risques, voire exclure un assuré au motif d’un niveau de risque trop élevé; il doit maintenir la solidarité entre les assurés. 

3. Responsabilité : L’IA doit contribuer à responsabiliser l’assuré pour prévenir des risques et limiter les dommages. Par ailleurs, l’IA ne doit pas déresponsabiliser le professionnel envers l’assuré.

4. Vie privée : L’IA ne doit pas nuire à la vie privée et à la protection des renseignements personnels.

5.  Autonomie : L’IA doit respecter l’autonomie des assurés et leur volonté à adhérer ou non aux outils technologiques proposés par l’assureur.

6. Transparence et justification : L’IA doit être intelligible et ses recommandations doivent être explicables dans un langage compréhensible et justifiable par les professionnels.

7. Équité : L’IA doit contribuer à une société juste et équitable, notamment en évitant les biais et la discrimination liés aux facteurs de risques.

 

[1] DELOITTE, « Alerte aux administrateurs 2020 – Réimaginer la gouvernance et la surveillance en contexte de perturbations numériques », p. 21.

[2] Lire l’article « Les promesses et les défis de l’intelligence artificielle » de la ChAD pour découvrir les prémisses de l’IA.

[3] OPTIC, « Intelligence artificielle, solidarité et assurances en Europe et au Canada », janvier 2020, p. 6.

[4] Définition tirée de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (2018).

[5] AUTORITÉ DES MARCHÉS FINANCIERS, « Rapport annuel sur les institutions financières 2019 », p. 13.

[6] OPTIC, « Intelligence artificielle, solidarité et assurances en Europe et au Canada », janvier 2020, p. 18.

[7] DE MARCELLIS-WARIN, Nathalie et Ingrid PEIGNER, « Perception des risques au Québec : Baromètre CIRANO 2017 », 1er février 2017.

[8] OPTIC, « Intelligence artificielle, solidarité et assurances en Europe et au Canada », janvier 2020, p. 57.

[9] DE MARCELLIS-WARIN, Nathalie et Ingrid PEIGNER, « Baromètre CIRANO 2018 : Étude de cas sur l’intelligence artificielle », 11 juin 2018.

[10] Au moment d’imprimer, le projet de loi 64 n’était pas adopté.

[11] Concept de partage entre le brute luck et le option luck, notamment expliqué par le juriste américain Ronald Dwokin, tiré du rapport « Intelligence artificielle, solidarité et assurances en Europe et au Canada », p. 29.

[12] Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, 2018.

[13] SHREIBER, Daniel, « IA Can Vanish Bias », 9 décembre 2019.

[14] Exemples d’algorithmes biaisés. 

[15] Pour en savoir plus, visionnez la présentation de Kathryn Hume à 1 :16 :00 à l’événement Intelligence artificielle en mission sociale, le 25 janvier 2018.

[16] Déclaration de Montréal, partie 6 « Les chantiers prioritaires et leurs recommandations pour le développement responsable de l’IA », p. 277.

[17] Déclaration de Montréal, « Pour un développement responsable de l’intelligence artificielle », principe 9.

[18] Conférence « IA en mission social », 25 janvier 2018.