Moniteur canadien des incidents liés à l’IA

Depuis 2026

Le Moniteur canadien des incidents liés à l’IA (CAIM) est une base de données bilingue d’intérêt public qui documente les incidents et dangers liés à l’IA au Canada. Il structure l’information dispersée sur les défaillances, quasi-incidents et risques émergents en une base de données consultable, citable et accessible par API.

Le CAIM est actuellement en projet pilote. Les dossiers et les évaluations analytiques sont provisoires en attente de révision par les pairs.

Visiter le CAIM ↗

Ce que fait le CAIM


Pourquoi un moniteur

Les moniteurs d’incidents existent dans l’aviation, les dispositifs médicaux et la sécurité chimique, car les défaillances individuelles sont des anecdotes, mais agrégées et structurées, elles deviennent des preuves. Le CAIM applique ce modèle à l’IA au Canada.

Le Canada déploie des systèmes d’IA dans la santé, les services publics, les forces de l’ordre et les infrastructures critiques. Lorsque ces systèmes échouent, l’information est fragmentée entre la couverture médiatique, les dépôts réglementaires, les dossiers judiciaires et la mémoire institutionnelle. Le CAIM consolide cette information en une base de données structurée, bien sourcée et accessible au public.

Il ajoute aussi une profondeur nationale que les moniteurs transnationaux ne peuvent fournir : sources francophones, événements provinciaux et municipaux, systèmes décisionnels automatisés gouvernementaux, cartographie juridictionnelle, et suivi de l’efficacité réelle des réponses de gouvernance.