Boîte à outils
Grille de réflexivité portant sur les enjeux éthiques des systèmes d’intelligence artificielle (SIA)
Cette grille de réflexivité, conçue par les membres de la communauté scientifique de l’OBVIA, est un outil visant à aider les professionnels de l’IA et les décideurs à réfléchir aux implications éthiques des systèmes d’IA et à concevoir des solutions éthiques. Elle est basée sur les dix principes de la Déclaration de Montréal et s’inspire…
Lire la suiteGuide des principes d’innovation et d’intelligence artificielle responsables en santé
Le Guide des principes d’innovation et d’intelligence artificielle responsables en santé, lancé en mars 2022 par le Centre hospitalier de l’Université de Montréal (CHUM), est un outil visant à guider les développeurs et les utilisateurs de technologies d’intelligence artificielle (IA) dans le domaine de la santé. Le guide est basé sur les dix principes éthiques…
Lire la suitePenser l’intelligence artificielle responsable: un guide de délibération
Conçu par Algora Lab et l’OBVIA, en partenariat avec CIFAR, ce guide vise à fournir aux participants les outils nécessaires pour participer aux débats publics sur l’intelligence artificielle (IA). Il a pour vocation de rendre plus accessibles les notions liées à l’IA et à ses enjeux éthiques, et représente une porte d’entrée à la délibération…
Lire la suiteOutil d’évaluation algorithmique (Gouvernement du Canada)
École de l’intelligence artificielle en santé du CHUM
Pratiques professionnelles, IA et santé – Prototype de code de déontologie
Soutenir l’encadrement des pratiques professionnelles en matière d’intelligence artificielle dans le secteur de la santé et des relations humainesProposition d’un prototype de code de déontologie 26 janvier 2023 Les chercheurs Marco Laverdière et Catherine Régis publient un outil visant à soutenir une utilisation responsable et adaptée de l’IA dans les pratiques professionnelles du secteur de…
Lire la suite