Charte éthique du Conseil d’administration face à l’intelligence artificielle


 

Voici un exemple concret de charte éthique qu’un conseil d’administration pourrait mettre en œuvre dans un avenir rapproché.

À tout le moins, le conseil devrait examiner le contenu des articles de la charte proposée afin de se familiariser avec les principaux enjeux liés à l’utilisation de l’intelligence artificielle (IA).

L’article a été rédigé avec l’aide de l’intelligence artificielle, suivi d’une vérification minutieuse du contenu et des références.

SOQUIJ dévoile son cadre éthique pour une utilisation responsable de l'IA | SOQUIJ

Préambule

Le Conseil d’administration reconnaît que l’intelligence artificielle (IA) modifie en profondeur les modes de gouvernance, de décision et de reddition de comptes. Outil de performance, elle peut aussi devenir source de risques éthiques majeurs : biais, atteinte à la vie privée, manipulation de données ou dilution de la responsabilité humaine.

Le présent document établit les principes éthiques fondamentaux qui guideront l’utilisation, la supervision et la gouvernance de l’IA dans toutes les activités de l’organisation. Il s’inscrit dans les valeurs fondatrices du Conseil : intégrité, transparence, responsabilité et respect de la dignité humaine.

Article 1 — Primauté de l’humain

L’intelligence artificielle (IA) est un outil d’aide à la décision, non un substitut à la décision humaine. Le Conseil réaffirme que la responsabilité finale de toute décision demeure entre les mains des administrateurs et des gestionnaires. Aucune application d’IA ne peut, en aucun cas, déléguer ou transférer cette responsabilité à un algorithme.

Article 2 — Transparence et explicabilité

Tout système d’IA utilisé par l’organisation ou ses partenaires doit pouvoir être expliqué et justifié. Les administrateurs exigent la transparence sur les finalités de chaque usage d’IA, la nature des données exploitées et les critères de décision. L’opacité algorithmique n’est pas compatible avec une gouvernance responsable.

Article 3 — Respect des droits fondamentaux

Toute utilisation d’IA doit respecter la vie privée, la protection des données personnelles et les principes de non-discrimination. L’organisation s’engage à respecter la Loi 25 au Québec, qui reprend l’esprit du RGPD européen (Règlement Général sur la Protection des Données) et, le cas échéant, le AI Act européen. Les administrateurs veillent à ce que les technologies employées ne portent atteinte ni à la réputation, ni à la dignité des personnes.

Article 4 — Équité et lutte contre les biais

Le Conseil s’assure que les systèmes d’IA soient soumis à des évaluations de biais et à des audits indépendants lorsque nécessaire. Les algorithmes doivent être entraînés, testés et révisés de manière à garantir l’équité des traitements entre individus, groupes et territoires.

Article 5 — Supervision et gouvernance éthique

Un Comité éthique du numérique et de l’IA est institué par le Conseil. Ce comité évalue les projets et usages d’IA à fort impact, émet des avis sur les risques éthiques et recommande des mesures de mitigation et de formation. Il agit sous l’autorité du CA, en collaboration avec les comités d’audit, de risque et de gouvernance.

Article 6 — Formation et sensibilisation

Les administrateurs ont le devoir de maintenir leurs compétences sur les enjeux éthiques et technologiques. Des formations régulières sont organisées sur les impacts de l’IA sur la gouvernance, la gestion des biais, la cybersécurité et les obligations légales émergentes.

Article 7 — Redevabilité et traçabilité

Toute décision influencée par une IA doit pouvoir être retracée et auditée. L’organisation doit conserver des preuves documentaires permettant d’identifier la source, les données et le raisonnement algorithmique ayant conduit à la recommandation. Le Conseil veille à ce que la traçabilité soit garantie sur toute la chaîne de décision.

Article 8 — Communication et confiance publique

Le Conseil promeut une communication honnête et mesurée sur les capacités de l’IA. Il s’interdit toute affirmation trompeuse visant à faire croire à une autonomie ou une neutralité parfaite des systèmes utilisés. La confiance du public repose sur une communication transparente et vérifiable.

Article 9 — Innovation responsable

Le Conseil encourage l’innovation, mais dans un cadre de prudence et de proportionnalité. Avant tout déploiement de technologies d’IA, un test d’impact éthique doit être réalisé : bénéfices attendus, risques pour les individus et alignement avec les valeurs et la mission de l’organisation.

Article 10 — Révision et amélioration continue

La présente charte fait l’objet d’une évaluation annuelle. Le Conseil peut la réviser à la lumière des avancées réglementaires, des nouvelles pratiques de gouvernance et des leçons tirées de l’expérience. Une version mise à jour est communiquée à tous les dirigeants, employés et partenaires externes.

Engagement solennel

En adoptant la présente charte, les membres du Conseil d’administration s’engagent à promouvoir une utilisation éthique, transparente et responsable de l’intelligence artificielle; à exercer un jugement indépendant face à toute recommandation automatisée; et à incarner les valeurs de confiance, d’équité et de respect humain dans la gouvernance numérique. Eu égard à la loi 25, un CA doit désormais :

    • Nommer formellement le responsable de la protection des renseignements personnels ;
    • Recevoir au moins un rapport annuel sur la conformité et les incidents ;
    • S’assurer que les politiques internes (charte de gouvernance, éthique, RH, TI, IA, fournisseurs) respectent la Loi 25 ;
    • Intégrer les risques de confidentialité au registre de risques organisationnels ;
    • Appuyer la formation du personnel et la sensibilisation à la vie privée.

Pricipales références

Organisation de coopération et de développement économiques (OCDE). (2019, 22 mai). Recommendation of the Council on Artificial Intelligence (OECD/LEGAL/0449). OECD. Disponible à : https://legalinstruments.oecd.org/en/instruments/oecd-legal-0449 OECD+3Instruments juridiques de l’OCDE+3World Employment Confederation+3

Quels sont les Principes de l’OCDE sur l’IA? Éditions OCDE. DOI ou lien : https://doi.org/10.1787/f4b17318-fr OECD


Règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 portant « laying down harmonised rules on artificial intelligence and amending … » (souvent désigné « AI Act »). Journal officiel de l’Union européenne, L 249, 12.7.2024. Disponible à : https://eur-lex.europa.eu/eli/reg/2024/1689/oj/eng EUR-Lex+1


EQS Group. (2025, 16 oct.). Charte éthique : comment l’adapter aux usages de l’IA. Blog Ressources Compliance. Disponible à : https://www.eqs.com/fr/ressources-compliance/blog/charte-ethique-adapter-usages-ia/ EQS Group


Collège des administrateurs de sociétés (CAS).

Les conseils d’administration et l’intelligence artificielle