Le développement rapide de l’intelligence artificielle (IA) transforme progressivement l’ensemble des OBNL, notamment, les entreprises d’économie sociale en aide à domicile (EÉSAD), que nous utiliserons comme exemple.
Longtemps perçue comme une réalité réservée aux grandes entreprises technologiques ou au secteur financier, l’IA touche désormais des fonctions très concrètes : gestion des horaires, recrutement, communications, documentation, cybersécurité, traitement de données, soutien administratif et analyse prédictive.
Pour le réseau des EÉSAD, qui regroupe près de 85 entreprises d’économie sociale offrant plus de 8 millions d’heures de services à près de 110 000 usagers partout au Québec, ces transformations soulèvent des enjeux majeurs de gouvernance, de protection des renseignements personnels et de maintien de la mission humaine des organisations.

Les conseils d’administration des EÉSAD ne peuvent donc plus considérer l’IA comme un simple dossier technologique relevant uniquement des opérations ou des ressources informatiques. L’éthique de l’IA devient progressivement une responsabilité stratégique du CA.
Les EÉSAD : une mission profondément humaine
Les EÉSAD occupent une place unique dans l’écosystème québécois de soutien à domicile. Exploitées à des fins non lucratives, elles sont administrées « par et pour leurs usagers » et ont pour mission d’offrir des services de proximité tout en créant des emplois de qualité dans leurs communautés.
Leur rôle dépasse largement la simple prestation de services domestiques. Elles contribuent :
-
- au maintien à domicile des aînés;
- à la qualité de vie des personnes vulnérables;
- au soutien des proches aidants;
- à la vitalité des régions;
- et à la réduction de la pression sur le réseau public de santé.
Cette dimension humaine est fondamentale. Or, c’est précisément ce qui rend les enjeux éthiques de l’IA particulièrement sensibles dans le contexte des EÉSAD.
L’IA : un outil puissant, mais non neutre
L’une des erreurs les plus fréquentes consiste à croire que l’intelligence artificielle est objective ou neutre.
En réalité, les systèmes d’IA apprennent à partir de données humaines, de statistiques et de modèles algorithmiques qui peuvent contenir :
-
- des biais;
- des erreurs;
- des angles morts;
- ou des logiques incompatibles avec les valeurs de l’économie sociale.
Dans un réseau où les services s’adressent souvent à des personnes âgées, vulnérables ou en perte d’autonomie, les conséquences peuvent devenir importantes.
Une mauvaise utilisation de l’IA pourrait notamment :
-
- compromettre la confidentialité des renseignements personnels;
- introduire des biais dans la gestion des ressources humaines;
- déshumaniser certaines interactions;
- réduire la qualité relationnelle des services;
- ou créer une dépendance excessive envers des systèmes opaques.
Le véritable défi n’est donc pas simplement technologique. Il est profondément éthique.
Le devoir de vigilance du conseil d’administration
Traditionnellement, les CA des EÉSAD surveillent :
-
- les finances;
- les risques organisationnels;
- les ressources humaines;
- la qualité des services;
- et la conformité réglementaire.
Or, l’IA s’inscrit désormais dans chacun de ces domaines. Le rôle du CA n’est évidemment pas de devenir expert en programmation informatique. Sa responsabilité consiste plutôt à :
-
- comprendre les principaux risques;
- poser les bonnes questions;
- exiger des balises;
- protéger la mission;
- préserver la confiance des usagers et des employés.
Autrement dit, l’IA devient un enjeu de gouvernance au même titre que la cybersécurité ou la protection des renseignements personnels.
Cette responsabilité est d’autant plus importante que plusieurs EÉSAD amorcent déjà des démarches de transformation numérique, de mutualisation des services et d’optimisation organisationnelle. Le Réseau des EÉSAD lui-même offre des services d’accompagnement en transformation numérique, gestion du changement et développement organisationnel.
Les grands principes éthiques que le CA devrait surveiller
1. La primauté de la mission humaine
Le premier principe devrait être simple : l’IA doit soutenir les humains, et non remplacer l’humanité des services.
Les EÉSAD ne sont pas des plateformes technologiques. Elles sont des organisations de proximité fondées sur la relation humaine, la confiance et l’accompagnement.
Le CA doit donc s’assurer que :
-
- les outils numériques respectent les valeurs de l’organisation;
- les gains d’efficacité ne détériorent pas la qualité relationnelle;
- et les personnes demeurent au centre des décisions.
Dans un contexte de vieillissement accéléré de la population québécoise, cet équilibre devient essentiel.
2. La protection des renseignements personnels
Les EÉSAD détiennent des informations extrêmement sensibles :
-
- données de santé;
- habitudes de vie;
- informations familiales;
- coordonnées personnelles;
- données financières;
- situations psychosociales.
Or, plusieurs outils d’IA générative gratuits utilisent les informations saisies afin d’améliorer leurs modèles. Un employé bien intentionné pourrait donc, sans le vouloir, exposer des données confidentielles dans un système externe.
Le CA devrait ainsi exiger :
-
- une politique claire sur l’utilisation de l’IA;
- des formations minimales pour les employés;
- des règles précises concernant les données pouvant être utilisées;
- un encadrement conforme à la Loi 25;
- et une coordination étroite avec les pratiques de cybersécurité.
Aujourd’hui, protection des données et gouvernance de l’IA deviennent pratiquement indissociables.
3. La transparence des décisions
Les administrateurs devraient également se préoccuper de la transparence des systèmes utilisés. Si des outils algorithmiques influencent :
-
- la planification des horaires;
- la gestion des ressources humaines;
- le recrutement;
- la priorisation de certains services;
- ou l’évaluation de performance,
le CA doit être capable de comprendre :
-
- quelles données alimentent les systèmes;
- quelles logiques sont utilisées;
- quels biais pourraient exister;
- et qui demeure responsable des décisions finales.
Une organisation ne peut déléguer sa responsabilité morale à un algorithme.
4. La confiance comme actif stratégique
Les EÉSAD reposent largement sur un capital invisible mais essentiel : la confiance.
Confiance des usagers.
Confiance des familles.
Confiance des employés.
Confiance des partenaires publics.
Confiance des communautés.
Cette confiance peut être rapidement fragilisée si les organisations donnent l’impression :
-
- de remplacer l’écoute humaine par l’automatisation;
- de surveiller excessivement les employés;
- d’utiliser des systèmes opaques;
- ou de manipuler les données sans consentement clair.
Le CA doit donc adopter une posture proactive de transparence et de prudence. En gouvernance, la perception publique compte souvent autant que la conformité technique.
Les questions que les administrateurs devraient maintenant poser
Dans les prochaines années, les membres des conseils d’administration des EÉSAD devront apprendre à poser de nouvelles questions stratégiques :
-
- Utilisons-nous déjà des outils d’IA sans encadrement formel ?
- Qui approuve ces outils ?
- Nos employés connaissent-ils les limites d’utilisation ?
- Avons-nous évalué les risques de confidentialité ?
- Les membres du CA possèdent-ils une compréhension minimale des enjeux ?
- Notre transformation numérique respecte-t-elle notre mission sociale ?
- Sommes-nous capables d’expliquer une décision influencée par un système algorithmique ?
Ces questions deviendront progressivement aussi importantes que celles liées aux finances ou aux ressources humaines.
Un avantage naturel des EÉSAD : leurs valeurs coopératives et communautaires
Paradoxalement, le réseau des EÉSAD possède un avantage important dans cette transition. Pourquoi?
Parce que les EÉSAD reposent déjà sur :
-
- des valeurs de solidarité;
- une gouvernance participative;
- une proximité avec les communautés;
- une culture de responsabilité collective;
- et une mission sociale profondément enracinée.
Le Réseau des EÉSAD rappelle d’ailleurs régulièrement que le soutien à domicile ne doit pas devenir une simple logique marchande, mais demeurer un service humain ancré dans les communautés. Cette culture constitue probablement le meilleur rempart contre une dérive purement technocratique de l’intelligence artificielle.
Conclusion : préserver l’âme des organisations dans un monde numérique
L’intelligence artificielle offre des possibilités réelles :
-
- améliorer certaines opérations;
- alléger des tâches administratives;
- soutenir la planification;
- faciliter le recrutement;
- ou optimiser certains processus.
Mais dans le réseau des EÉSAD, la véritable valeur de l’organisation ne se mesure pas uniquement en efficacité. Elle repose avant tout sur :
-
- la dignité des personnes;
- la qualité des relations humaines;
- la confiance;
- la proximité;
- la solidarité;
- et la capacité de permettre aux citoyens de vieillir chez eux, dans leur communauté.
Le défi des conseils d’administration ne sera donc pas simplement d’intégrer l’IA. Il sera surtout de préserver l’âme des organisations dans un environnement technologique en transformation rapide.
Et c’est précisément là que la gouvernance retrouve toute sa pertinence.



















