Responsabilités accrues des administrateurs liées au développement de l’IA


Aujourd’hui, je porte à votre attention un article qui montre clairement que l’importance grandissante accordée aux  facteurs ESG, ainsi que l’utilisation exponentielle de l’intelligence artificielle (IA), crée de nouvelles obligations de supervision des risques par le conseil d’administration.

Non seulement les administrateurs doivent-ils se soucier d’avoir la bonne couverture d’assurance responsabilité des administrateurs, mais ils doivent également prendre en compte plusieurs facteurs qui peuvent accroitre leurs responsabilités de supervision des activités clés de l’entreprise ?

L’article qui suit a été publié par Avi  Gesser, Bill Regner et Anna Gressel de la firme juridique Debevoise & Plimpton et édité dans le Forum du Harvard Law School sur la gouvernance corporative.

Je vous invite à lire de larges extraits de la version française de l’article, effectuée par Google, que j’ai corrigée. Ce travail de correction est certainement encore perfectible, mais le résultat est très satisfaisant.

AI Oversight Is Becoming a Board Issue

 

AI Compliance Oversight is Here… and So Are Next-Gen Compliance Officers | Corporate Compliance Insights

 

Alors que de plus en plus d’entreprises adoptent l’intelligence artificielle (IA), les administrateurs de nombreux conseils d’administration commencent à réfléchir à leurs obligations de surveillance. Une partie de cet intérêt est liée à l’intérêt croissant des administrateurs pour les questions environnementales, sociales et de gouvernance (ESG). Il est de plus en plus reconnu que, malgré toutes ses promesses, l’IA peut présenter de graves risques pour la société, notamment l’atteinte à la vie privée, les émissions de carbone et la perpétuation de la discrimination. Mais il y a aussi une base plus traditionnelle à l’intérêt récent des administrateurs d’entreprise pour l’IA : à mesure que la prise de décision algorithmique fait partie de nombreuses fonctions commerciales essentielles, elle crée le type de risques d’entreprise auquel les conseils d’administration doivent prêter attention.

La prévalence de l’IA ressort clairement des récentes dépenses des entreprises. Selon le rapport sur l’indice d’IA 2022 de l’Université de Stanford , les investissements privés dans l’IA en 2021 ont totalisé environ 93,5 milliards de dollars, soit plus du double de l’année précédente. Mais en contrepartie de cette évolution, il y a des risques commerciaux importants. En outre, l’examen public de la reconnaissance faciale, des algorithmes de crédit, des outils d’embauche et d’autres systèmes d’IA crée un risque réglementaire et de réputation substantiel pour les entreprises, en particulier en ce qui concerne les préjugés.

L’IA et l’ESG englobent un large éventail de problèmes d’entreprise, avec des chevauchements considérables, notamment :

Environnemental

À mesure que les modèles d’IA augmentent en taille et en complexité, la puissance de traitement informatique nécessaire augmente également, ce qui peut avoir une empreinte carbone très importante .

Social

Les entreprises qui déploient l’IA pour les décisions d’embauche, de prêt, de logement ou d’assurance doivent envisager des moyens d’évaluer et, si nécessaire, de remédier à la discrimination potentielle associée à ces initiatives. Certaines applications d’IA ont également été critiquées pour avoir exacerbé les inégalités de revenus, déplacé un grand nombre d’emplois, facilité les violations des droits de l’homme et manipulé le comportement des individus.

Gouvernance 

Pour que les programmes d’IA répondent aux exigences réglementaires croissantes, ainsi qu’aux normes éthiques émergentes, les risques décrits ci-dessus doivent être identifiés et atténués par une gouvernance d’entreprise appropriée, y compris des politiques, des procédures, une formation et une surveillance.

Le paysage réglementaire en évolution rapide

Au cours des dernières années, les régulateurs du monde entier ont commencé à adopter des lois ou à fournir des orientations réglementaires sur les systèmes d’IA. La Commission européenne est largement considérée comme à la tête de ces efforts en tentant d’adopter une réglementation complète et intersectorielle sur l’IA . En outre, les régulateurs de Hong Kong, de Singapour, des Pays-Bas et des États-Unis, parmi tant d’autres, se sont exprimés ouvertement sur la nécessité d’une gouvernance d’entreprise appropriée pour faire face aux risques liés à l’IA, y compris les risques liés aux biais, à la dérive des modèles, à la confidentialité, la cybersécurité, la transparence et les défaillances opérationnelles. Une caractéristique notable de plusieurs déclarations réglementaires émergentes, en particulier dans le secteur financier, est leur insistance expresse sur l’importance de la surveillance des risques liés à l’IA au niveau du conseil d’administration. 

Considérations clés pour les conseils d’administration sur l’IA

Par conséquent, pour les entreprises où l’IA est devenue (ou est susceptible de devenir dans un proche avenir) un risque de conformité réglementaire critique, il existe plusieurs problèmes que les administrateurs peuvent souhaiter examiner :

Responsabilité du conseil :

Envisagez d’inclure l’IA comme point périodique à l’ordre du jour du conseil. Comme pour l’ESG, la surveillance de l’IA peut être confiée à l’ensemble du conseil d’administration, à un comité existant ( par exemple , audit ou technologie) ou à un comité nouvellement formé dédié à l’IA. Certaines entreprises ont décidé de confier la responsabilité de l’IA au comité responsable de la cybersécurité. Si le conseil d’administration craint de ne pas disposer de l’expertise nécessaire pour superviser les opportunités et les risques liés à l’IA, il devrait envisager d’ajouter un ou plusieurs administrateurs ayant cette expérience ou de faire en sorte que certains membres du conseil d’administration reçoivent une formation en IA.

Sensibilisation aux utilisations et aux risques critiques de l’IA :

Pensez à vous assurer que les administrateurs sont conscients des systèmes d’IA les plus critiques que l’entreprise utilise, de la nature des données utilisées pour former et exploiter ces systèmes et des risques associés pour l’entreprise (y compris les risques opérationnels, risques réglementaires et de réputation), ainsi que toute mesure prise pour atténuer ces risques.

Comprendre l’allocation des ressources :

Envisagez d’exiger des mises à jour périodiques sur les ressources consacrées au développement et aux opérations de l’IA et sur la quantité de celles-ci consacrées à la conformité réglementaire et à l’atténuation des risques.

Responsabilité de la haute direction :

Envisagez d’attribuer la responsabilité de la gestion des risques liés à l’IA et de la conformité réglementaire (y compris les divulgations des risques réglementaires de l’entreprise liés à l’IA, le cas échéant) à un membre particulier de la direction ou à un comité de direction.

Structures de conformité :

Les conseils d’administration doivent envisager de s’assurer qu’il existe des structures efficaces de conformité et de rapport sur l’IA au niveau de la direction pour faciliter la surveillance du conseil d’administration, ce qui peut inclure des évaluations périodiques des risques liés à l’IA et la surveillance des systèmes d’IA à haut risque, ainsi que des politiques, des procédures, et de la formation. Ces politiques peuvent inclure des procédures pour répondre à un incident matériel lié à l’IA, répondre aux plaintes des dénonciateurs liés à l’IA et gérer les risques pour tous les fournisseurs qui fournissent à l’entreprise des ressources essentielles liées à l’IA.

Briefings du conseil d’administration sur les incidents matériels d’IA :

Les conseils d’administration doivent veiller à être informés de manière appropriée de la réponse de l’entreprise aux incidents graves d’IA et aux impacts connexes, de l’état d’avancement de toute enquête matérielle et de l’efficacité de la réponse de l’entreprise.

Procès-verbaux et documents du conseil :

Les administrateurs doivent s’assurer que leurs activités de surveillance de l’IA, ainsi que les efforts de conformité de la direction, sont bien documentés dans les procès-verbaux du conseil et dans les documents à l’appui.

Conclusion

De nombreux administrateurs peuvent être mal à l’aise avec la responsabilité de surveiller les risques liés à l’IA en raison de leur manque d’expertise dans ce domaine. Mais, comme la SEC l’a clairement indiqué en matière de cybersécurité, les conseils d’administration doivent trouver un moyen d’exercer leurs obligations de surveillance, même dans les domaines techniques, si ces domaines présentent un risque pour l’entreprise, ce qui est déjà le cas pour l’IA dans certaines entreprises. 

Cela ne signifie pas que les administrateurs doivent devenir des experts en IA, ou qu’ils doivent être impliqués dans les opérations quotidiennes d’IA ou la gestion des risques. Mais les administrateurs d’entreprises ayant d’importants programmes d’IA devraient réfléchir à la manière dont ils assureront une surveillance efficace au niveau du conseil d’administration en ce qui concerne les opportunités et les risques croissants présentés par l’IA.

%d blogueueurs aiment cette page :