Notre projet compte, par le lien étroit que nous avons avec les chercheurs, à intégrer les résultats des travaux qui se poursuivent en matière d’éthique en IA. Nous participerons également aux travaux par des discussions régulières avec les chercheurs et par la publication des constats que nous ferons.
Puisque nous croyons à la mise en action, voici la méthodologie que nous proposons
1. Évaluer les risques liés à la technologie, et ce, pour bien évaluer sa zone d’impact.
(a) Le terme IA est large et il inclut plusieurs types de technologie. D’où l’importance de cerner les impacts des SIA pour limiter l’ampleur des travaux du cadre. Par exemple, une IA de type machine learning pourrait avoir moins d’impact au niveau des principes de participation démocratique.
(b) En parallèle, à cette étape, il est important bien définir et comprendre les objectifs visés, la mission et les valeurs de l’organisation dans lequel il s’inscrit. Ces aspects sont des balises et assureront de maintenir les orientations pour la durée de vie du SIA. Par exemple, au niveau de la fonction publique, il a été établi que l’IA ne devait pas perdre de vue la promotion de l’intérêt public.
2. Analyser l’encadrement existant
L’IA se développe et s’utilise dans des environnements souvent existants et déjà soumis à des encadrements externes et internes. Il est important d’en tenir compte pour assurer l’agilité des organisations.
3. Élaborer la stratégie de conception
Les travaux d’élaboration du cadre peuvent également permettre de développer la compétence éthique des équipes de travail. Il est important d’élaborer une stratégie intégrant les équipes aux travaux de réflexion et d’évaluation des risques. Une telle stratégie permet également d’avoir une évaluation des risques adaptée à la réalité des organisations
4. Identifier et conceptualiser les risques
Les risques à évaluer seront élaborés à partir des enjeux identifiés par divers travaux et adaptés aux systèmes d’IA. Il faudra également s’assurer de les définir, d’identifier leurs causes, leurs conséquences et les moyens de contrôle actuels de manière à ce que les équipes d’évaluation se reconnaissent dans les diverses situations.
5. Analyser et évaluer les risques
Cette étape permet d’identifier les risques les plus importants et ainsi mettre les priorités sur les travaux à entreprendre.
6. Élaborer le plan de mesures d’atténuation
Il s’agit de l’étape la plus importante de la méthodologie puisque le but de la mise en place d’un cadre éthique de développement de l’IA est de diminuer les risques de dérive.
7. Établir le plan de suivi et de surveillance
Cette étape permet d’assurer que les travaux de diminution des risques planifiés d’intègrent dans les opérations de l’organisation et de mesurer les résultats prévus.
8. Rendre compte des résultats
Pour donner confiance aux systèmes d’IA à l’interne et à l’externe, il est important que l’organisation rende compte des travaux entrepris et des résultats obtenus.