
Mozilla publie son livre blanc, « Creating Trustworthy AI ».
Il y a un peu plus de deux ans, Mozilla a lancé un projet ambitieux visant à déterminer comment orienter nos efforts pour faire croître la communauté des personnes qui souhaitent développer un monde numérique plus sain. C’est ainsi qu’est née l’idée d’une IA digne de confiance.
Quand Mozilla a vu le jour en 1998, le développement du Web définissait l’avenir de l’informatique. Mozilla s’est donc concentré sur la définition des standards du Web et la conception d’un navigateur. Aujourd’hui, l’informatique (et la société numérique au sein de laquelle nous évoluons) est définie par d’énormes quantités de données, des algorithmes sophistiqués et l’omniprésence de capteurs et d’appareils. C’est l’âge de l’IA. De nos jours, demander « Le fonctionnement de cette technologie favorise-t-il l’intervention humaine ? » équivaut à demander « Comment peut-on garantir l’ouverture et la gratuité du Web ? » il y a 20 ans.
Cet âge actuel de l’informatique et la manière dont il façonne les technologies de consommation d’Internet utilisées quotidiennement par plus de 4 milliards d’entre nous présentent des enjeux importants. L’IA est de plus en plus utilisée dans les smartphones, sur les réseaux sociaux et les boutiques en ligne, et dans les voitures, les assistants domestiques et presque tous les appareils électroniques. Au vu de la puissance et de l’omniprésence de ces technologies, la question de la finalité de l’IA (apporter de l’aide et favoriser l’autonomie, ou favoriser l’exploitation et l’exclusion) aura un impact considérable sur la direction prise par nos sociétés au cours des prochaines décennies.
la question de la finalité de l’IA (apporter de l’aide et favoriser l’autonomie, ou favoriser l’exploitation et l’exclusion) aura un impact considérable au cours des prochaines décennies.
~
Il nous serait très facile de prendre la mauvaise direction. Suite à l’intégration précipitée de fonctionnalités de collecte des données et d’automatisation dans presque tous les produits, nous avons déjà constaté que l’IA peut contribuer à renforcer des préjugés enracinés ou à nous conseiller des contenus néfastes. De plus, la transparence et la prise de responsabilités manquent cruellement à l’appel quand un système d’IA propage de fausses informations ou n’identifie pas correctement un visage. Et, en tant qu’individus, nous pouvons rarement contrôler ce qui arrive à nos données ou les décisions automatisées prises par l’IA liées à ces dernières. Si ces phénomènes perdurent, notre monde pourrait se transformer en dystopie appuyée sur l’IA, qui creuserait encore davantage le fossé entre ceux qui ont le pouvoir et ceux qui ne l’ont pas.
Heureusement, de nombreuses personnes attirent l’attention sur ces phénomènes dangereux et affirment qu’une autre manière de procéder est possible. Comme aux débuts de l’open source, un mouvement grandissant, qui rassemble des spécialistes de la technologie, des chercheurs et chercheuses, des responsables politiques, des avocat·e·s et des activistes, œuvre pour que l’avenir de l’informatique soit tourné vers le choix et l’autonomie. Ces personnes développent des logiciels qui détectent la partialité de l’IA. Elles rédigent de nouvelles lois sur la protection des données. Elles inventent des outils pour permettre aux utilisateurs et utilisatrices de prendre le contrôle de leurs données personnelles. Elles fondent des organisations qui militent pour une IA éthique et juste. Et si ce mouvement (dont fait partie Mozilla) arrive à ses fins, nous aurons la possibilité de créer un monde où l’IA aide l’humanité plutôt que de lui nuire.
Ce sont des conversations passionnantes avec des personnes engagées qui ont poussé Mozilla à consacrer les plus de 20 millions de dollars alloués annuellement au plaidoyer pour une IA digne de confiance. Au cours de l’année 2020, nous avons rédigé une étude intitulée « Building Trustworthy AI » (« Concevoir une IA digne de confiance ») afin de consigner les fruits de ces réflexions, qu’il s’agisse de défis à relever ou d’actions à mettre en place. Aujourd’hui, nous publions la version finale de cette étude.
Cette « étude » n’est pas une publication de recherche traditionnelle. Il s’agit plutôt d’un plan d’action qui définit des mesures que Mozilla et d’autres personnes ou organisations partageant le même point de vue peuvent mettre en œuvre pour faire de l’IA digne de confiance une réalité. Nous pouvons impulser ce changement, tout comme nous avons réussi à obtenir une eau plus pure et des voitures plus sûres en mettant en avant les risques pour les individus et la société. Notre étude décrit quel type de code écrire, quels projets financer, quels enjeux aborder et quelles lois promulguer. C’est une véritable trousse à outils pour les spécialistes des technologies, les philanthropes, les activistes et les législateurs et législatrices.
Au cœur de notre étude, nous analysons les huit principaux défis auxquels le monde est confronté en ce qui concerne l’intégration d’IA dans les technologies de consommation d’Internet que nous utilisons au quotidien. Ces sujets incluent notamment : la partialité, la confidentialité, la transparence, la sécurité et la centralisation de la puissance de l’IA entre les mains des géants de la tech. L’étude décrit également quatre possibilités de relever ces défis, centrées sur l’idée que certain·e·s développeurs et développeuses, investisseurs et investisseuses, responsables politiques et membres de la société veulent garantir une utilisation différente et bénéfique de l’IA. Ensemble, nous pouvons coder, traiter des données, écrire des lois et choisir des technologies qui nous poussent dans la bonne direction.
Comme tous les projets d’envergure de Mozilla, cette étude s’est basée sur une démarche open source. Le premier jet que nous avons publié en mai était le fruit de 18 mois de conversations, de recherches et d’expériences. Nous avons invité les internautes à commenter ce premier jet, et la réponse a été formidable. Des personnes et des organisations du monde entier nous ont fait part de leur opinion : groupes polonais de défense des droits numériques, activistes des droits civiques états-unien·e·s, expert·e·s de l’apprentissage automatique en Amérique du Nord, responsables politiques européen·ne·s de haut rang, activistes, écrivain·e·s, créateurs et créatrices, professeur·e·s d’universités Ivy League… Nous avons tenu compte de ces commentaires pour réviser notre étude et en publier une version nettement étoffée. Ces retours nous ont permis de perfectionner nos définitions de « l’IA » et des « technologies de consommation », de donner une place plus importante au racisme dans notre prisme d’analyse et d’inclure plus de diversité en matière de localisation géographique, de race et de genre dans notre étude.
Dans les mois et les années à venir, ce document fera office de ligne directrice pour les efforts de renforcement du mouvement de la Fondation Mozilla, avec un accent sur la recherche, le plaidoyer et l’octroi de subventions. Nous commençons déjà à mettre des actions en œuvre : la campagne de Mozilla au sujet des recommandations YouTube a mis en lumière les problématiques liées à la curation de contenus par l’IA. Le Data Futures Lab et le European AI Fund, que nous développons avec des fondations partenaires, soutiennent des projets et des initiatives du monde entier qui repensent la conception d’une IA digne de confiance. Et les Mozilliennes et bénéficiaires de bourses Mozilla Sylvie Delacroix, Deborah Raj et Neema Iyer étudient comment l’IA interagit avec les sujets de la gouvernance des données, de l’égalité et des discriminations systémiques. Ces travaux passés et présents ont également bénéficié à l’étude en nous permettant d’apprendre par l’expérience.
Nous espérons également que cette étude ouvrira de nouvelles possibilités aux personnes qui conçoivent les technologies que nous utilisons au quotidien. Pendant très longtemps, le fait de concevoir des technologies respectueuses des utilisateurs et utilisatrices signifiait que leurs données n’étaient pas (ou très peu) collectées. Bien que la confidentialité reste une des préoccupations principales de Mozilla et d’autres organisations, nous devons trouver des moyens de protéger et de garantir l’autonomie des utilisateurs et utilisatrices tout en prenant en compte la collecte et l’utilisation des données pour fournir l’expérience désirée. Comme le souligne l’étude, de plus en plus de développeurs et développeuses (y compris nombre de nos collègues de la Mozilla Corporation) ouvrent de nouvelles voies dans cette direction.
Merci pour votre attention. Il me tarde de mener nos prochaines actions, ensemble.