Google supprime les étiquettes de genre de la reconnaissance d’image pour réduire les biais

Google n’identifiera plus les personnes par sexe dans son IA de reconnaissance d’image, en supprimant les étiquettes telles que «homme» et «femme» des photos de personnes. Au lieu de cela, chaque individu sera désormais classé comme une «personne», selon un e-mail de l’entreprise vu par Business Insider.

Les modifications seront introduites dans API Vision de Google Cloud, que les développeurs peuvent utiliser pour ajouter des étiquettes aux images, puis les classer en catégories prédéfinies.

Dans un e-mail aux développeurs, Google a cité deux raisons à ces changements: il est impossible de déduire le sexe d’une personne par son apparence, et tenter de le faire pourrait perpétuer des biais injustes.

Journaliste Sriram Sharma a partagé une capture d’écran de l’e-mail:

Google a ajouté que la suppression des étiquettes alignées sur la seconde de ses Les principes de l’intelligence artificielle chez Google: Éviter de créer ou de renforcer des préjugés injustes.

Les systèmes de reconnaissance d’image ont une tendance unique à le faire.

Dans une étude, les chercheurs ont trouvé que les algorithmes formés sur un ensemble de données délibérément biaisé d’images liées à la cuisine, dans lesquelles les femmes étaient 33% plus susceptibles d’apparaître, devenaient 68% plus susceptibles de prédire qu’une femme cuisinait – même lorsque l’image était d’un homme chauve dans une cuisine . Systèmes de reconnaissance d’images également transgenres et non binaires régulièrement

[Lis:[Read:La reconnaissance faciale automatisée enfreint le RGPD, déclare le chef numérique de l’UE]

Tout le monde ne sera pas d’accord avec la décision de Google de supprimer les libellés sexués des images. Business Insider note qu’un développeur a accusé Google de prioriser l’exactitude politique sur la qualité des produits.

Mais cette décision réduira au moins une zone de biais de l’IA.

Comme lingénieur et programmeur Angus B. Grieve-Smith expliqué sur Twitter: “Chaque fois que vous classez automatiquement des personnes, que ce soit leur sexe ou leur orientation sexuelle, vous devez décider quelles catégories vous utilisez en premier lieu – et cela vient avec beaucoup d’hypothèses.”


Vous êtes ici parce que vous voulez en savoir plus sur l’intelligence artificielle. Nous aussi. Cet été, nous amenons Neural à TNW Conference 2020, où nous accueillerons un programme dynamique dédié exclusivement à l’IA. Avec des discours prononcés par des experts d’entreprises comme Spotify et RSA, notre piste Neural plongera en profondeur dans les nouvelles innovations, les problèmes éthiques et la façon dont l’IA peut transformer les entreprises. Obtenez votre billet pour le lève-tôt et consultez l’intégralité de la piste Neural.

Publié le 20 février 2020-17: 34 UTC



Source

A propos admin

Découvrez également

Comment utiliser la nouvelle fonctionnalité «Continuer le fil» de Twitter

Bienvenue à TNW Basics, une collection d’astuces, de guides et de conseils pour tirer le …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *