abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb
Article

23 Avr 2020

Auteur:
Clarisse Treilles, ZDNet

France : De grandes entreprises signent une charte pour une intelligence artificielle inclusive

« Des entreprises s'engagent en faveur de l'intelligence artificielle inclusive », 21 avril 2020

Les robots intelligents et la technologie de reconnaissance faciale sont régulièrement cités dans les débats publics autour des biais algorithmiques. L'association Arborus, qui œuvre pour l'égalité entre les femmes et les hommes, s'est penché sur la question et a conçu en collaboration avec Orange, une charte en sept points pour des intelligences artificielles inclusives et ne présentant pas de biais ni de stéréotypes dès sa conception. Six grandes entreprises et une PME internationales font partie des premiers signataires, dont EDF, Danone et Sodexo...

Parmi les principes, la charte mentionne le fait de « promouvoir la mixité et la diversité dans les équipes qui travaillent sur des solutions à base d'intelligence artificielle », ou « s'organiser pour évaluer et réagir à toute forme de discrimination qui pourrait résulter de données biaisées ou stéréotypées »...

La charte conseille aussi de « former pour sensibiliser et responsabiliser les concepteurs, développeurs et tous les acteurs impliqués dans la fabrique de l’IA, aux stéréotypes, aux biais pouvant générer des discriminations » et de « veiller à bien choisir les fournisseurs et les évaluer de manière itérative afin de s’assurer que toute la chaîne de valeur de l’IA soit non discriminatoire »...