abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb
Article

3 Jul 2018

Auteur:
Morgane Tual, Le Monde (France)

Intelligence artificielle : « Microsoft ne veut pas fournir d’outils qui pourraient violer les droits de l’homme »

Voir tous les tags

Eric Horvitz, le directeur du centre de recherche de [Microsoft], répond aux questions éthiques imposées par les récents progrès de l’intelligence artificielle.

...Microsoft réfléchit aux questions d’éthique...nous avons créé sept comités, comme celui sur les « utilisations sensibles de l’IA », un autre sur « biais et équité », un troisième sur la « collaboration humain-IA »...

...Microsoft ne veut pas prendre le risque de fournir des outils qui pourraient servir à violer les droits de l’homme...nous réfléchissons à fournir des produits aux capacités limitées, dépourvues, par exemple, des technologies de reconnaissance faciale permettant d’identifier le genre ou la couleur de peau.

... Nous sommes très soucieux de l’application qui pourrait être faite de la reconnaissance faciale en termes de surveillance.

...Certaines personnes... appellent les Etats à réguler l’IA...Mon point de vue personnel, c’est que la régulation, si elle est mal faite, peut nuire à l’innovation. Mais elle peut aussi la stimuler. Par exemple, j’aime beaucoup l’idée que l’IA puisse être utilisée pour sauver des vies, notamment en évitant les erreurs humaines.