abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb

Эта страница недоступна на Русский и отображается на English

Ответ компании

9 Июл 2018

Автор:
HireVue

HireVue response re hiring & algorithmic bias

The HireVue team has always been deeply committed to an ethical, rigorous, and ongoing process of testing for and preventing bias in HireVue Assessments models (or algorithms). We are aware that whenever AI algorithms are created, there is a potential for bias to be inherited from humans. This is a vitally important issue and technology vendors mustmeticulously work to prevent and test for bias before an AI-driven technology is ever put to use... 

When HireVue creates an assessment model or algorithm, a primary focus of the development and testing process is testing for bias in input data that will be used during development of the algorithm or model. The HireVue team carefully tests for potential bias against specific groups before, during, and after the development of a model. No model is deployed until such testing has been done and any factors contributing to bias have been removed. Testing continues to be performed as part of an ongoing process of prevention. HireVue data scientists have created an industry-leading process in this emerging area of AI-driven technology, and have presented that process and other best practices to their colleagues at international conferences on artificial intelligence.



Это ответ на

Facial analysis technology often recreates racial & gender bias, says expert

История 9 Июл 2018

Хронология

Информация о конфиденциальности

Этот сайт использует cookie и другие технологии веб-хранения. Вы можете указать свои параметры конфиденциальности ниже. Изменения вступят в силу немедленно.

Для получения дополнительной информации о нашем использовании веб-хранилища, пожалуйста, обратитесь к нашему Политика использования данных и файлов cookie

Strictly necessary storage

ON
OFF

Necessary storage enables core site functionality. This site cannot function without it, so it can only be disabled by changing settings in your browser.

Аналитические файлы cookie

ON
OFF

Когда вы заходите на наш веб-сайт, мы используем Google Analytics для сбора информации о вашем посещении. Принятие этого файла cookie позволит нам получить более подробную информацию о вашей навигации на сайте и улучшить то, как мы отображаем информацию. Вся аналитическая информация является анонимной, и мы не используем ее для вашей идентификации. Google предоставляет opt-out Google Analytics для всех популярных браузеров.

Рекламные файлы cookies

ON
OFF

Мы делимся новостями о бизнесе и правах человека через платформы третьих сторон, включая социальные сети и поисковые системы. Эти файлы cookie помогают нам понять эффективность этих реклам.

Ваши настройки конфиденциальности для этого сайта

Этот сайт использует файлы cookie и другие технологии веб-хранения, чтобы улучшить ваш опыт, помимо работы необходимых основных функций.