abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb

Эта страница недоступна на Русский и отображается на English

Статья

5 Окт 2023

Автор:
Chris Stokel-Walker, Fast Company

Researchers find that generative AI tools allegedly have a 'US' bias

"AI image generators like DALL-E and Stable Diffusion have a representation problem" 5 October 2023

The United States accounts for less than 5% of the world’s population. English is spoken by just 17% of the globe. Yet type common words like “house” into an AI image generator like DALL-E or Stable Diffusion, and you’ll be presented with imagery of classic Americana.

That’s a problem, as a new academic paper, presented this week at the IEEE/CVF International Conference on Computer Vision in Paris, France, shows. Danish Pruthi and colleagues at the Indian Institute of Science at Bangalore India analyzed the output of two of the world’s most popular image generators, asking people from 27 different countries to say how representative they thought the images produced were of their environment.

The participants were shown AI-generated images in response to queries asking the tools to produce depictions of houses, flags, weddings, and cities, among others, then asked to rate them. Outside of the United States and India, most people felt that the AI tools outputted imagery that didn’t match their lived experience. Participants’ lack of connection seems understandable: Ask DALL-E or Stable Diffusion to show a flag, and it’ll generate the Stars and Stripes—of little relevance to people in Slovenia or South Africa, two countries where people were surveyed on their responses...

...In part, the problem is one that blights all AI: When it comes to the quality of model outputs, it largely depends on model inputs. And the input data isn’t always very good. ImageNet, one of the main databases of source images used for AI image generators, has long been criticized for racist and sexist labels on images...

...Neither OpenAI, the company behind DALL-E, nor Stability AI, which produces Stable Diffusion, responded to a request for comment...

Информация о конфиденциальности

Этот сайт использует cookie и другие технологии веб-хранения. Вы можете указать свои параметры конфиденциальности ниже. Изменения вступят в силу немедленно.

Для получения дополнительной информации о нашем использовании веб-хранилища, пожалуйста, обратитесь к нашему Политика использования данных и файлов cookie

Strictly necessary storage

ON
OFF

Necessary storage enables core site functionality. This site cannot function without it, so it can only be disabled by changing settings in your browser.

Аналитические файлы cookie

ON
OFF

Когда вы заходите на наш веб-сайт, мы используем Google Analytics для сбора информации о вашем посещении. Принятие этого файла cookie позволит нам получить более подробную информацию о вашей навигации на сайте и улучшить то, как мы отображаем информацию. Вся аналитическая информация является анонимной, и мы не используем ее для вашей идентификации. Google предоставляет opt-out Google Analytics для всех популярных браузеров.

Рекламные файлы cookies

ON
OFF

Мы делимся новостями о бизнесе и правах человека через платформы третьих сторон, включая социальные сети и поисковые системы. Эти файлы cookie помогают нам понять эффективность этих реклам.

Ваши настройки конфиденциальности для этого сайта

Этот сайт использует файлы cookie и другие технологии веб-хранения, чтобы улучшить ваш опыт, помимо работы необходимых основных функций.