abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb

Эта страница недоступна на Русский и отображается на English

Отчет

30 Окт 2023

Автор:
Amnesty International

Ethiopia: Amnesty International claims Meta's failure to curb spread of hateful speech exacerbating ethnic conflict against Tigrayan community, incl. co. response

A death sentence for my father: Meta’s contribution to human rights abuses in northern Ethiopia, report recently published by Amnesty International, shows how Meta has once again failed to adequately curb the spread of content advocating hatred and violence, this time targeting Tigrayans during the November 2020 to November 2022 armed conflict in northern Ethiopia.

Amnesty International has previously highlighted Meta’s contribution to human rights violations against the Rohingya in Myanmar and warned against the recurrence of these harms if Meta’s business model and content-shaping algorithms were not fundamentally reformed.

“Three years after its staggering failures in Myanmar, Meta has once again – through its content-shaping algorithms and data-hungry business model – contributed to serious human rights abuses. Even before the outbreak of the conflict in northern Ethiopia, civil society organizations and human rights experts repeatedly warned that Meta risked contributing to violence in the country, and pleaded with the company to take meaningful action,” said Agnès Callamard, Amnesty International’s Secretary General.

Meta’s contribution to human rights abuses

Amnesty International’s research established that Facebook’s algorithmic systems supercharged the spread of harmful rhetoric targeting the Tigrayan community, while the platform’s content moderation systems failed to detect and respond appropriately to such content.

These failures ultimately contributed to the killing of Tigrayan university chemistry Professor Meareg Amare. Amare was killed by a group of men after posts targeting him were posted on Facebook on 3 November 2021.

Хронология

Информация о конфиденциальности

Этот сайт использует cookie и другие технологии веб-хранения. Вы можете указать свои параметры конфиденциальности ниже. Изменения вступят в силу немедленно.

Для получения дополнительной информации о нашем использовании веб-хранилища, пожалуйста, обратитесь к нашему Политика использования данных и файлов cookie

Strictly necessary storage

ON
OFF

Necessary storage enables core site functionality. This site cannot function without it, so it can only be disabled by changing settings in your browser.

Аналитические файлы cookie

ON
OFF

Когда вы заходите на наш веб-сайт, мы используем Google Analytics для сбора информации о вашем посещении. Принятие этого файла cookie позволит нам получить более подробную информацию о вашей навигации на сайте и улучшить то, как мы отображаем информацию. Вся аналитическая информация является анонимной, и мы не используем ее для вашей идентификации. Google предоставляет opt-out Google Analytics для всех популярных браузеров.

Рекламные файлы cookies

ON
OFF

Мы делимся новостями о бизнесе и правах человека через платформы третьих сторон, включая социальные сети и поисковые системы. Эти файлы cookie помогают нам понять эффективность этих реклам.

Ваши настройки конфиденциальности для этого сайта

Этот сайт использует файлы cookie и другие технологии веб-хранения, чтобы улучшить ваш опыт, помимо работы необходимых основных функций.