Подпишитесь на нас:

ITREACTOR

Исследование правительства США обнаружило расовую предвзятость в системах распознавания лиц

Новости

Исследование правительства США обнаружило расовую предвзятость в системах распознавания лиц

Согласно опубликованному в четверг исследованию правительства США, многие системы распознавания лиц ошибочно распознают цветных людей чаще, чем белых людей, что может усилить скептицизм в отношении технологий, широко используемых правоохранительными органами.

Исследование, проведенное Национальным институтом стандартов и технологий (NIST), показало, что при поиске в базе данных определенного типа, известной как сопоставление «один к одному», многие алгоритмы распознавания лиц ошибочно идентифицируют лица афроамериканцев и азиатов от 10 до 100 раз  чаще, чем кавказские лица.

Исследование также показало, что афроамериканские женщины с большей вероятностью могут быть неверно идентифицированы при сопоставлении «один ко многим», что может быть использовано для идентификации лица, представляющего интерес в уголовном расследовании.

В то время как некоторые компании преуменьшали ранее полученные данные о предвзятости в технологии, которая может угадать пол человека, известное как «анализ лица», исследование NIST было доказательством того, что сопоставление лиц сталкивалось и с демографическими проблемами.

Джой Буоламвини, основатель Лиги алгоритмического правосудия, назвал доклад «всеобъемлющим опровержением» утверждений о том, что смещение искусственного интеллекта (ИИ) больше не является проблемой. Исследование проводится в период растущего недовольства технологией в Соединенных Штатах, и критики предупреждают, что это может привести к несправедливым преследованиям или арестам. Для отчета NIST протестировал 189 алгоритмов от 99 разработчиков, исключая такие компании, как Amazon, которые ничего не представили для проверки.

В китайском AI стартапе SenseTime, оцененном в более чем 7,5 миллиардов долларов, в одном из тестов NIST «высокие показатели ложных совпадений для всех сравнений». Yitu, еще один AI стартап из Китая, был более точным и имел небольшой расовый перекос. У Microsoft было почти в 10 раз больше ложных срабатываний для цветных женщин, чем для цветных мужчин, в некоторых случаях во время теста «один ко многим».

Читайте также:  Intel работает над складным телефоном с 3 дисплеями

Председатель Конгресса Бенни Томпсон, председатель комитета Палаты представителей по национальной безопасности США, сказал, что результаты предвзятости были хуже, чем опасались, в то время, когда таможенные чиновники добавляли распознавание лиц на контрольно-пропускные пункты.

Комментарии

Больше в разделе Новости

Вверх