Чем опасны системы распознавания эмоций и почему их предложили запретить
- Автор
- Дата публикации
- Автор
- 980
Системы распознавания эмоций предложили временно запретить.
Системы распознавания эмоций предложили временно запретить. Об этом говорится в годовом отчете института AI Now в Нью-Йорке. По мнению ученых, технология пока имеет "мало научной основы", поэтому ее не следует использовать в решениях, "которые влияют на жизнь людей".
Несмотря на отсутствие научных доказательств о том, что машины постоянно и правильно распознают эмоции людей, этот рынок уже оценивается в 20 млрд. долларов и быстро растет. Сейчас технология уже используется для оценки претендентов на рабочие места и лиц, подозреваемых в совершении преступлений. Причем системы тестируются и в других областях — например, в гарнитурах VR, чтобы определить эмоциональное состояние спортсменов.
Кроме того, ученые беспокоятся, что технология может усиливать расовое и гендерное неравенство. "Регулирующие органы должны вмешаться, чтобы серьезно ограничить использование систем, а компаниям, занимающимся искусственным интеллектом, следует прекратить его внедрение", — отмечают в AI Now.
В частности, ученые сослалась на недавнее исследование Ассоциации психологов США, в ходе которого в течение двух лет изучалось более тысячи статей по определению эмоций. Они сделали вывод, что для определения эмоций недостаточно проанализировать только лицо человека, а нужно намного больше данных.
"Психологическая ломка": четверть современных подростков зависимы от смартфоновВ своем докладе AI Now призвала правительства и бизнес прекратить использование технологии распознавания лиц до тех пор, пока риски не снизятся, а технология не станет более продвинутой. Компании, которые продвигают такие системы, ученые обвинили в распространении "системного расизма и женоненавистничества".