Риски распознавания эмоций ИИ очень волнуют ученых и пользователей.

Эта технология не одобрялась специалистами по этике: теперь исследователи надеются разоблачить реальность систем распознавания эмоций, чтобы стимулировать общественные дебаты.

The Guadrian рассказывает, что технологии, предназначенные для выявления человеческих эмоций с помощью алгоритмов машинного обучения, –  огромная отрасль, и разработчики утверждают, что они могут оказаться полезными в бесчисленных ситуациях, от безопасности дорожного движения до исследования рынка. Но критики говорят, что технология не только вызывает озабоченность в отношении конфиденциальности, но и является неточной и предвзятой на расовой почве.

Механика игры

Группа исследователей создала веб-сайт emojify.info, на котором люди могут опробовать системы распознавания эмоций с помощью своих компьютерных камер. 

Одна игра фокусируется на том, чтобы обмануть технологию, в то время как другая исследует, как такие системы могут с трудом распознавать выражения лиц в контексте.

Исследователи говорят, что они надеются повысить осведомленность о технологии и способствовать обсуждению ее использования.

«Это форма распознавания лиц, но она идет дальше, потому что она не просто идентифицирует людей, а утверждает, что считывает наши эмоции, наши внутренние чувства с наших лиц», – сказала доктор Алекса Хагерти, руководитель проекта и исследователь Кембриджского университета в Леверхалм Центре будущего интеллекта и Центре изучения экзистенциального риска.

Технология распознавания лиц, часто используемая для идентификации людей, в последние годы стала предметом пристального внимания. В прошлом году Комиссия по вопросам равноправия и прав человека заявила, что ее использование для массового досмотра следует прекратить, заявив, что это может усилить дискриминацию со стороны полиции и нанести ущерб свободе слова.

Но Хагерти сказала, что многие люди не знали, насколько распространены системы распознавания эмоций, отметив, что они были задействованы в самых разных ситуациях: от приема на работу до работы с клиентами, безопасности в аэропортах и ​​даже обучения, чтобы узнать, заняты ли студенты или делают ли уроки.

По ее словам, такая технология используется во всем мире, от Европы до США и Китая. Taigusys, компания, которая специализируется на системах распознавания эмоций и главный офис которой находится в Шэньчжэне, заявляет, что использовала их в различных условиях, от домов престарелых до тюрем, в то время как, согласно сообщениям ранее в этом году, индийский город Лакхнау планирует использовать систему технология, позволяющая выявлять страдания женщин в результате преследований – шаг, который встретил критику, в том числе со стороны организаций, занимающихся цифровыми правами.

Хотя Хагерти сказала, что технология распознавания эмоций может иметь некоторые потенциальные преимущества, их следует сопоставить с опасениями по поводу точности, расовой предвзятости, а также того, была ли технология правильным инструментом для конкретной работы. «Нам необходимо провести гораздо более широкий общественный разговор и обсудить эти технологии», – сказала она.

Как работает Emogify 

Новый проект emojify.info позволяет пользователям опробовать технологию распознавания эмоций. На сайте отмечается, что «никакие личные данные не собираются, и все изображения хранятся на вашем устройстве». В одной игре пользователям предлагается нарисовать серию лиц, чтобы имитировать эмоции, и посмотреть, обманут ли систему.

«Люди, разрабатывающие эту технологию, утверждают, что она считывает эмоции», – сказала Хагерти. Но, добавила она, на самом деле система считывала движения лица, а затем объединяла это с предположением, что эти движения связаны с эмоциями – например, улыбка означает, что кто-то счастлив.

«Есть много действительно веских научных данных, которые говорят, что это слишком просто; это не совсем так», – сказала Хагерти, добавив, что даже человеческий опыт показал, что можно изобразить улыбку. «Вот чем была эта игра: чтобы показать, что вы шесть раз не изменили свое внутреннее состояние чувств быстро, вы просто изменили то, как вы выглядели [на своем] лице», – пропокомментировала она.

Некоторые исследователи распознавания эмоций говорят, что знают о таких ограничениях. Но Хагерти сказал, что есть надежда на то, что новый проект, который финансируется Nesta (Национальный фонд науки, технологий и искусства), повысит осведомленность о технологии и будет способствовать обсуждению ее использования.

«Я думаю, мы начинаем понимать, что на самом деле мы не являемся« пользователями» технологий, мы граждане в мире, глубоко сформированном технологиями, поэтому нам необходимо иметь такой же демократический, гражданский вклад в эти технологии, как и о других важных вещах в обществе », – сказала она.

Рискованное развитие отрасли 

Видуши Марда, старший программный директор правозащитной организации Article 19 считает, что крайне важно нажать «паузу» на растущем рынке систем распознавания эмоций. «Использование технологий распознавания эмоций вызывает глубокое беспокойство, поскольку эти системы не только основаны на дискриминационной и дискредитированной науке, но и в корне несовместимы с правами человека», – сказала она. «Важным уроком, извлеченным из траектории развития систем распознавания лиц по всему миру, стало то, что мы часто ставили под сомнение обоснованность и потребность в технологиях, и проекты, в которых акцент делается на ограничениях и опасностях распознавания эмоций, являются важным шагом в этом направлении».

Источник: The Guadrian

Читайте гарячі новини та цікаві статті про тренди, бізнес та маркетинг на нашій сторінці в Facebook і LinkedIn, отримуйте миттєву доставку нових статей в Telegram, підписуйтеся на нашу щотижневу email-розсилку та читайте наш серйозний Instagram та Instagram-журнал коміксів про маркетинг, digital-маркетинг, PR, рекламу, HR та бізнес.

Читати більше: