ose Пользователи Facebook обвинили алгоритмы ИИ платформы в расизме за то, что нейросеть приняла афроамериканцев на фото за обезьян. Это не единственный случай предвзятого отношения искусственного интеллекта к людям. В чем ранее обвиняли алгоритмы ИИ и в чем причины этого явления? Искусственный интеллект Facebook пометил темнокожих мужчин как «приматов», сообщил Mashable. Об этом сообщили некоторые пользователи социальной сети, просматривающие видеозаписи с афроамериканцами. По их словам, алгоритмы Facebook, которые должны предоставлять пользователям релевантный контент, предложили им продолжить просмотр роликов с «приматами». Сама компания принесла извинения пользователям и назвала ошибку, совершенную ИИ, недопустимой. Причем это не единственный случай, когда нейросети уличали в предвзятости. В 2020 году ученые университета Нью-Йорка установили, что искусственный интеллект от Google, Microsoft и Amazon анализирует фотографии женщин и мужчин по-разному. В ходе тестирования ИИ должен был составить аннотации к 20 официальным фотографиям политических деятелей, размещенным в Twitter. На снимках были десять женщин и десять мужчин. Все мужчины были помечены алгоритмом Google ярлыками «бизнесмен» и «чиновник», а женщин отметили понятиями, связанными с внешностью, например, «волосы», «улыбка» и «шея». Сервисы Amazon и Microsoft продемонстрировали менее очевидную предвзятость, хотя программа Amazon сообщила, что более чем на 99% уверена, что две из десяти женщин-сенаторов были либо «девушками», либо «детьми». У службы Microsoft возникли проблемы с определением пола по фотографиям женщин. Программа назвала женщинами только восемь из десяти участниц исследования, а двух других она пометила как мужчину и «человека другого пола». Таким образом, ученые пришли к выводу, что ИИ необъективен и имеет гендерные предрассудки. Это связано в первую очередь с тем, что на фотографиях, используемых для тренировки алгоритмов зрения ИИ, часто изображены стереотипные ситуации, например, когда женщина стоит у плиты, а мужчина стреляет из оружия. Исследователи AI Multiple утверждают, что такое поведение алгоритмов ИИ — следствие действий его создателей. Дело в том, что при обучении нейросетей специалисты используют неполный или содержащий предубеждения контент. В 2014 году компания Amazon запустила кампанию по подбору персонала с помощью ИИ. Нейросеть должна была рассматривать резюме кандидатов и выносить решение о принятии на работу. Через год специалисты Amazon обнаружили, что новая система рекрутинга ИИ несправедливо оценивает кандидатов и проявляет предвзятость в отношении женщин. Дело в том, что Amazon использовала для обучения нейросети данные, содержащие предрассудки в отношении женщин. Более того, 60% сотрудников компании были мужчинами, поэтому ИИ решил, что кандидаты мужского пола более предпочтительны. В системе здравоохранения также нашлось место для предвзятого ИИ. Алгоритм прогнозирования рисков в области здравоохранения США был разработан для предсказания того, какие пациенты будут нуждаться в дополнительной медицинской помощи. Во время его работы выяснилось, что ИИ давал неправильные результаты — нейросети отдавали предпочтение белым пациентам перед афроамериканцами. Разработчики использовали в качестве обучающего материала расходы предыдущих пациентов на здравоохранение как косвенный показатель медицинских потребностей. Это заставило ИИ думать, что у афроамериканцев нет нужды в дополнительной помощи. Искусственный интеллект действительно способен сделать ошибки, которые для кого-то могут показаться забавными, а для кого-то оскорбительными, сообщил основатель и директор по развитию Promobot Олег Кивокурцев. «Это связано с тем, что нейронные сети, определяющие пол, возраст, настроение, расу человека, тренируются на больших данных и, возможно, эти большие данные могли привести к путанице. К таким ситуациям нужно относиться с понимаем и не принимать близко к сердцу», — заключил эксперт. PS ...а все думаю, нахрен вот это гендерное равенство, переодевания blm... А оно вон чего, михалыч. чтобы ИИ мог обучиться... |
Вы не подключены. Войдите или зарегистрируйтесь
1 Все же это "жжжж" неспроста. Он ненавидит всех, кроме белых мужчин. Что не так с современным ИИ Чт 23 Сен - 10:02
Глазенап©
Гуру
_________________
Будь собой, остальные роли заняты. (с)О.Уайльд
Жизнь понять несложно: дураки умничают, умные дурачатся...
"...я-то завтра протрезвею..."Черчилль
...Политика Запада в отношении России и Китая приведёт к тому, что им останется только гадать, где заканчивается Кремлевская стена и начинается Китайская....
Alpenforum » Альпы » Свободные темы. » Все же это "жжжж" неспроста. Он ненавидит всех, кроме белых мужчин. Что не так с современным ИИ
Похожие темы
» Ну и как теперь пить чашечку кавы в Вене? Украина запретила совершение за границей всех консульских действий в отношении мужчин призывного возраста. МИД Украины запретил совершение за границей всех консульских действий в отношении мужчин
» мнение общества разделилось. для одних история это просто история для массы же история это такая куйня с флагами и статуями ленина и вашингтона
» Вопрос...Почему Путин ненавидит "членов" своей семьи, как и всех остальных россиян.
» Лучшая из всех крепостей — не быть ненавистным своему народу (С) Никколо Макиавелли , а путибл9дей уже ненавидит вся страна !!! ))))
» Мария Захарова презирает всех кроме богатых
» мнение общества разделилось. для одних история это просто история для массы же история это такая куйня с флагами и статуями ленина и вашингтона
» Вопрос...Почему Путин ненавидит "членов" своей семьи, как и всех остальных россиян.
» Лучшая из всех крепостей — не быть ненавистным своему народу (С) Никколо Макиавелли , а путибл9дей уже ненавидит вся страна !!! ))))
» Мария Захарова презирает всех кроме богатых
Права доступа к этому форуму:
Вы можете отвечать на сообщения