28 февраля, воскресенье
  • Justs,
  • Skaidra,
  • Skaidrīte,
  • Анисим,
  • Евсей,
  • Ефросинья
Гороскоп
Опросы
Подписка
Поиск ПоискRSSFacebook Youtube InstagramЛента новостей


Гороскоп Опросы Погода
Подписка Конкурс сочинений Люблю! Люблю! Reklama.lv Reklama.lv telegraf.bb.lv Telegraf Программа Программа Видео Видео Facebook Facebook Instagram Instagram Google News Google News

Искусственный интеллект оказался расистом и сексистом

Размер текста Aa Aa
Lifenews / Интересно
BB.LV 13:30, 24 января, 2021

Искусственный интеллект начали использовать для принятия важных решений, чтобы исключить человеческую необъективность. Ирония в том, что компьютер только усилил наши стереотипы. ИИ начал делить людей на хороших и плохих, основываясь на гендерных, расовых и других предрассудках. Но почему компьютер стал предвзятым и что нам с этим делать?



Медвежья услуга искусственного интеллекта

Дискриминация стара как человечество. Воспитание и законодательство могут смягчить ее последствия, но не устраняют полностью. Искусственный интеллект казался той возможностью, которая избавит процесс принятия решений от человеческой предвзятости. Но чуда не случилось. ИИ не спас нас от необъективности, а сам стал следовать стереотипам.

Примеры предвзятости алгоритмов не так редки, как может показаться. При поисковом запросе программа LinkedIn автоматически предлагает заменить женское имя на мужское, даже если оно написано правильно, и на сайте существуют тысячи подходящих профилей. Программы Amazon автоматически исключили районы с преимущественно чернокожим населением из зоны доставки. Программа Compas, которую использовал американский суд для оценки риска рецидивов, безосновательно маркировала чернокожих заключенных как склонных к повторным правонарушениям почти в два раза чаще, чем белых.

Инструменты распознавания лиц, особенно важные при раскрытии преступлений, также вызывают вопросы, поскольку они не учитывают разнообразие рас. Программы имеют проблемы с распознаванием чернокожих, потому что алгоритмы обычно пишутся белыми инженерами. Создавая алгоритмы, кодировщик фокусируется на чертах лица, которые наиболее заметны в одной расе, но не в другой. Полученный код ориентирован на белокожие лица, а на чернокожих работает некорректно.

В то же время, белокожие лица заполнили не все технологическое пространство — азиатские также хорошо представлены. Но это не расширяет круг разнообразия настолько, чтобы решить проблему. Технология все еще работает неправильно. Исследование Национального института стандартов и технологий показало, что программное обеспечение для распознавания лиц наиболее точно работает на азиатских лицах, если оно создавалось в азиатских странах. Это еще раз подтверждает, что раса того, кто создает программу, влияет на ее работу.

Мусор на входе, мусор на выходе

Компьютеры не становятся предвзятыми сами по себе. Они учатся этому у человека. Компьютер наблюдает за людьми и делает выводы на основе закономерностей нашей реальности. Программа, предназначенная для изучения отношений между словами, обучалась по миллионам страниц текста из интернета. ИИ начал объединять женские имена и местоимения с обозначениями профессий, например, со словом «медсестра». Результаты программы отразили реальную гендерную разбивку должностей с точностью почти 90%. Чат-бот Tay, предназначенный для невинного подшучивания в Твиттере, пришлось заблокировать после того, как он начал распространять расистские и сексистские оскорбления, научившись этому у пользователей интернета.

В одном из твитов ИИ обвинил США в терактах 11 сентября: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».

В науке о данных есть поговорка: «мусор на входе — мусор на выходе». Если мы скармливаем компьютерным программам данные, которые отражают наши предрассудки, они начинают их повторять. Майнар Мазумдар, главный специалист по исследованиям Nielsen, считает, что в предвзятости ИИ виноват не алгоритм, а данные: «Вместо алгоритмов нам нужно сосредоточиться на разработке и сборе высококачественных и контекстных данных». Алгоритмы хороши ровно настолько, насколько хороши данные. Например, если слово было неправильно написано в обучающих файлах, то программа увековечит эту ошибку. Точно так же результаты работы ИИ объективны настолько, насколько объективны данные, на которых было основано машинное обучение.

Перепроверка и еще раз перепроверка

Робототехник Ноэль Шарки считает, что алгоритмы настолько «заражены предубеждениями», что на данном этапе развития им вообще нельзя доверять. Он утверждает, что разговаривал с крупнейшими мировыми социальными сетями и компьютерными корпорациями, такими как Google и Microsoft, о предвзятости ИИ: «Они знают, что это проблема, и они пытались найти решение в течение последних нескольких лет, но пока ничего не вышло». Шарки предложил тестировать машины, принимающие решения, аналогично тому, как тщательно проверяются новые фармацевтические препараты, прежде чем они выйдут на рынок.

Институт Тьюринга предложил программу, которая отслеживает, что повлияло на алгоритмические решения: был бы результат таким же, если бы человек был белокожим, или старше, или жил в другом месте? Но все же некоторые исследователи считают невозможным объединить различные определения справедливости и функционал компьютера. На данном этапе развития искусственного интеллекта мы не можем полностью ему довериться. Технология, устремленная в будущее, не может работать корректно, пока на нее давят наши проблемы прошлого.

Подписывайтесь на Телеграм-канал BB.LV! Заглядывайте на страницу BB.LV на Facebook! И читайте главные новости о Латвии и мире!
Комментарии (0)


Читайте также


Также в категории

Lifenews Эксперт раскрыл простой способ уснуть за 60 секунд

Специалист по интегративной медицине из Университета штата Аризоны, США, раскрыл простой и действенный способ уснуть за 60 секунд. Его рекомендации приводит Daily Mirror.

Lifenews Киркоров готов заплатить латвийскому банку 140 миллионов

Народный артист России и принадлежащая ему фирма «Филипп Киркоров продакшен» задолжали латвийскому банку «ABLV Bank, AS» почти 140 миллионов рублей.

Lifenews Латвийский музыкант показал, как он “дико тусит” с российскими звездами

Латвийский музыкант Маркус Рива, участвующий в российском шоу "Ну-ка, все вместе!" показал, как “дико тусит” с российскими звездами.

Lifenews Анекдоты дня, 27 февраля

Человек, который четыре года провел в летаргическом сне, проснулся, узнал, что сегодня суббота, и решил еще немного поваляться.

Читайте еще

Наша Латвия Конкурс сочинений: Пусть дети говорят!

Уже пятый год подряд в Латвии проходит конкурс сочинений для школьников, пишущих по-русски.

В мире Чехия попросила Путина о поставках российской вакцины от коронавируса
Чехия закупит у России вакцину от коронавируса «Спутник V», соответствующее обращение уже направлено в Москву чешскими властями. Об этом сообщил президент республики Милош Земан. «Если я правильно проинформирован, этот запрос будет удовлетворен», — заявил глава республики.
Спорт Большунов прокомментировал первую победу на чемпионате мира
Российский лыжник Александр Большунов прокомментировал свою победу в скиатлоне на чемпионате мира в немецком Оберстдорфе. Спортсмен признался, что еще до начала гонки понимал, что может выиграть. Россиянин также отметил, что по ходу всей дистанции контролировал ситуацию.
Культпросвет Организаторы «Золотого глобуса» ищут чернокожих людей в команду после протестов

Проводящая премию «Золотой глобус» Голливудская ассоциация иностранной прессы (HFPA) будет привлекать чернокожих членов после того, как подверглась резкой критике. Об этом сообщает Associated Press.