Медвежья услуга искусственного интеллекта
Дискриминация стара как человечество. Воспитание и законодательство могут смягчить ее последствия, но не устраняют полностью. Искусственный интеллект казался той возможностью, которая избавит процесс принятия решений от человеческой предвзятости. Но чуда не случилось. ИИ не спас нас от необъективности, а сам стал следовать стереотипам.
Примеры предвзятости алгоритмов не так редки, как может показаться. При поисковом запросе программа LinkedIn автоматически предлагает заменить женское имя на мужское, даже если оно написано правильно, и на сайте существуют тысячи подходящих профилей. Программы Amazon автоматически исключили районы с преимущественно чернокожим населением из зоны доставки. Программа Compas, которую использовал американский суд для оценки риска рецидивов, безосновательно маркировала чернокожих заключенных как склонных к повторным правонарушениям почти в два раза чаще, чем белых.
Инструменты распознавания лиц, особенно важные при раскрытии преступлений, также вызывают вопросы, поскольку они не учитывают разнообразие рас. Программы имеют проблемы с распознаванием чернокожих, потому что алгоритмы обычно пишутся белыми инженерами. Создавая алгоритмы, кодировщик фокусируется на чертах лица, которые наиболее заметны в одной расе, но не в другой. Полученный код ориентирован на белокожие лица, а на чернокожих работает некорректно.
В то же время, белокожие лица заполнили не все технологическое пространство — азиатские также хорошо представлены. Но это не расширяет круг разнообразия настолько, чтобы решить проблему. Технология все еще работает неправильно. Исследование Национального института стандартов и технологий показало, что программное обеспечение для распознавания лиц наиболее точно работает на азиатских лицах, если оно создавалось в азиатских странах. Это еще раз подтверждает, что раса того, кто создает программу, влияет на ее работу.
Мусор на входе, мусор на выходе
Компьютеры не становятся предвзятыми сами по себе. Они учатся этому у человека. Компьютер наблюдает за людьми и делает выводы на основе закономерностей нашей реальности. Программа, предназначенная для изучения отношений между словами, обучалась по миллионам страниц текста из интернета. ИИ начал объединять женские имена и местоимения с обозначениями профессий, например, со словом «медсестра». Результаты программы отразили реальную гендерную разбивку должностей с точностью почти 90%. Чат-бот Tay, предназначенный для невинного подшучивания в Твиттере, пришлось заблокировать после того, как он начал распространять расистские и сексистские оскорбления, научившись этому у пользователей интернета.
В одном из твитов ИИ обвинил США в терактах 11 сентября: «Буш в ответе за 9/11, и Гитлер был бы намного лучше обезьяны, которая сейчас возглавляет страну. Дональд Трамп — наша единственная надежда».
В науке о данных есть поговорка: «мусор на входе — мусор на выходе». Если мы скармливаем компьютерным программам данные, которые отражают наши предрассудки, они начинают их повторять. Майнар Мазумдар, главный специалист по исследованиям Nielsen, считает, что в предвзятости ИИ виноват не алгоритм, а данные: «Вместо алгоритмов нам нужно сосредоточиться на разработке и сборе высококачественных и контекстных данных». Алгоритмы хороши ровно настолько, насколько хороши данные. Например, если слово было неправильно написано в обучающих файлах, то программа увековечит эту ошибку. Точно так же результаты работы ИИ объективны настолько, насколько объективны данные, на которых было основано машинное обучение.
Перепроверка и еще раз перепроверка
Робототехник Ноэль Шарки считает, что алгоритмы настолько «заражены предубеждениями», что на данном этапе развития им вообще нельзя доверять. Он утверждает, что разговаривал с крупнейшими мировыми социальными сетями и компьютерными корпорациями, такими как Google и Microsoft, о предвзятости ИИ: «Они знают, что это проблема, и они пытались найти решение в течение последних нескольких лет, но пока ничего не вышло». Шарки предложил тестировать машины, принимающие решения, аналогично тому, как тщательно проверяются новые фармацевтические препараты, прежде чем они выйдут на рынок.
Институт Тьюринга предложил программу, которая отслеживает, что повлияло на алгоритмические решения: был бы результат таким же, если бы человек был белокожим, или старше, или жил в другом месте? Но все же некоторые исследователи считают невозможным объединить различные определения справедливости и функционал компьютера. На данном этапе развития искусственного интеллекта мы не можем полностью ему довериться. Технология, устремленная в будущее, не может работать корректно, пока на нее давят наши проблемы прошлого.