Инструмент Google под названием Cloud Vision, призванный определять объекты и одушевленных существ на фотографиях, больше не будет использовать гендерные тэги «мужчина» и «женщина», сообщает Business Insider.
В электронном письме, адресованном разработчикам, использующим Cloud Vision, Google заявила, что
отныне искусственный интеллект при выявлении человека будет использовать тэг «персона», который является гендерно-нейтральным.
В Google уточнили, что определить гендер человека только по внешнему виду не представляется возможным. Кроме того, компания сослалась на собственный этикет, подчеркнув, что выявление пола человека по фотографии может привести к предвзятости в отношении того или иного индивида.
Business Insider протестировал инструмент после добавления изменений и выяснил, что искусственный интеллект действительно называет всех людей на снимках исключительно «персонами».
Предвзятость искусственного интеллекта широко обсуждается в современном технологическом обществе, которое указывает, что пробелы в обучении ИИ могут приводить к несправедливым суждениям.
Условно, если человек, «тренирующий» искусственный интеллект, имеет некоторые предрассудки, они передадутся и машине, которая не сможет судить непредвзято.
Специалист Mozilla по вопросам предвзятости ИИ Фредерика Кальтхойнер назвала решение Google отказаться от определения гендера по фото «очень позитивным».
«Каждый раз, когда вы пытаетесь автоматически классифицировать людей по полу или же сексуальной ориентации, вам необходимо решить, по каким факторам вы это определяете, что порождает большое количество допущений. Сортировка людей как мужчин и как женщин предполагает, что гендеров всего два. Любой, кто не подходит ни под один из них, автоматически не проходит классифицирование. Так что речь идет не только о предвзятости — пол человека не может быть определен по внешнему виду. Любая система ИИ, которая будет пытаться сделать это, неизбежно потерпит крах», — сообщила Кальтхойнер.
Известно, что не все восприняли нововведение с радостью. Так, один из разработчиков, участвующих в обсуждении новой политики Google на интернет-форуме, пожаловался на то, что она вызвана «политкорректностью».
«Я не считаю, что политкорректность применима к программным интерфейсам. Если я могу с 99% точностью определить, женщина передо мной или мужчина, то и алгоритм справится. Не хотите так делать? Можно найти другие сервисы», — заявил специалист.