Приложение Cloud Vision от Google больше не будет различать мужчин и женщин на фото. Как пояснили разработчики, это связано с тем, что не всегда можно точно установить пол человека по его внешности. Также они ссылаются на правила этикета, заявляя, что определение пола может привести к предвзятости в отношении индивида.
Теперь при определении человека на фотографии искусственный интеллект Google вместо тегов «мужчина» и «женщина» будет использовать слово «персона», являющееся гендерно-нейтральным. Хотя вот Samsung, наоборот, задействовала ИИ для создания виртуальных людей, пол которых вполне различим.
Предвзятость искусственного интеллекта в последнее время стала популярным предметом для обсуждений в технологическом обществе. Так, распространено мнение, что пробелы в его обучении могут провоцировать несправедливые суждения. Например, если у человека, «тренирующего» ИИ, имеются предрассудки, они передадутся и машине. Она тоже будет предвзятой в своих суждениях.
Специалист Mozilla по вопросам предвзятости искусственного интеллекта считает отказ Google от установления половой принадлежности людей на фото позитивным явлением. Однако не всем такое решение пришлось по душе. В том числе один из разработчиков, участвующих в обсуждении новой политики Гугл, высказался на форуме о недопустимости применения политкорректности по отношению к программному интерфейсу. Он также написал, что если человек может с точностью до 99% определить, кто перед ним – мужчина или женщина, то и алгоритм сможет это сделать.
В июле 2019 г. ИИ Google оказался в центре скандала. В результате сбоя пользователи Фейсбука на время перестали видеть фото – вместо них отображались только белые прямоугольники с подписями. Только не пользовательскими, а сгенерированными искусственным интеллектом. Аватарка одного из пользователей была подписана «мужчина, борода», а фото журналистки с ее подругами – «проститутки, на улице». Интересно, что в отличие от машины, экс-министр Пакистана не смог распознать порнозвезд.
В случае же с искусственным интеллектом Facebook отказался давать комментарии, но тот сбой, похоже, подтолкнул Google к тому, чтобы научить свой алгоритм политкорректности.