Как ИИ усиливает гендерную предвзятость и что мы можем с этим сделать?
Дата:
Интервью с Зиннией дель Виллар о гендерной предвзятости ИИ и создании инклюзивных технологий
Искусственный интеллект (ИИ) меняет наш мир, но, когда он отражает существующую предвзятость, он может усилить дискриминацию в отношении женщин и девочек. От решений о найме до медицинских диагнозов системы ИИ могут усиливать гендерное неравенство, если обучаются на предвзятых данных. Так как же мы можем гарантировать, что ИИ является этичным и инклюзивным? Зинния дель Виллар, ведущий эксперт по ответственному ИИ, делится мыслями о проблемах и решениях в недавнем разговоре со Структурой «ООН-женщины».

Что такое гендерная предвзятость ИИ и почему она важна?
«Системы ИИ, обучающиеся на данных, наполненных стереотипами, часто отражают и усиливают гендерную предвзятость», — говорит Зинния дель Виллар. «Эти предубеждения могут ограничивать возможности и разнообразие, особенно в таких областях, как принятие решений, найм, одобрение кредитов и юридические решения».
По своей сути искусственный интеллект (ИИ) — это данные. Это набор технологий, которые позволяют компьютерам выполнять сложные задачи быстрее людей. Системы ИИ, такие как модели машинного обучения, учатся выполнять эти задачи на основе данных, на которых они обучены. Когда эти модели полагаются на предвзятые алгоритмы, они могут усиливать существующее неравенство и подпитывать гендерную дискриминацию в ИИ.
Представьте себе обучение машины принятию решений о найме, показывая ей примеры из прошлого. Если большинство этих примеров несут сознательную или бессознательную предвзятость — например, показывая мужчин как ученых, а женщин как медсестер, — ИИ может интерпретировать, что мужчины и женщины лучше подходят для определенных ролей, и принимать предвзятые решения при фильтрации заявок.
Это называется гендерной предвзятостью ИИ — когда ИИ относится к людям по-разному на основе их пола, потому что это то, чему он научился из предвзятых данных, на которых он обучался.
Каковы последствия гендерной предвзятости в приложениях ИИ?
Гендерная предвзятость в ИИ имеет серьезные последствия в реальной жизни.
«В таких критических областях, как здравоохранение, ИИ может больше концентрироваться на мужских симптомах, что приводит к неправильной диагностике или неадекватному лечению женщин», — делится дель Виллар. «Голосовые помощники, использующие женские голоса по умолчанию, усиливают стереотипы о том, что женщины подходят для служебных ролей, а языковые модели, такие как GPT и BERT, часто ассоциируют такие профессии, как «медсестра» с женщинами, а «ученый» — с мужчинами».
Дель Виллар обращается к некоторым примерам гендерной предвзятости ИИ, которые были хорошо задокументированы: в 2018 году сайт Amazon прекратил работу инструмента подбора персонала на основе ИИ, который отдавал предпочтение резюме мужчин. Системы распознавания изображений от компаний испытывали трудности с точной идентификацией женщин, особенно цветных, что приводило к ошибочным идентификациям, которые могут иметь серьезные последствия для правоохранительных органов и общественной безопасности.

Как мы можем уменьшить гендерную предвзятость в системах ИИ?
Искусственный интеллект отражает предрассудки, которые присутствуют в нашем обществе на основе пола, возраста, расы и многих других факторов.
«Чтобы уменьшить гендерную предвзятость в ИИ, крайне важно, чтобы данные, используемые для обучения систем ИИ, были разнообразными и представляли все расы, всех людей и все сообщества», — подчеркивает дель Виллар. «Это означает активный выбор данных, которые отражают различные социальные роли, происхождения и культуры, при этом устраняя исторические предрассудки, которые связывают определенные профессии или черты с одним полом».
«Кроме того, системы ИИ должны создаваться разнообразными командами разработчиков, состоящими из людей разного пола, расы и культурного происхождения. Это помогает привнести разные точки зрения в процесс и уменьшает слепые пятна, которые могут привести к предвзятым системам ИИ».
Осведомленность общественности и образование являются неотъемлемыми частями этой стратегии, добавляет дель Виллар. Помощь людям в понимании того, как работает ИИ, и возможности предвзятости может дать им возможность распознавать и предотвращать предвзятые системы, а также сохранять человеческий надзор за процессами принятия решений.
Как ИИ может помочь выявить гендерную предвзятость и принимать более обоснованные решения?
Хотя данные, генерируемые ИИ, несут в себе риск гендерной предвзятости, они также обладают значительным потенциалом для выявления и устранения гендерного неравенства в разных секторах. Например, ИИ помог проанализировать большие объемы данных, чтобы найти гендерные разрывы в оплате труда среди рабочей силы, с помощью таких инструментов, как Glassdoor, показывающих различия в зарплатах в зависимости от пола.
В сфере финансов ИИ помогает преодолеть давние гендерные предвзятости в кредитном скоринге, как это видно на примере таких компаний, как Zest AI, которые используют машинное обучение для более справедливой оценки кредитоспособности. ИИ также улучшает доступ женщин-предпринимателей к услугам микрофинансирования для получения кредитов и финансовых услуг, особенно в районах с недостаточным уровнем обслуживания.
ИИ помог выявить неравенство в показателях зачисления между мужчинами и женщинами на таких платформах, как Coursera и edX, и выявил предвзятость в учебниках, помогая преподавателям пересматривать учебные материалы o том, как быть более инклюзивным.
«ИИ отслеживает гендерную представленность на руководящих должностях и поощряет использование гендерных квот для устранения неравенства», — делится Виллар. «Он также может помочь в анализе и разработке законов, учитывающих гендерные аспекты, путем выявления моделей гендерной дискриминации и предложения реформ. В будущем ИИ может помочь правительствам оценить потенциальное гендерное воздействие предлагаемых законов и помочь предотвратить гендерную дискриминацию и неравенство».

Как ИИ может повысить безопасность женщин и остановить цифровое насилие?
Хотя насилие в отношении женщин и девочек в Интернете и офлайн, вызванное технологиями, становится все более серьезной проблемой, существует множество многообещающих достижений в области ИИ, предлагающих инновационные решения для борьбы с цифровым насилием и защиты пострадавших.
Например, мобильные приложения, такие как bSafe, предоставляют оповещения о безопасности для защиты женщин, в то время как канадская компания Botler.ai помогает жертвам понять, нарушают ли инциденты с сексуальными домогательствами, с которыми они столкнулись, Уголовный кодекс США или законодательство Канады. Такие чат-боты, как «Sophia» от Spring ACT и «rAInbow» от AI for Good, оказывают анонимную поддержку и связывают пострадавших с юридическими службами и другими ресурсами.
«Алгоритмы на основе ИИ также можно использовать для того, чтобы сделать цифровое пространство безопасным для всех, обнаруживая и удаляя вредоносный, дискриминационный контент и останавливая распространение несогласованных интимных изображений», — добавляет Виллар.
Пять шагов к более инклюзивным системам ИИ
Искусственный интеллект можно использовать для уменьшения или увековечения предвзятости и неравенства в наших сообществах. Вот пять шагов, которые Виллар рекомендует, чтобы сделать ИИ инклюзивным — и лучшим.
- Использование разнообразных и репрезентативных наборов данных для обучения систем ИИ
- Повышение прозрачности алгоритмов в системах ИИ
- Обеспечение разнообразия и инклюзивности групп разработки и исследования ИИ во избежание слепых зон
- Принятие прочных этических рамок для систем ИИ
- Интеграция гендерно-чувствительной политики в разработку систем ИИ
О Зиннии дель Виллар
Зинния дель Виллар — директор по данным, технологиям и инновациям в Data-Pop Alliance. Она выступает за права женщин и девочек в области науки, технологий, инженерии и математики (STEM), а также за этическое и инклюзивное использование данных в системах искусственного интеллекта (ИИ). Она сотрудничает со Структурой «ООН-женщины» в исследовании гендерных последствий войны в Украине и в повышении грамотности в области гендерных данных в регионе, в том числе в рамках программы «Каждая женщина и девочка значима». Она включена в список 100 выдающихся женщин в области этики ИИ — 2024.