# P1 # # P2 # # P3 #
  • что вы рекламируете увидеть
  • какие новости вам рекомендуют;
  • какие результаты вы видите при поиске чего-либо в Интернете;
  • какие сообщения из ваших контактов вы видите в своих социальных сетях сетей
  • какие фильмы, сериалы или документальные фильмы вы видите на платформах видео по запросу

# P4 #
  • какие предложения работы вы получаете, чтобы увидеть
  • поступление в университеты
  • стоимость продукта и доступность
  • если вы получите ссуду и под какую процентную ставку
  • получите ли вы страховку для своего автомобиля и по какой цене
  • залог и размер наказания в пробная версия
# P5 # # P6 #

# P7 # # P8 # # P9 # # P10 # # P11 # # P12 #

# P13 #
  • Этика: существует ряд явных этических соображений, которые должны препятствовать распространению предубеждений и, следовательно, дискриминации в обществе компаниями и обществом.
  • Общественное мнение: вокруг этой темы ведется много споров, и доказанный случай, когда компания владеет или использует дискриминационную модель, может привести к очень плохой пропаганде (как можно видеть в примерах, перечисленных выше).
  • Юридические последствия: в зависимости от страны существуют особые законы, решающие эту проблему, например GDPR, который заявляет, что следует предотвращать дискриминацию по признаку расы, пола, политических убеждений, здоровья ... и что запрещено использовать эти типы переменных в качестве исходных данных для моделей прогнозирования. Также существуют другие правила соблюдения нормативных требований, которые оказывают особое влияние на определенные отрасли, такие как банки или страхование, для предотвращения дискриминации по определенным личным конфиденциальным атрибутам.
# P14 # # P15 #
  1. Разнообразие и осведомленность
  • Убедитесь, что команда, создающая модель машинного обучения (или любое другое техническое решение), разнообразна: это должно помочь гарантировать, что решение учитывает различные слои населения.
  • Понять потенциальную предвзятость в ваших данных и то, как используются переменные, связанные с человеческими характеристиками (например, пол, возраст, раса ...)
# P16 #
  • Удаление переменных пола / расы /… обычно недостаточно: убедитесь, что они не могут быть предсказаны на основе других доступных переменных.
  • Проанализируйте, насколько прогнозы и ошибки различаются между сегментов населения
  • Рассмотрите возможность использования более простых (и более простых для объяснения и понимания) решений.
# P17 #
  • Напишите свою собственную структуру на основе объяснительной модели комплексные решения: Shap, LIME, частичные зависимости…
  • Существующие инструменты от поставщиков машинного обучения: AWS clear, IBM AI Fairness 360, Google What-If Tool, Microsoft Fairlearn…
# P18 # # P19 # # P20 #

# P21 #
  • Рекомендации по содержанию: например как рекомендация более здоровой еды для женщин или фаст-фуда для групп с низким доходом.
  • Различное отношение к курьерам (пассажирам) по полу или другим характеристикам.
  • Модели мошенничества с учетом личных характеристик
# P22 #
  • Каков предел между предвзятостью и персонализированными рекомендациями (например, могу ли я не рекомендовать более здоровую пищу женщине, если ее поведение подсказывает мне, что она любит здоровую пищу)?
  • Каков эффект потери точности из-за удаления определенных объясняющих переменных, которые могут улучшить модель и прогнозы?
  • Неужели предвзятые модели хуже реальных людей, принимающих решения со своими личными предубеждениями?
  • Какие социальные возможности имеют компании с точки зрения исправления существующих предубеждений в обществе с помощью недискриминационных моделей?
# P23 #

Ссылки

[1] Ted talk Эли Паризера - Остерегайтесь онлайн-фильтров Пузырьки фильтров https://www.ted.com/talks/eli_pariser_beware_online_filter_bubbles/transcript?language=en

[2] «Методы уничтожения математики» Кэти О'Нил.

[3] Статья о базе данных инцидентов ИИ, где можно изучить реальные примеры плохого машинного обучения, такие как гендерные или расовые предубеждения, с целью помочь ИИ развиваться лучше, извлекая уроки из ошибок прошлого.

[4] Бесплатный онлайн-курс FastAI по практической этике данных, посвященный таким темам, как дезинформация, предвзятость и справедливость, конфиденциальность и наблюдение.

[5] Исследование обнаруживает предвзятость в отношении пола и типа кожи в коммерческих системах искусственного интеллекта, - Джой Буоламвини, исследователь из группы Civic Media в MIT Media Lab.