Уменьшение предвзятости за счет разработки моделей — это только часть решения проблемы справедливости в ИИ. Практики могут предпринять следующие шаги, чтобы повысить объективность модели ИИ.

На базовом уровне ИИ учится на нашей истории. К сожалению, большая часть общественной истории включает в себя некоторую дискриминацию и неравенство. Поэтому важно, чтобы специалисты по работе с данными учитывали это в своей работе, поскольку ИИ, созданный без признания предвзятости, будет воспроизводить и даже усугублять эту дискриминацию. Это особенно важно, если учесть влияние, которое ИИ уже оказывает на нашу жизнь.

Недавнее исследование цифрового доверия, проведенное McKinsey, показало, что менее четверти руководителей активно снижают риски, связанные с моделями ИИ (включая справедливость и предвзятость). Руководители также сообщали об инцидентах, когда результаты ИИ были предвзятыми, неверными или не отражали ценности организации. Такие проблемы особенно затронули передовые отрасли, включая аэрокосмическую, передовую электронику, автомобилестроение и сборку, а также полупроводники — респонденты из этого сектора сообщали как об инцидентах с ИИ, так и об утечках данных больше, чем в любом другом секторе.

Наше исследование цифрового доверия также показало, что потребители ожидают защиты от таких проблем и что те организации, которые отдают предпочтение доверию, получают финансовую выгоду. Исследование показало, что лидеры в области цифрового доверия с большей вероятностью увидят рост выручки и EBIT не менее 10 процентов в год.

Борьба с предвзятостью за счет разработки моделей — это только часть борьбы за справедливость в ИИ. В этом процессе должны участвовать заинтересованные стороны из всех областей организации, в том числе юристы и лидеры бизнеса. От найма до андеррайтинга по кредиту справедливость необходимо рассматривать со всех сторон. У специалистов по работе с данными есть возможность внести значительный вклад в уменьшение предвзятости за счет снижения рисков дискриминации во время разработки модели.

В этой серии будут описаны шаги, которые специалисты-практики могут предпринять, чтобы уменьшить предвзятость в ИИ за счет повышения справедливости модели на каждом этапе процесса разработки. Мы начнем с обсуждения того, как специалисты-практики могут заложить основу для успеха, определив справедливость и внедрив обнаружение предвзятости в самом начале проекта. Мы надеемся, что эти статьи помогут вам получить более справедливые результаты проекта.

Определение справедливости

Ключевым шагом на пути к справедливости является понимание того, как обнаружить предвзятость в ваших данных. Определение справедливости в начале проекта и оценка показателей, используемых как часть этого определения, позволит специалистам по данным оценить, являются ли результаты модели справедливыми. Это жизненно важный шаг, который необходимо предпринять в начале любого процесса разработки модели, поскольку «определение» каждого проекта, вероятно, будет отличаться в зависимости от проблемы, которую конечная модель пытается решить.

Определение защищенных групп

Также очень важно с самого начала определить группы, которые должна контролировать ваша модель — это должно включать все соответствующие чувствительные характеристики, включая географию, юрисдикцию, расу, пол, сексуальность. Например, мужчины исторически изучают предметы STEM чаще, чем женщины, поэтому, если вы используете образование в качестве ковариации, вам нужно будет подумать, как дискриминация по вашей модели может быть измерена и смягчена.

Оценка справедливости

Далее нам необходимо рассмотреть два принципа оценки справедливости. Во-первых, это индивидуальная справедливость, котораяпризнает, что с одинаковыми людьми следует обращаться одинаково. Во-вторых, справедливость группы, которая противостоит любым различиям в обращении между членами одной группы и более широким населением.

Показатели данных

Давайте рассмотрим некоторые из используемых показателей, которые выявляют уже существующую предвзятость в отношении «защищенных групп» (исторически неблагополучных групп или демографических групп) в данных. Мы предполагаем, что интересующий нас результат является бинарным, хотя большинство следующих метрик можно распространить на многоклассовые и регрессионные задачи.

● Элифт — отношение положительных исторических исходов для защищенной группы ко всему населению. Чем ближе отношение к 1, тем меньше отклонений было обнаружено.

● Импакт-коэффициент — отношение положительных исторических исходов для защищенной группы к общей группе. Это используется в судах США, где решения считаются дискриминационными, если соотношение положительных результатов для защищаемой группы ниже 0,8 от общего числа.

● Средняя разница — измеряет абсолютную разницу средних исторических значений результатов между защищенной и общей группой. Это может быть использовано в задачах регрессии, а также в задачах классификации.

● Ситуационное тестирование — процедура систематического исследования, при которой пары людей, принадлежащих к разным демографическим группам, но во всем остальном похожие, оцениваются по результатам, основанным на модели. Эти результаты модели затем сравниваются, чтобы проверить присущую дискриминацию в процессе принятия решений. Хотя ситуационное тестирование фокусируется на оценке результатов модели, его результаты могут быть полезны для выявления систематических ошибок в исходных данных.

Показатели модели

Также важно выбрать, какую метрику оценки модели использовать, она будет измерять, насколько справедлив ваш алгоритм, сравнивая исторические результаты и прогнозы модели. Существует множество вариантов, но популярные варианты включают «демографический паритет», когда вероятность положительного прогноза модели не зависит от группы, или «равные возможности», когда истинный положительный показатель одинаков для разных групп. Также существует набор метрик на основе AUC, которые могут быть более подходящими для задач классификации, поскольку они не зависят от установленных пороговых значений классификации и могут дать более детальное представление о различных типах смещения, присутствующих в данных, и, в свою очередь, они полезны для интерсекциональности.

Эти определения справедливости часто противоречат друг другу, и какое из них следует использовать, следует решать в зависимости от имеющейся проблемы. Например, нежелательно, чтобы медицинский диагностический инструмент достигал демографического паритета, поскольку есть болезни, которые больше поражают один пол, чем другой. С другой стороны, равные возможности могут быть подходящим требованием, поскольку это будет означать, что шансы модели на правильную маркировку риска будут одинаковыми для всех групп.

Внедрение алгоритмической справедливости

Чрезвычайно важно, чтобы алгоритмическая справедливость не рассматривалась как второстепенная мысль, а учитывалась на каждом этапе жизненного цикла моделирования. Как специалистам по обработке данных, нам повезло избавиться от предубеждений, выявив проблемы справедливости ИИ и работая над их решением. В конечном счете, мы не можем решить проблему системной дискриминации или предубеждений, но мы можем смягчить их воздействие с помощью тщательно разработанных моделей.

Также стоит отметить, что ИИ, как и большинство технологий, часто отражает своих создателей. Если определенная демографическая группа недостаточно представлена ​​в создании ИИ, более вероятно, что она будет плохо обслуживаться ею. Поскольку эта технология становится все более распространенной, потребность в различных командах по работе с данными становится первостепенной. Модели, управляющие тем, как наше общество будет функционировать в будущем, должны будут разрабатываться группами, адекватно отражающими современную культуру, иначе наше общество пострадает от последствий.

В следующей статье этой серии мы обсудим, как вы можете начать выстраивать свой подход к справедливости для вашего конкретного варианта использования, начав с определения проблемы и выбора набора данных. Следите за нашими социальными каналами, когда это будет выпущено.

Автор: Эмили Джонс, Ванита Калайчельван, Джулио Морина и Джулиан Уотон, специалисты по данным, QuantumBlack, ИИ от McKinsey