Могут ли предвзятые люди создавать беспристрастные алгоритмы?

Алгоритмы уже в значительной степени среди нас. Некоторые из них принимают важные решения, такие как помощь судебной системе в определении вероятности рецидива, поддержка решений о продлении или отказе от кредита или о том, в какие акции инвестировать наши деньги, и даже диагностика того, являются ли наши образцы клеток злокачественными или нет, что определяет лечение, которое мы получаем, и страховку, которую нам предлагают.

Хотя их использование имеет большой потенциал, чтобы помочь нам стать более точными и принимать лучшие решения, они сопряжены с рядом проблем, включая проблемы конфиденциальности, риск предвзятости, ошибки, вопросы ответственности и отсутствие прозрачности.

Широкое внедрение искусственного интеллекта зависит от доверия. И мы можем считать алгоритм заслуживающим доверия только в том случае, если мы понимаем, как он принимает решения, если мы понимаем, как он работает.

Таким образом, объяснимость и прозрачность являются двумя важными характеристиками заслуживающих доверия алгоритмов.

Справедливость результатов также является ключом к укреплению доверия. Однако алгоритмы могут стать предвзятыми на каждом этапе своего жизненного цикла:

1. Разработка самого алгоритма может быть предвзятой, известной как техническая предвзятость.

2. Набор обучающих данных может содержать систематическую ошибку. Например, если мы снабдим алгоритм выборками, в которых конкретная расовая группа чрезмерно представлена ​​по отношению к ее доле в общей численности населения, алгоритм скорректирует свои математические прогнозы в соответствии с изученными пропорциями.

3. Фактический набор данных может иметь внутреннюю предвзятость. Мужчин в политике больше, чем женщин. Это математическая уверенность, что алгоритм не изменит, а воспроизведет в своих предсказаниях.

4. Цикл обратной связи, который обучает алгоритм при появлении неизвестного образца, может быть необъективным в своих ответах и ​​вносить необъективность в алгоритм.

5. Конфигурация алгоритма его пользователями может отражать их культурные и эмпирические предубеждения.

6. И что хуже всего, трудно решаемый алгоритм мог вообще дать неожиданный результат

Предвзятость - сложная штука.

Определение предвзятости данных подразумевает, что имеющиеся данные не являются репрезентативными для населения или изучаемого феномена. Выход алгоритма смещен, если он не определяется истинным составом целевой совокупности. Тогда принимаемые ею решения не оправдываются с математической точностью и рассматриваются как несправедливые.

Однако что происходит, когда целевая группа необъективна?

Являются ли беспристрастные алгоритмы репрезентативными для нашего предвзятого мира?

Во многих случаях результат предвзят, потому что реальность предвзята. В бизнесе больше мужчин, чем женщин. В политике чернокожих меньше, чем белых. Предвзятость — это математическая достоверность. Алгоритм может быть «правильным», «заслуживающим доверия» и по-прежнему увековечивать неравенство прошлого.

Этот тип предвзятости присущ самому населению, и его устранение больше связано с сознательным решением либо быть верным реальности нашего предвзятого мира, либо строить наши алгоритмы для мира, которым мы стремимся стать.

Как избежать предвзятости в алгоритмах

Существует ряд факторов, которые обычно считаются важными для ограничения риска систематической ошибки в алгоритмах:

· Прозрачность. Полная ясность в том, как работает алгоритм.

· Объяснимость. Возможность понять, как было принято решение, позволяет поставить под сомнение мыслительный процесс и выявить предвзятость. В соответствии с этим принципом совершенно неприемлем так называемый «подход черного ящика».

· Доступность обучающих данных. Объемы данных для обучения важны: чем больше данных доступно для обучения алгоритма, тем точнее он становится. Но набор данных также должен быть репрезентативным для населения, которое мы собираемся изучать, чтобы снизить риск систематической ошибки.

· Мониторинг производительности алгоритма. Настройка правильных параметров и регулярные выборочные проверки.

· Контроль человека. Это подразумевает подход «человек в курсе» и возможность переопределения алгоритма, если он ведет себя не так, как предполагалось.

· Принимать во внимание человека на каждом этапе. В конечном итоге алгоритмы принимают решения, влияющие на жизнь людей. Учет влияния человека на каждом этапе жизненного цикла помогает лучше определить, когда должен быть задействован человек, где варианты, а не решения, могут быть хорошей идеей, а когда безопасно полностью полагаться на алгоритм.

· Разнообразие. Просмотр алгоритма с разных точек зрения позволяет заранее выявить потенциальные ошибки. Работа в разных командах может помочь избежать предвзятости алгоритма.

Человек против машины

Ключом к нашему будущему является раннее обдумывание того, как должны выглядеть отношения между человеком и машиной.

Важно создать правильные прецеденты в наших отношениях с алгоритмами.

Предоставляем ли мы алгоритмам авторитет и презумпцию правоты, которые ставят нас во власти их решений?

Алгоритмы никогда не бывают ни хорошими, ни плохими. Однако они могут нанести нам вред с математической точностью.

Алгоритмическое принятие решений может привести к более объективным и справедливым решениям, основанным на данных, по сравнению с людьми, но, как следствие, оно также может привести к дискриминации и неправильным результатам.

Может быть, нас делает людьми именно тот факт, что математическая точность не определяет всего, что мы делаем?

Как утверждает Ханна Фрай в Hello World: «Возможно, мы ошибаемся, когда думаем об алгоритмах как о каком-то авторитете».

Вместо того, чтобы принимать решения, алгоритмы могут быть лучше использованы для поддержки людей в принятии решений. Вместо того, чтобы наделять алгоритм неоспоримой силой и авторитетом и предлогом для делегирования ответственности, мы должны использовать то, в чем они хороши, и сочетать это с тем, в чем люди лучше.

Алгоритмы не идеальны, но, как упоминалось ранее, люди тоже не всегда правы. Однако алгоритмы могут поддерживать людей и предоставлять им инструмент, позволяющий в некоторых случаях стать более справедливыми, точными и эффективными.

Учитывая, что в конечном счете мы несем ответственность за действия алгоритмов, не должны ли мы гарантировать сохранение полномочий?

Привлечение алгоритмов к ответственности

Ряд алгоритмов, как частных, так и общедоступных, в настоящее время непрозрачны или объяснимы из-за прав интеллектуальной собственности. Под заявлениями о защите своих коммерческих секретов или защите своей интеллектуальной собственности они влияют на человеческие жизни без тщательного изучения.

Как общество, мы видим пользу в том, чтобы полагаться на алгоритмы для более глубокого понимания людей, в конечном счете, клиентов, и предоставлять им столь желанные персонализированные продукты и услуги.

Но, в свою очередь, как общество, мы также несем ответственность за обеспечение того, чтобы это можно было сделать, избегая причинения вреда людям.

Возможно, пришло время подумать о создании регулирующего органа, который с максимальным уважением к конфиденциальности и интеллектуальной собственности мог бы проверять точность, согласованность, предвзятость и влияние алгоритмов, а затем либо одобрять, либо отказывать в их использовании на основании их способности причинять вред или генерировать несправедливый вывод.