Оптимизация вместо объяснения

Максимальное использование преимуществ машинного обучения без ущерба для его интеллекта

Примечание. На сайте Wired.com одновременно была опубликована редакционная версия этой статьи.

Представьте, что ваша тетя Ида находится в автономном транспортном средстве (АВ) - беспилотном автомобиле - на городской улице, закрытой для транспортных средств, управляемых людьми. Представьте себе рой щенков, падающих с эстакады, провал в грунте под автобусом, полным математических гениев, или Бетховен (или Тупак) выпрыгивает на улицу слева, а Моцарт (или Бигги) прыгает справа. Какой бы ни была дилемма, представьте, что наименее худший вариант для сети AV - это загнать автомобиль, в котором находится ваша тетя Ида, в бетонный упор. Даже если бы система сделала правильный выбор - все другие варианты привели бы к большему количеству смертей - вам, вероятно, понадобится объяснение.

Или рассмотрим случаи, когда ИИ на основе машинного обучения дал сбой. Было плохо, когда Google Фото идентифицировал черных мужчин как горилл. Когда ИИ рекомендует черных мужчин держать в тюрьме дольше, чем белых, это может быть ужасно только по причине их расы. Не говоря уже об автономных военных системах вооружений, которые могут распространять расизм в воздушной взрывчатке.

Чтобы помочь исправить такую ​​несправедливость, Европейский парламент издал Общий регламент защиты данных (GDPR), который часто используется для закрепления права на объяснение для алгоритмов, которые существенно влияют на пользователей. [1] Это звучит разумно. . На самом деле, почему бы просто не потребовать, чтобы все системы ИИ были в состоянии объяснить, как они пришли к своим выводам?

Ответ заключается не только в том, что это может быть серьезной технической проблемой [2], но и в том, что поддержание ИИ достаточно простым, чтобы его можно было объяснить, может помешать извлечению всей возможной пользы от беспрепятственного ИИ. Тем не менее, так или иначе, нам придется принимать политические решения, регулирующие использование ИИ, особенно машинного обучения, когда это влияет на нас таким образом, который имеет значение.

Один из подходов состоит в том, чтобы заставить ИИ быть достаточно глупым искусственно, чтобы мы могли понять, как он приходит к своему выводу. Но вот еще одно: примите тот факт, что мы не всегда сможем понять «мышление» нашей машины. Вместо этого используйте наши существующие процессы разработки политики - регулирующие органы, законодатели, судебные системы, разгневанные граждане, склоки политиков - чтобы решить, для чего мы хотим оптимизировать эти системы. Измерьте результаты. Исправляйте системы, когда они не попадают в цель. Отмечайте и улучшайте их, когда они это сделают.

Мы должны иметь возможность просить объяснений, когда это возможно. Но когда мы не можем, мы должны продолжать использовать системы, пока они делают то, что мы от них хотим.

Увы, бесплатных объяснений не бывает [3].

Проблема с объяснениями

Представьте, что ваш врач говорит вам, что диагностическая система с глубоким обучением, такая как Глубокий пациент горы Синай, пришла к выводу, что существует большая вероятность того, что у вас разовьется рак печени в следующие пять лет.

«Что заставляет компьютер так думать?» ты спрашиваешь.

Ваш врач отвечает, что система машинного обучения - назовем ее Deep Diagnosis - была обучена медицинским картам 700 000 пациентов, как и Deep Patient. На основе этих данных он обнаружил закономерности в тысячах факторов, которые позволили ему точно предсказать вероятность проблем со здоровьем. В вашем случае он предсказывает с 70-процентной уверенностью, что у вас разовьется рак печени в течение следующих пяти лет.

«На основании каких факторов в моей медицинской карте?»

Ваш врач отвечает: «Глубокая диагностика отслеживает тысячи факторов, в том числе многие из них, которые кажутся не имеющими отношения к диагнозу, и мы не понимаем, почему они складываются в определенную вероятность рака печени. Опытный врач вроде меня мог смотреть на распечатку всех этих переменных и их весов, даже не понимая, почему они привели к такому результату. Фактически, эти закономерности могут быть разными для других пациентов с таким же диагнозом. Но оказывается, что они действительно предсказывают возможные проблемы со здоровьем. Итак, вот ваши варианты лечения, включая игнорирование прогноза… »

Это очень отличается от того, что мы обычно ожидаем от объяснения человека. Обычно наш врач объясняет модель, которую она использует: рак печени вызывается тем или иным, вот результаты анализов вашего состояния того или иного, и вот альтернативы для снижения вашего риска.

Но системы машинного обучения не обязательно должны начинать с явных человеческих моделей взаимосвязи факторов. Конечно, человеческие предположения неизбежно проникают через наш выбор данных для их обучения, предубеждения, выражаемые этими данными, неявные предубеждения программистов системы, пользовательский интерфейс, который мы предоставляем для взаимодействия с системой, отчеты, которые мы выбираем. генерировать и т. д. Но системе не нужно сообщать, как, по нашему мнению, данные, которые она передает, взаимосвязаны. Вместо этого система выполняет итерацию по данным, находя сложные вероятностные корреляции с множеством переменных, которые становятся частью модели, которую она строит для себя.

Созданные людьми модели направлены на сокращение переменных до набора, достаточно малого для понимания нашим интеллектом. Модели машинного обучения могут создавать модели, которые работают - например, они точно предсказывают вероятность заболеваний, - но которые не могут быть уменьшены настолько, чтобы люди могли их понять или объяснить.

Это нас по понятным причинам беспокоит. Мы думаем об этих системах как о принимающих решениях, и мы хотим убедиться, что они принимают правильные моральные решения, делая то, что мы делаем с людьми: мы просим объяснений, которые представляют применяемые моральные принципы и факты, которые привели к их применению. сюда. «Почему ты украл яблоко?» можно оправдать и объяснить, сказав: «Потому что он был украден у меня», «Он был отравлен, и я не хотел, чтобы кто-то еще ел его» или «Потому что я был голоден, и у меня не было достаточно денег, чтобы заплатить за Это." Эти объяснения работают, оспаривая примат того принципа, что воровать - неправильно.

Таким образом, для нас естественно думать о том, какие принципы мы хотим дать нашим машинам на основе ИИ, и ломать голову над тем, как они могут быть применены в конкретных случаях. Если вы хотите поучаствовать в этих мысленных экспериментах, потратьте некоторое время на MoralMachine.mit.edu, где вас попросят принять решение, знакомое по Проблеме с тележкой: если бы вам пришлось выбирать, вы бы вы программируете AV, чтобы бегать по трем монахиням или двум бегунам? Четыре старика или два болезненных человека среднего возраста? Создатели сайта надеются использовать решения толпы для руководства программистам AV, но это также может привести к другому выводу: мы не можем решить моральные проблемы - по крайней мере, на уровне детализации, который требует от нас мышление, лежащее в основе MoralMachines - применяя принципы к делам. Принципы слишком расплывчаты, а дела слишком сложны. Если вместо этого мы воспользуемся утилитарным, консеквенциалистским подходом, пытаясь оценить совокупность страданий и удовольствий, связанных с лишением этих различных жизней, проблема окажется все еще слишком сложной и слишком неопределенной.

Так что, возможно, нам следует по-другому подходить к решению этих проблем. Возможно, «мы» должны быть не коммерческими организациями, которые создают ИИ, а системами, которые у нас уже есть, для принятия решений, влияющих на общественное благосостояние. Возможно, решения следует начинать с общих целей и дорабатывать исключения и исключения, как мы уточняем социальную политику и законы. Возможно, нам следует признать, что системы ИИ будут принимать решения на основе того, для чего они были оптимизированы, потому что именно так и почему мы их создаем. [4] Возможно, нам следует управлять их оптимизацией.

Оптимизация вместо объяснения

Предложение:

1. Системы ИИ должны быть обязаны декларировать, для чего они оптимизированы.

2. Оптимизация систем, которые существенно влияют на общественность, должны решаться не компаниями, создающими эти системы, а органами, представляющими интересы общественности.

3. Оптимизация всегда должна поддерживать важные социальные ценности, такие как справедливость.

Оптимизация - это мера результатов по сравнению с целями. Система AV успешно оптимизирована для снижения смертности, если в течение статистически разумного интервала количество погибших падает. Он оптимизирован для экономии энергии, если общее энергопотребление системы - и более крупных систем, в которые она встроена - снижается. Оптимизация не должна указывать точную цель, чтобы добиться успеха; скорее, цель является максимально желательной и возможной с учетом всех других желаемых оптимизаций в сочетании с превратностями мира.

Системные разработчики говорят об оптимизации, потому что они признают, что машины несовершенны и часто предназначены для достижения несовместимых целей. Собираетесь ли вы оптимизировать свой автомобиль с учетом хорошего пробега, воздействия на окружающую среду, цены, ускорения, безопасности, комфорта, живописных видов или престижа? Для обеспечения безопасности может потребоваться более тяжелое шасси, что отрицательно скажется на ускорении, пробеге и воздействии на окружающую среду. Дизайн с учетом воздействия на окружающую среду может означать более длительное время в пути. Дизайнеры должны создать баланс оптимизаций, играя с набором метафорических ползунков, которые определяют, какой частью ценности система пожертвует, чтобы получить некоторую комбинацию других значений. Как сказал Дэвид П. Рид, один из архитекторов Интернета, оптимизация системы для одного значения деоптимизирует ее для других [5].

Хотя оптимизации применяются к системам, они могут определяться в определенных пределах отдельными пользователями. Например, пассажиры AV могут захотеть оптимизировать поездку с точки зрения живописности. Перемещение этого «ползунка» вверх - когда-нибудь, возможно, ползунка на цифровой панели управления - автоматически переместит некоторые другие вниз: поездка, вероятно, займет больше времени и потребует больше энергии. Ограничения, накладываемые на возможность пользователей настраивать ползунки, будут определяться теми, кто разрабатывает оптимизацию системы в целом: возможно, пользователям не будет разрешено оптимизировать их конкретную поездку таким образом, чтобы это деоптимизировало всю систему, даже немного, для сохранения жизней.

Можно еще больше сказать о том, что влечет за собой оптимизацию систем ИИ, особенно обеспечение их справедливости, но сначала: зачем вообще обсуждать мораль и управление системами ИИ с точки зрения их оптимизации?

Во-первых, в нем основное внимание уделяется нормативному обсуждению ИИ как инструмента, предназначенного для предоставления преимуществ, которые, как мы договорились, мы хотим получить, а не как набора моральных загадок, которые нужно решить путем споров о принципах и их применении. Например, мы никогда не согласимся как общество, если АВ должны быть запрограммированы на то, чтобы сбивать двух заключенных, чтобы спасти одну монахиню, или если богатым людям будет позволено действовать быстрее за счет менее богатых; Если мы не можем даже договориться о нейтральности сети, как мы когда-нибудь сможем договориться о нейтральности автомагистралей? Но у нас есть механизмы управления, которые позволяют нам решить, что, скажем, система AV должна быть нацелена на снижение смертности в качестве первого приоритета и снижение воздействия на окружающую среду в качестве второго. Означает ли это, что антивирус должен наехать на монахиню? Да, если мы решили оптимизировать антивирусные программы для снижения смертности, и ее смерть спасет двух других, но не потому, что мы наконец-то выяснили моральную алгебру монахинь и грешников. Мы можем перестать говорить о проблеме тележки, по крайней мере, когда дело доходит до управления подобной системой ИИ. Это само по себе должно считаться основным преимуществом.

Во-вторых, это позволяет нам оценивать успехи и неудачи - и ответственность - с точки зрения свойств системы, а не от случая к случаю. Поскольку управление этими системами будет осуществляться на каком-то системном уровне общества - местном, государственном, национальном, глобальном, - первичная оценка должна также касаться преимуществ на системном уровне.

В-третьих, он контекстуализирует страдания, которые большинство систем искусственного интеллекта причинит. Например, семья тети Иды будет возмущена тем, что ее АВ врезался в бетонную опору. Семья вполне может захотеть подать иск против производителя AV. Но почему именно ее машина убила именно ее, может быть необъяснимо. Может быть слишком много переменных. Это может потребовать сбора всех данных в реальном времени от всех подключенных к сети AV-устройств на дороге, которые предоставили входные данные для принятия сетевого решения AI. Некоторые данные, возможно, потребуется скрыть из соображений конфиденциальности. Специальная сеть, принявшая решение, могла использовать данные в реальном времени из других систем, включая информацию о погоде, пешеходных маршрутах, системах экономического воздействия и т. Д., И некоторые из этих систем могут быть необъяснимыми черными ящиками. Может быть просто непрактично ожидать, что все эти данные будут сохранены, чтобы мы могли полностью воссоздать состояние системы. Мы не можем объяснить решение или даже проверить его.

С точки зрения морали и юридической ответственности это кажется крайне неудовлетворительным. С другой стороны, в 2016 году в США было около 40 000 погибших в ДТП. Скажем, через несколько лет после того, как антибиотики стали обычным явлением, эта цифра упала до 5000 смертей в год. Пять тысяч смертей в год - это ужасные потери, но 35 тысяч спасенных жизней в год - это великолепное благо. Моральная ответственность производителя AV и сети AV в то время заключается не в том, чтобы спасти тетю Иду, а в том, чтобы добиться оптимизации, которую мы, как общество, приняли через наши регулирующие, законодательные и судебные системы.

В-четвертых, управление через оптимизацию позволяет измерить успех.

Наконец, концепция оптимизации привела к пониманию того, что совершенство невозможно. Оптимизация - это «лучшее усилие». «В этом году АВ убили 5000 человек!» становится не поводом для морального возмущения, а призывом к крупному гуманному достижению.

В целом, понимание и измерение систем ИИ с точки зрения их оптимизации дает нам способ управлять ими, что позволяет нам извлекать из них пользу, даже если они несовершенны и даже когда мы не можем объяснить их конкретные результаты.

Но этого недостаточно.

Критические ограничения: оптимизация хеджирования

Представьте себе, что AV оптимизированы так, чтобы свести к минимуму количество смертельных случаев, а смертность от автомобилей снизилась с 40 000 до 5 000 в год. Ура!

А теперь представьте, что в ранней моделировании системы цветные люди чрезвычайно непропорционально представлены среди этих 5000 погибших.

Или представьте, что система, предназначенная для отбора кандидатов на рабочие места в сфере технологий Кремниевой долины, производит высококачественные наборы людей для личных собеседований, но процент женщин, прошедших через процесс искусственного интеллекта, даже ниже, чем нынешний мрачный процент женщин. на технических должностях.

Система, которая достигает результатов, для которых она была оптимизирована, может по-прежнему не соответствовать общественным целям. Как было хорошо задокументировано [6], системы машинного обучения склонны воспроизводить или даже усиливать предубеждения, отраженные в данных, которые системы использовали для создания своих моделей.

Достичь заявленных целей оптимизации явно недостаточно. Системы искусственного интеллекта должны иметь возможность предоставлять доказательства в форме поддающихся количественной оценке результатов того, что оптимизации не нарушают более широкие и глубокие ценности культуры; это деонтологический (принципиальный) момент утилитарного подхода [7].

Мы можем считать эти ограничения еще одним видом оптимизации. Но они заслуживают своего имени и категории по двум причинам.

Во-первых, «быть честным» - это не то, для чего предназначена система AV или система медицинской диагностики. Такие системы являются инструментами и поэтому оптимизированы для более конкретной цели. Полезно зарезервировать термин «оптимизация» для тех целей, для которых был разработан инструмент.

Во-вторых, оптимизация - это компромисс. Но эти ограничения имеют решающее значение, потому что мы не позволим им обмениваться.

Итак, мы назовем их критическими ограничениями.

Решение о критических ограничениях, которые мы потребуем от систем искусственного интеллекта, потребует сложных моральных дискуссий, которые выражают глубокие конфликты в нашей культуре. Например, компания Кремниевой долины, сопротивляющаяся требованиям гендерного равенства, может сказать, что она хочет, чтобы ее программное обеспечение для отбора кандидатов рекомендовало «лучших из лучших» (как компания определяет это) и «К черту гендерный баланс!» Или он может утверждать, что в компанию поступает относительно мало заявок от женщин. Или он может ошибаться в том, на что обращать внимание при оценке потенциальных сотрудников. [8]

Тем не менее, мы можем решить как культуру устранить несправедливость в отношении технических кадров, введя в действие требование, чтобы системы отбора технических приложений производили пулы, по крайней мере, на 50 процентов состоящие из женщин. Или мы можем решить, что проблема заключается в неравенстве в образовательной цепочке, и, таким образом, можем захотеть приостановить соблюдение ограничения «50 процентов женщин» до тех пор, пока она не станет более гендерно сбалансированной. Или мы можем настаивать на правиле 50 процентов на том основании, что эмпирические данные показали, что в противном случае системы исключения приложений ИИ будут отражать социальные предубеждения. Или мы могли бы настоять на том, чтобы 75 процентов рекомендательного пула составляли женщины, чтобы помочь исправить неравенство существующей рабочей силы. Такие решения, несомненно, потребуют сложных политических и судебных разговоров. С другой стороны, необходимость придумывать критические параметры для ИИ может служить полезной функцией принуждения.

Однако решение этих проблем - не проблема ИИ. Это наша ответственность. Когда мы спрашиваем, что мы хотим, системы ИИ, оптимизированные для этого, формируют это подходящим образом для необходимых социальных дискуссий и политических процессов.

Ответственность и компенсация

ИИ может совершать бесконечную серию ошибок: неправильно диагностировать болезнь, нацеливаться на невинных во время военных атак, проводить дискриминацию по признаку расы и пола, а также рекомендовать фильм, который вам не очень нравится. Существует гораздо меньшее количество способов, которыми ИИ будет совершать эти ошибки, и для каждого из них требуется собственный набор политических, нормативных и судебных инструментов, которые помогут предотвратить и исправить их.

1. Неправильная оптимизация: Допустим, AV-система, оптимизированная для кратчайшего времени доставки, направляет непрерывный транспортный поток через жилую часть города, что приводит к снижению качества жизни. Или он направляет высокоскоростной трафик через торговый район, деоптимизируя местный и пешеходный трафик, вызывая падение продаж. (В этом случае мы могли бы позволить местным властям регулировать локальную оптимизацию системы, так же, как самолеты должны уменьшить свой шум над некоторыми городами.)

Производители систем искусственного интеллекта не должны нести ответственности за успешное выполнение плохо продуманных оптимизаций. Они должны нести ответственность за игнорирование местных оптимизаций, так же как авиакомпании могут нести ответственность за нарушение местных ограничений по шуму при прибытии поздно ночью.

2. Неправильное выполнение. Допустим, домашняя система Интернета вещей оптимизирована для экономии энергии, но в некоторых домах это приводит к более высоким ежемесячным расходам на электроэнергию. В этом случае оптимизация является предпочтительной, но ее выполнение некорректно из-за ошибочного программного обеспечения, обучения системы на несоответствующих данных, неспособности правильно взаимодействовать с одним или несколькими устройствами и т. Д.

Оптимизация правильная, но реализация некорректна. Если система искусственного интеллекта способна давать объяснения, эти объяснения должны быть представлены, и ответственность должна быть оценена. Но если ИИ не может дать объяснений, могут применяться процессы ответственности за качество продукции и коллективных исков.

3. Ожидаемый вред от хорошо оптимизированной, правильно функционирующей системы: предположим, что тетя Ида оказалась одной из 5000 погибших в новой национальной AV-системе, которая оптимизирована первой для снижения смертности. Он работает нормально: количество смертельных случаев снизилось, и система работает в пределах своих критических ограничений.

Несчастные неудачники в этой системе должны получить компенсацию без вины, возможно, через какую-то форму социального страхования.

4. Неспособность ввести критическое ограничение или правильно определить его ограничивающую силу: Допустим, автономный полицейский дрон использует чрезмерную силу для подавления преступника, что приводит к серьезному сопутствующему ущербу для невинных людей. Пострадавшие невиновные могли подать иск, утверждая, что дрон не учел требование «не причинять вреда невиновным».

Если дрон действительно не учел это ограничение или если производители «забыли» внедрить его, производители должны нести ответственность.

Если правила, регулирующие использование полицейских дронов, не включают такое ограничение, то ответственность, по-видимому, ложится на орган, который принял решение о сочетании оптимизаций и критических ограничений. (Вопрос о том, как дрон распознает невиновных, - это не вопрос управления, а технический вопрос - важный вопрос - реализации.)

Итак, в целом:

(a) В случаях, когда системы не работают должным образом, часто можно использовать закон об ответственности, в том числе закон об ответственности за качество продукции. Не всегда нужно определять объяснение неисправности.

(b) Если системы функционируют, как ожидалось, и где ожидания предполагают несовершенство, жертвам должна быть выплачена компенсация в соответствии с моделью страхования без вины: семьям 5000 человек, погибших в автокатастрофе, должна быть выплачена компенсация в соответствии с руководящими принципами. которые стараются быть как можно более справедливыми.

Почему именно так?

Такой общий подход имеет несколько преимуществ:

Во-первых, это позволяет нам извлекать выгоду из систем искусственного интеллекта, которые превзошли возможности людей точно понять, как эти системы работают.

Во-вторых, в нем основное внимание уделяется системе, а не отдельным инцидентам.

В-третьих, он помещает управление этими системами в наши человеческие, социальные рамки. Оптимизация всегда несовершенная и влечет за собой компромиссы, которые нам необходимо обсудить. Оптимизация всегда должна ограничиваться социальными ценностями, которые мы считаем первостепенными. Функционирование автономных систем не зависит от человеческого контроля в определенных ситуациях, но подчиняется человеческим потребностям, желаниям и правам. (Слова, выделенные курсивом, указывают на места, где человечность необходима и очевидна.)

В-четвертых, это не требует от нас разработки новой моральной основы для работы с инфраструктурой, которая все чаще использует самые передовые инструменты, которые когда-либо создавал наш вид. Скорее, он рассматривает эти неизбежные проблемы как социальные вопросы, которые слишком важны, чтобы оставлять их неурегулированными и находящимися в руках коммерческих структур. Вместо этого он позволяет урегулировать их существующими регулирующими органами, используя наши существующие процессы для решения вопросов политики, а также использует и расширяет существующие правовые рамки для оценки ответственности и графиков компенсации.

Таким образом, нам не нужно рассматривать ИИ как новую форму жизни, которая каким-то образом ускользает от человеческих моральных вопросов. Мы можем относиться к нему так, как оно есть: к инструменту, который следует измерять по тому, насколько он лучше справляется с работой по сравнению с нашим старым способом: спасает ли он больше жизней? Улучшает ли это окружающую среду? Это дает нам больше свободного времени? Создает ли это рабочие места? Делает ли это нас более социальными, ответственными, заботливыми? Достигает ли он этих целей, поддерживая важные социальные ценности, такие как справедливость?

Рассматривая управление ИИ как вопрос оптимизации, мы можем сосредоточить необходимые аргументы о них на том, что действительно важно: чего мы как общество хотим от системы и от чего мы готовы отказаться, чтобы получить это?

Элементы этого процесса

  1. Используйте существующие государственные институты разработки политики, чтобы принять решение о взвешивании взаимосвязанных и часто противоречащих друг другу оптимизаций и критических ограничений.
  2. Требовать от систем ИИ публично и четко объявлять об этих оптимизациях, а затем удерживать их. Вот где должна быть прозрачность. Прозрачность алгоритмов - это инструмент, который имеет свое собственное применение в особых случаях.
  3. Измерьте все возможное. Сделайте эти измерения общедоступными или, при необходимости, конфиденциально для уполномоченных, доверенных, независимых органов.
  4. Установите компенсацию без вины и социальное страхование для систем, в которых невозможно избежать некоторых пагубных результатов.

Вкратце: управляйте оптимизацией. Следите за результатами.

Спасибо примерно двадцати людям, которые прокомментировали онлайн-черновик этой статьи. Многие, но не все, пришли из Гарвардского центра Беркмана Кляйна или Медиа-лаборатории Массачусетского технологического института. Не все согласны с предпосылками или выводами этой статьи. Все были полезны.

КОНЕЦ ЗАПИСИ

(Я сделал снимок. Он распространяется под лицензией Creative Commons BY.)

[1] То, что на самом деле требует GDPR, разобрать сложнее. См. Сандра Вахтер, Брент Миддельштадт, Лучано Флориди, Почему право на объяснение автоматизированного принятия решений не существует в Общем регламенте защиты данных, Международный закон о конфиденциальности данных, 24 января, 2017 г.

[2] В настоящее время ведется много исследований о том, насколько понятными или интерпретируемыми могут быть сложные системы глубокого обучения. Мы эмпирически знаем, что по крайней мере некоторые из них можно понять до некоторой степени. См., Например, это объяснение как работает средство создания изображений DeepDream от Google. Для получения информации об увлекательном и убедительно аргументированном предложении о предоставлении возможности объяснения систем машинного обучения без каких-либо изменений систем и даже без непосредственной проверки используемых алгоритмов см. На пути к строгой науке интерпретируемого машинного обучения »Финале Доши-Велес и Был Ким.

[3] Спасибо Стюарту Шиберу за предложение версии этой фразы. Также учтите, что может быть такая вещь, как бесплатная догадка.

[4] И то, для чего они оптимизированы, будет определять их дизайн, включая их датчики и элементы управления. Решения по оптимизации имеют значение для каждого этапа проектирования и производства устройств.

[5] В частной беседе. Цитируется с разрешения.

[6] Например, см. Оружие математического разрушения Кэти О’Нил и Проблема белого парня искусственного интеллекта Кейт Кроуфорд.

[7] В статье Справедливость через осведомленность Синтия Дворк, Мориц Хардт, Тониан Питасси, Омер Рейнгольд и Ричард Земель предлагают как метрику для измерения справедливости, так и алгоритм максимизации полезности с учетом ограничения справедливости. Наша структура позволяет нам сформулировать вопрос как задачу оптимизации, которую можно решить с помощью линейной программы. Их метрика сходства позволяет оценить, обращается ли система ИИ схожими способами с людьми, которые релевантно похожи.

[8] См. Джон Саймонс, Что Sephora знает о женщинах в технологиях, чего не знает Кремниевая долина, Wall Street Journal, 9 октября 2017 г.