Искусственный интеллект (ИИ) оказывает все большее влияние на нашу повседневную жизнь. Он обладает огромным потенциалом для преобразования общества как в лучшую, так и в плохую сторону.

Нет недостатка в политиках и документах, касающихся этики ИИ: только в 2021 году было опубликовано более 17 этических норм ¹. В широком смысле они сосредоточены на всеобъемлющих руководящих принципах политики, направленных на учреждения.

К сожалению, большинство этих документов несколько громоздки, и их читателям может быть трудно увидеть дерево от деревьев. Размер некоторых из этих документов может оттолкнуть, особенно новичков в этой области. Хотя они и предлагают руководство, им не хватает последовательности, что часто приводит к путанице ².

Это ставит перед людьми, практикующими ИИ, сложную этическую головоломку, которую необходимо решить перед лицом постоянно усиливающегося законодательства об ИИ ³. Пришло время для изменения подхода. Вместо того, чтобы люди ждали, пока правительства или учреждения предпишут этические рекомендации, возьмите дело в свои руки!.

«Индивидуальный специалист по искусственному интеллекту».

Индивидуальные решения, принимаемые специалистами по ИИ, могут иметь огромные коммерческие и социальные последствия, независимо от того, преднамеренные они или нет. Поскольку темпы технологических инноваций намного опережают возможности традиционного управления «сверху вниз», специалистам по ИИ необходимо самим принимать “ «Снизу вверх» и следуют собственным «Личным этическим нормам».

Простой одностраничный буклет с подробным изложением ваших собственных этических принципов ИИ может быть гораздо более прагматичным и содержательным, чем ссылка на 100-страничную структуру!

Нормы поведения.

В центре внимания этого кодекса поведения находится отдельныйпрактик ИИ. Его основа основана на идее Этика — это необходимость. Это не только инструмент для поддержки человеческой деятельности, но и противовес для предотвращения злодеяний. Проще говоря, "Продвигайте хорошее и избегайте плохих результатов!"

Я признаю, что попытки поступать правильно иногда несвоевременны, очевидны и не всегда объективны, поэтому я предлагаю следующий кодекс поведения, чтобы помочь людям постоянно этичное принятие решений.

Фонд.

Флориди Двойное преимуществоэтического подхода к ИИ является основой для этого кодекса поведения и формирует основу, на которой пять основных принципов Человеческой деятельности, Ячестности, Тпрозрачности, Доблестичестности и А подотчетность, стоять.

В: «Зачем беспокоиться об этике для ИИ?»

О. Двойное преимущество Этичного поведения: «Позволяет организациям воспользоваться социальной ценностью, которую предлагают технологии ИИ», т. е. социально приемлемыми или предпочтительными возможностями.

,пока ! одновременно «Предоставление организациям возможности предвидеть и избегать или, по крайней мере, минимизировать дорогостоящие ошибки». то есть социально неприемлемым, даже если юридически допустимым.

Этот двойной подход также снижает вероятность упущенных или упущенных возможностей из-за боязни ошибок.

Основные принципы.

Примечание.

  • См. Приложение дляПрактического применения этих принципов.
  • «Удобная» мнемоника, «HчеловекIцелостностьTпреобразуетVзначение Добавить!!!!” для запоминания пяти принципов.

Предполагаемое использование.

Думайте об этом кодексе поведения как о простой «Этической призме», через которую можно рассматривать варианты или сценарии использования ИИ.

Пять принципов действуют как линзы/проводники для контекстуального разделения и помощи в анализе конкретных этических соображений.

Задавая вопросы, подсказанные этими принципами, практик ИИ может контекстуализировать этические последствия во время разработки решения, например.

  • Вы бы опубликовали модель ИИ, обученную на предвзятых данных?
  • Можете ли вы объяснить, как вы принимаете решение о своем решении на основе ИИ?
  • Является ли это решение прозрачным в отношении того, как используются пользовательские данные?

Примечание. Кодекс поведения не претендует на то, чтобы быть окончательным или использоваться изолированно.

Резюме.

Нисходящее управление этикой ИИ находится в зачаточном состоянии и изо всех сил пытается идти в ногу с технологическими инновациями. Усиление законодательства в области ИИ в сочетании с огромными объемами материалов может сделать этический ИИ довольно расплывчатой ​​концепцией.

Следование личному кодексу поведения, основанному на кратком наборе принципов (Hчеловек Iчестность T преобразовать значениезначение Add) обеспечивает надежное обоснование этики ИИ. Он может выступать в качестве простого инструмента, используемого для контекстуализации и организации последовательного анализа. Вам не нужна сложнаядокументация.

Правда в том, что никогда не может быть универсального этического стандарта, которому нужно следовать или консультироваться, когда речь идет об ИИ. Америка, Китай и Европа находятся на разных этических волнах, в то время как у крупных технологических компаний конкурирующие планы. Столкнувшись с этой реальностью, помните

Этический ИИ начинается с вас!

Примечания и цитаты.

Об авторе:

Колин Бирн — ИТ-специалист с более чем 25-летним опытом работы в отрасли и недавним (2020 г.) дипломом магистра наук. аспирант в области искусственного интеллекта, из Университета Лимерика.

Ссылки:

[1] 2021 Ethical AI Frameworks. Доступно по адресу: ethical AI framework — Google Scholar.

[2] 2019 г. Установление правил создания надежного ИИ, доступно по адресу:Nature Machine Intelligence

[3] 2021 г. Новый регламент ЕС по искусственному интеллекту, доступно по адресу: Arthur Cox

[4] 2018 г. 50 миллионов профилей Facebook, собранных для Cambridge Analytical в связи с серьезной утечкой данных, доступно по адресу: The Guardian

[5] 2018 г. Этические рамки для хорошего общества искусственного интеллекта, доступно по адресу: Springer

[6] 2021 Китай хочет доминировать в сфере ИИ, США и Европа нуждаются друг в друге, доступно по адресу: Politico

[7] 2021 Google может задавать вопросы об этике ИИ, но ему не нужны ответы, доступно по адресу: The Guardian

[8] 2021 Европейский подход к совершенству и доверию к искусственному интеллекту, доступно на: Europa.eu

[9] 2016 г. Регламент GDPR, доступно на: Europa.eu

[10] 2018 Модель достоверности, методы и мораль, доступно по адресу: Hackernoon

[11] 2019 г. Повседневная этика искусственного интеллекта, доступно в IBM-Watson

[12] 2021 Data Science Institute DIS, Доступно по адресу: American College for Radiology

[13] 2018 г. Искусство искусственного интеллекта Доступно по адресу: Medium

[14] 2016 г. Искусственный интеллект для будущего принятия решений, Доступно на UK.Gov

Приложение:

Практические примеры основныхпринципов.

Человеческая деятельность: Системы искусственного интеллекта должны обеспечивать справедливое общество, поддерживая человеческую свободу действий и основные права, а не уменьшать, ограничивать или искажать человеческую автономию.

Принцип автономии в контексте ИИ означает установление балансамежду полномочиями по принятию решений, которые мы оставляем за собой, и полномочиями, которые мы делегируем искусственным агентам.

  • Практикующий ИИ должен быть внимательным при проектировании систем, обеспечивающих механизмы самоопределения человека, путем создания соответствующих защитных ограждений или блокировок.
  • Требуется надлежащая осмотрительность.
  • Делегирование задач системам ИИ может привести к незапланированным и непредвиденным изменениям в поведении человека.
  • Предварительный кондиционер ИИ должен учитывать социальные последствия решений/прогнозов, сделанных системами ИИ.
  • Они должны выступать за системы, которые способствуют достижению справедливых результатов в обществе.

Целостность: «Поступает правильно, даже когда никто не смотрит» (К. С. Льюис)

• Специалист по ИИ должен сохранять честность и независимость в своих технических суждениях.

  • Специалист по ИИ не должен использовать обфускацию в любой форме, а вместо этого должен стремиться к тому, чтобы его намерения были четкими, краткими и последовательными.
  • Знание соответствующих правовых требований, т.е. Подход ЕС к ИИ .
  • При поиске оценки систем искусственного интеллекта необходимо приложить реальные и ощутимые усилия для получения соответствующих разнообразных точек зрения.

Прозрачность. Данные составляют основу всех систем ИИ. Обработка этих данных сама по себе, независимо от процесса принятия решений, создает серьезные этические проблемы, например. Европейское законодательство (GDRP, 2018) — основа, регулирующая обработку и перемещение пользовательских данных.

  • Специалист по ИИ должен, по крайней мере, знать о происхождении, согласии и применении данных, которые он намеревается обрабатывать.
  • Они должны быть осведомлены о любых правовых последствиях, связанных с распространением и обработкой данных.
  • Они должны различать согласие и информированное согласие и выступать за снижение риска в этой области.

Правдивость: «Соответствие правде или фактам».

Вычислительная поговорка Мусор на входе, мусор на выходе применима и к системам ИИ. Качество ввода данных напрямую влияет на качество вывода данных. Простое получение результата само по себе не является конечным шагом. Результаты должны быть проверены надлежащим образом.¹⁰

  • Контекст и воздействие системы ИИ, предсказывающей результаты, должны формировать требования к проверке. например прогнозирование результатов; Любимые фильмы против направления для автономных транспортных средств.

Осведомленность о предвзятости: Поскольку люди по своей природе уязвимы для предубеждений, а также несут ответственность за создание решений ИИ. Следовательно, существует реальная вероятность того, что человеческие предубеждения будут встроены в системы, которые мы создаем. ¹¹

  • Практикующий ИИ должен развиваться без преднамеренных предубеждений.
  • Стремитесь свести к минимуму предвзятость, как технико-алгоритмическую, так и социальную.
  • Проверяйте рано и часто.
  • Практикующий ИИ должен быть осведомлен о применимых стандартах, специфичных для предметной области, например. стандарты моделирования, программы сертификации и т. д. и выступать за их соблюдение. Стандартизация медицинской визуализации¹²

Подотчетность: Относится к необходимости объяснять и обосновывать свои решения и действия своим партнерам, пользователям и другим лицам, с которыми взаимодействует система.¹³

  • Практикующий ИИ должен знать и уметь сформулировать процесс принятия решений, за который ему поручено.
  • ИИ должен быть разработан таким образом, чтобы люди могли легко воспринимать, обнаруживать и понимать процесс принятия решений.¹¹
  • "Чтобы обеспечить подотчетность, решения должны основываться на используемых алгоритмах принятия решений и объясняться ими".¹³
  • Там, где принятие решений невозможно, например, в нейронных сетях глубокого уровня, необходимо объяснить сам процесс принятия решений.
  • Участие заинтересованных сторон в разработке системы должно быть четко задокументировано.
  • Специалист по ИИ должен знать и/или отстаивать подходящие механизмы возмещения ущерба.
  • Механизм возмещения ущерба должен быть доступен там, где у общества есть законные опасения.¹⁴