(Эта статья была впервые опубликована на Веб-сайте Mind Foundry)

Уже недостаточно измерять точность модели. Этика, объяснимость и более широкая производительность являются ключевыми ключевыми показателями эффективности, которые следует рассматривать как не менее важные приоритеты.

Системы искусственного интеллекта автоматизируют процессы в нашей жизни, но в этом нет ничего нового. Это началось в прошлом веке с нескольких приложений, таких как чтение рукописного почтового индекса и фильтрация спама. Когда интернет-реклама и розничная торговля росли, такие компании, как Amazon, Google, Microsoft и Yahoo, использовали механизмы рекомендаций на основе ИИ в своих основных продуктах. За последнее десятилетие эта тенденция вышла далеко за рамки интернет-торговли и нескольких других разрозненных приложений: Adobe поставила Reinforcement Learning (RL) в основу своих маркетинговых инструментов, Apple использует машинное обучение (ML) для заявок на получение кредита, Tesla строит автомобили с функциями автоматического вождения на основе искусственного интеллекта, Netflix, Disney, Uber, Spotify, список можно продолжить. Сегодня каждый хочет принять участие в акции, и существует армия малых и средних предприятий (МСП), которые ждут, чтобы удовлетворить этот спрос.

Вся эта деятельность привлекла внимание регулирующих органов и даже правительств. Громкие дела, такие как избирательный алгоритм Apple по распределению кредитов, активизировали усилия по регулированию экономики данных. Было введено важное новое законодательство, причем GDPR является лишь одним из примеров, действующих в ЕС. Руководств по передовому опыту эффективного и этичного внедрения ИИ в вашей отрасли и организации становится все больше. ОЭСР и Комиссия ЕС объединили эти многочисленные руководства в единую структуру для этического и устойчивого развития ИИ, основанного на превосходстве и доверии.

ИИ, безусловно, имеет большую ценность для предприятий, генерирующих данные. Однако это не волшебная новая технология, которая «просто работает из коробки». Требуются высокотехнологичные данные и научный опыт, чтобы правильно управлять необработанными данными, разрабатывать системы искусственного интеллекта на их основе и развертывать эти системы в бизнесе. Чтобы убедиться, что разрабатываемые системы искусственного интеллекта решают ценные для бизнеса проблемы, требуются глубокие знания предметной области. И чтобы правильно управлять цифровой трансформацией в бизнесе, требуется понимание обоих этих компонентов. Это очень дорогой человеческий опыт, который нужно нанять или обучить.

Кроме того, у экспертов разные взгляды на то, как лучше всего управлять системами ИИ. В настоящее время закон постоянно проверяется и оспаривается как в судах, так и в научных кругах. Между тем, область разработки этических алгоритмов является молодой. Как, например, компания должна обеспечить конечному пользователю действенное «Право на объяснение» при внедрении автоматизированной системы принятия решений? Недостаточно ясно, что представляет собой это право, и недостаточно хорошо понято, как это требование может быть выполнено алгоритмически, чтобы наилучшая практика точно диктовала, что необходимо делать. Это отсутствие ясности в отношении того, как внедрить достаточные передовые методы, приводит либо к дисфункции управления развертыванием систем ИИ, либо к подавлению инноваций, которые может принести такое развертывание.

Решение Mind Foundry

В рамках нашей миссии по предоставлению нашим пользователям возможности использовать ИИ на благо нашего общества мы считаем, что производительность ИИ должна измеряться не только точностью, но и честностью, конфиденциальностью, безопасностью и другими этическими соображениями.

Компания Mind Foundry разработала структуру аудита и соответствия требованиям, которая объединяет несколько сторон из разных дисциплин и отделов с помощью интуитивно понятного и простого в использовании интерфейса. Система позволяет заинтересованным сторонам с разным опытом записывать весь процесс управления моделью ML, от подготовки данных до построения модели. На каждом этапе процесса передовые технологии для удовлетворения существующих требований соответствия могут быть предложены либо в рамках решения, либо рекомендованы вне решения. Несмотря на значительные достижения в области ИИ, ответственность никогда не будет передана компьютеру, поэтому ключевые лица записываются, а их ответственность за алгоритмы и решения отслеживается с помощью решения.

Регулярный сбор этой информации позволяет нам вести исторический аудит решений, принятых в отношении этики и производительности, и количественно оценивать, как система выполняет свои требования в этих важных областях. Многие параметры, такие как конфиденциальность, могут быть чрезвычайно сложными для измерения и проверки с помощью автоматизированного процесса, поэтому участие тех, кто создал систему, в этом аудите и процессе утверждения является жизненно важным компонентом для получения полной картины системы. производительность.

Постоянная ответственность

Первоначальное одобрение приложений ИИ для использования в производстве многими рассматривается как камень преткновения, но на самом деле это верхушка айсберга. Модели ИИ — это не упрощенные конструкции, которые можно развернуть и забыть о них до тех пор, пока они не будут удалены из эксплуатации. Крайне важно, чтобы производительность и соответствие ИИ этическим стандартам постоянно измерялись и проверялись на соответствие существующим эталонным показателям. Неспособность внедрить адекватные системы мониторинга оставляет организации открытыми для возможности скрытого сбоя ИИ и последующего хаоса, который это может вызвать. Платформа мониторинга и аудита Mind Foundry обеспечивает возможность не только выводить системы из эксплуатации в момент развертывания, но и повторно запускать и постоянно отслеживать согласованные интересующие количества, предоставляя исторические результаты и свидетельства производительности в единой централизованной записи, выступая в качестве системного паспорта, обеспечивающего уверенность. пригодности к функционированию.

Правила на горизонте

Правила в области этики ИИ еще не догнали возможности и проблемы, которые изобилуют в этой области, но движение в этом уже очевидно. Введение GDPR в 2018 году быстро привело к тому, что компании поспешили ретроспективно исправить устаревшие системы, которые нарушали правила, что во многих областях привело к деградации или уменьшению доступности для клиентов. Жизненно важно, чтобы модели ИИ, развертываемые сегодня, не становились жертвой той же ошибки; регулирования пока нет, но оно грядет. Предоставляя надежный, всесторонний контрольный журнал решений и технологий, используемых для предоставления решений, более чувствительных к этическим нормам, специалисты-практики занимают гораздо более выгодное положение перед лицом этого быстро меняющегося нормативного ландшафта.

От образования к пониманию

Совместный рабочий процесс позволяет многим заинтересованным сторонам понять процесс, лежащий в основе аудита модели и сравнительного анализа, сделать свое мнение услышанным и открыть для себя основные принципы работы системы. Дополнительным преимуществом этой настройки является предоставление новым сотрудникам и другим заинтересованным сторонам естественного пространства для обучения у своих коллег в процессе применения структуры соответствия. Понятное и интуитивно понятное представление данных и информации имеет жизненно важное значение, если те, кто контролирует систему, должны нести ответственность за свои решения и поддержку систем, которые прошли через этот процесс. Мы идем еще дальше и предоставляем образовательные учебные материалы — материалы для обучения следующего поколения специалистов по соблюдению требований к ИИ и этически сознательных разработчиков решений в области ИИ.

Ответственный по дизайну

ИИ может кардинально изменить нашу жизнь. При применении в таких областях, как образование, здравоохранение и безопасность, это влияние ощущается во всем обществе. При ответственном подходе это может улучшить человеческие результаты для миллионов людей и изменить мир к лучшему. Но верно и обратное. Именно этот потенциал негативного воздействия делает крайне важным, чтобы производительность и соответствие ИИ этическим стандартам постоянно измерялись и проверялись на соответствие существующим эталонным показателям.

Неспособность внедрить адекватные механизмы мониторинга оставляет организации открытыми для возможности скрытого сбоя ИИ и потенциально катастрофических последствий. Только предоставив людям возможность проверять и брать на себя ответственность за работу внедряемых ими систем искусственного интеллекта, мы можем быть уверены в наличии надлежащих мер безопасности. Платформа мониторинга и аудита Mind Foundry обеспечивает возможность не только подписываться на системы в точке развертывания, но и повторно запускать и постоянно отслеживать согласованные интересующие количества, предоставляя исторические результаты и свидетельства производительности в централизованной единой записи, выступая в качестве системного паспорта, дающего гарантия работоспособности.

ИИ должен создаваться ответственно, и его можно по-настоящему использовать в нашем обществе с соблюдением этических норм только в том случае, если в него с самого начала встроены соответствующие ценности. Это означает, что ИИ должен разрабатываться с учетом этических соображений, которые находят отражение в национальной политике и международных структурах. Они часто включают требование, чтобы решения модели ML сохраняли конфиденциальность, были недискриминационными и могли быть объяснены различным заинтересованным сторонам. Это также означает понимание углеродного следа решения ИИ. Правительство Шотландии запустило свою Стратегию ИИ 22 марта 2021 года. Оно уделяет большое внимание этичному ИИ и было проинформировано о работе, которую они проделали с Mind Foundry для аналитики принятия решений, которая использует ИИ, чтобы поставить граждан на первое место в государственном секторе.

ИИ вышел за рамки простых приложений для оттока клиентов, спам-фильтров и оптимизации электронной почты. Пришло время поддерживать стандарты систем искусственного интеллекта в соответствии с важностью их применения.