Мнение

Путь к регулированию ИИ

Вклад Закона об искусственном интеллекте и его всемирное влияние

В середине 2021 года Европейская комиссия предложила новую нормативно-правовую базу ЕС в отношении искусственного интеллекта (ИИ) для Европейского Союза. Таким образом, он представляет собой первую попытку реализовать некоторый уровень регулирования ИИ.

Вы можете прочитать полный официальный документ Предложения Закона об ИИ (на 24 языках)

На данный момент это по-прежнему самое продвинутое и широко принятое предложение по регулированию в этом вопросе. В настоящее время он находится в состоянии предварительного предложения, но ЕС пытается протолкнуть интенсивную повестку дня для принятия в краткосрочной перспективе.

Определение, принятое для системы ИИ, в настоящее время очень широкое и поверхностное.

Эта инициатива внимательно отслеживается во всем мире, поскольку она исходит из необходимости защиты основных прав личности и, следовательно, может повлиять на все человеческое общество.

Эта правовая база рассматривает использование и риски систем ИИ, принимая ограничения в любом определении понятий ИИ и систем ИИ. . По сути, определение, принятое для системы ИИ, в настоящее время очень широкое и неглубокое, поскольку оно останавливается на уровне определения системы ИИ как программной технологии, которая включает в себя машинное обучение, логику системы, основанные на знаниях, и статистические подходы.

Закон об ИИ определяет классификацию систем ИИ в зависимости от уровня их риска, а также определяет ограничения и обязательства в зависимости от уровня риска.

Примечание от редакторов Towards Data Science. Хотя мы разрешаем независимым авторам публиковать статьи в соответствии с нашими правилами и рекомендациями, мы не одобряем вклад каждого автора. Не стоит полагаться на авторские работы, не обратившись за профессиональной консультацией. Подробнее см. в наших Условиях чтения.

Классификация ИИ на основе рисков

Предложение по регулированию не ограничивает технологии или методы. Вместо этого он использует подход, основанный на оценке рисков, предлагая классификацию систем ИИ на основе связанных с ними рисков, определяя различные требования, ограничения и обязательства в зависимости от уровня риска. В частности:

  • Системы ИИ, представляющие «неприемлемые» риски, должны быть запрещены. К ним относятся системы ИИ, охватывающие манипулятивные «подсознательные методы» или использующие определенные уязвимые группы, цели социальной оценки и системы удаленной биометрической идентификации в реальном времени.
  • Системы искусственного интеллекта «высокого риска» будут разрешены, но при условии соблюдения очень строгих требований и обязательств для получения доступа к рынку ЕС. К ним относятся системы искусственного интеллекта, используемые в качестве компонентов безопасности критических продуктов, биометрическая идентификация, эксплуатация критической инфраструктуры, образовательные инструменты; занятость и управление работниками; инструменты доступа к основным услугам; правоохранительные органы; миграция, убежище и пограничный контроль; и отправление правосудия и демократические процессы.
  • Системы ИИ, представляющие лишь «ограниченный риск», будут подчиняться только базовым обязательствам по обеспечению прозрачности. К ним относятся системы, взаимодействующие с людьми (например, чат-боты), распознавание эмоций, биометрическая категоризация, а также генераторы или манипуляторы текста, изображений, аудио- или видеоконтента (включая дипфейки).

Остерегайтесь (пропавшего) слона в комнате: военные и оборонные приложения не подпадают под действие правил. На самом деле, в Законе об ИИ прямо говорится, что

Системы искусственного интеллекта, разработанные или используемые исключительно в военных целях, должны быть исключены из сферы действия настоящего Регламента.

Об этом же говорится и в

Статья 2.3. Настоящий Регламент не применяется к системам ИИ, разработанным или используемым исключительно в военных целях.

Их тоже нельзя регулировать?

Обеспечение соблюдения требований ИИ

В некотором смысле, наряду с этим видением, основанным на оценке рисков, эта структура также охватывает определение органов управления и правоприменения: она учреждает Европейский совет по искусственному интеллекту (обзор процесса и последовательное внедрение в разных странах) и Национальный надзорный орган для каждого государства-члена (надзор за применением и выполнением регламента), а национальные органы надзора за рынком будут нести ответственность за контроль за соблюдением игроками требований благодаря широкому конфиденциальному доступу (в том числе к исходному коду) .

Правоохранительные органы будут применять соответствующие меры для ограничения, запрета, отзыва или отзыва систем ИИ, которые не соответствуют правилам. Это включает в себя административные штрафы в размере до 30 миллионов евро или 6% от общего годового оборота в мире, в зависимости от серьезности нарушения.

Закон об искусственном интеллекте и связанные с ним механизмы правоприменения принимают форму закона об ответственности за качество продукции.

С прагматической точки зрения подход, основанный на оценке рисков, имеет смысл. Тем не менее, это создает несколько проблем для будущей устойчивости и универсальности. В частности:

  • Является ли определение ИИ достаточно широким и точным?
  • Как мы можем быть уверены, что классифицируем приложения в правильном классе риска?
  • Как насчет новых решений и приложений, которые мы не можем предвидеть сейчас?

Кроме того, обратите внимание, что в некотором смысле Закон об искусственном интеллекте и связанные с ним механизмы обеспечения соблюдения в основном принимают форму закона об ответственности за качество продукции. Действительно, такого рода структура явно устанавливает правила и права не на индивидуальном уровне, а на уровне корпорации и продукта. Это имеет серьезные последствия для компаний, производящих и обслуживающих решения на основе ИИ. Компании должны декларировать и демонстрировать уровень риска своих решений и приложений. Они также должны гарантировать соблюдение правил соответствующего уровня риска.

Учитывая, что вся платформа исходит из необходимости защиты основных прав личности, подход, принятый в Законе, кажется довольно несоответствующим основополагающим принципам. Кроме того, этот подход также сопряжен с практическими рисками: кто именно будет нести ответственность в случае возникновения какой-либо проблемы? Компания-разработчик, поставщик или любой посредник, который развертывает, настраивает или настраивает решение?

Структура регулирования ИИ также включает в себя дополнительные аспекты:

  • стандартизация: обсуждение с органами по стандартизации, такими как ISO и IEEE, должно обеспечить максимально широкое и согласованное принятие технологий и определений. Сама НАТО сейчас работает над инициативой по стандартизации по этому вопросу.
  • совершенство: структура не должна (только) ограничивать потенциал ИИ. В то время как, с одной стороны, это ограничит опасное внедрение, с другой, оно будет способствовать инновациям и совершенству как на базовом, так и на прикладном уровне.

Может не иметь смысла регулировать ИИ, если вы не регулируете и не защищаете данные.

По крайней мере, на европейском уровне существует широкое согласие относительно важности и необходимости этой инициативы. Другие страны тоже начали аналогичные процессы: например, США разработали проект Билля о правах ИИ в 2022 году, а Бразилия разработала предварительный закон об ИИ. Многие страны (в том числе США и многие государства-члены ЕС) также заложили национальную инициативу по ИИ, начиная с начала 2020-х годов. Возможно, ЕС может проложить путь к будущему глобальному регулированию ИИ, как это было в случае защиты данных с помощью GDPR.

Действительно, существует широкое сходство в том, что регулирование ИИ может не иметь никакого смысла, если вы также не регулируете и не защищаете данные. Действительно, применение правил ИИ было бы более целесообразным в странах, которые уже имеют хорошо зарекомендовавшие себя законы о защите данных и регулировании .

В этом отношении Европейский Союз снова лидирует на глобальном уровне с введением GDPR, который в настоящее время оказывает гораздо более широкое влияние на более широком уровне.

Европейский Союз может проложить путь к будущему глобальному регулированию систем ИИ, как это было в случае с защитой данных.

Более подробное описание Закона об ИИ можно найти в этом Брифинге Парламента ЕС, а полный официальный документ предложения Закона об ИИ опубликован здесь (на 24 языках). Обсуждения и точки зрения по этому вопросу также исходят от конференции и аналитического центра IdeasLab, организованной Центром европейских политических исследований (CEPS) в Брюсселе, Бельгия, 28 февраля 2023 года.

Вывод: Закон об ИИ может представлять собой первую попытку регулирования систем ИИ на международном уровне. После одобрения он может повлиять и каким-то образом вынудить несколько других стран, включая США, отреагировать аналогичными инициативами, возможно, связанными или вдохновленными этим предложением.

Согласование на международном уровне может быть полезным, в отличие от того, что произошло с регулированием данных в последние годы, когда ЕС лидировал в регулировании GDPR, но США не соответствовали уровню гарантий, запрошенному в GDPR, что создавало путаницу, юридическую блокады и ограничения на передачу и хранение данных на международном уровне.

С другой стороны, это, вероятно, будет первым случаем, когда программные системы и модели будут явно и напрямую ограничены в использовании и реализации. Можно задаться вопросом, почему это относится к системам ИИ, в то время как такая потребность не возникала в прошлом для других категорий программного обеспечения или математических моделей. Это может стать важным прецедентом для будущего регулирования технологий в целом.

Зачем нам регулировать системы ИИ, если в прошлом мы не регулировали другие категории программных моделей и алгоритмов?

Что вы думаете? Следует ли регулировать ИИ? Как?

У вас есть своя точка зрения, которой вы можете поделиться?

Какие подводные камни может выявить риск-ориентированный подход в долгосрочной перспективе?

Повлияет ли такое регулирование на (ваш) бизнес, инновационные процессы или практику обработки данных?