Абстрактный

Искусственный интеллект (ИИ). Несомненно, вы наверняка слышали об этом. Сегодня это везде. Мы используем его во всем, даже не замечая этого. Однако с ростом популярности ИИ появились некоторые проблемы. Одной из таких проблем является расизм, как подняли Джулия Боссманн и Брайан Ригер в своих статьях в «Weforum» [1] и «Labelbox» [2]. Расизм — понятие не новое, и оно все еще существует в современном мире. К сожалению, алгоритмы ИИ также могут стать расистскими из-за своего окружения, окружающих их людей и предвзятости некоторых событий. Это может вызвать опасность и несправедливость для некоторых людей или даже опасные и даже фатальные проблемы.

Ключевые слова: искусственный интеллект, Rasict, расизм, несправедливость.

1. Обсуждение

Как работает ИИ? Как отметили Стюарт Дж. Рассел и Питер Норвиг в своей книге «Искусственный интеллект, современный подход» [3], ИИ работает на основе данных, которые он получает из окружающей среды. Во-первых, он получает данные из окружающей среды с помощью датчиков, камер и других средств обработки информации. Затем он декодирует их на язык, с которым знакомы компьютеры, 0 и 1. После этого он принимает решения на основе этих данных и старых данных, которые он получил, а затем совершенствует себя на основе информации, которую он получает с течением времени.

Так как же ИИ может стать расистом? Способов может быть несколько, но два опаснее остальных. Первый способ заключается в том, что, к сожалению, в нашем обществе все еще есть расисты. Как сказал Эрнст Мах, «мы не должны забывать, что все вещи в мире связаны друг с другом и зависят друг от друга». Эти люди могут быть в любом положении. Одной из таких должностей является специалист по информатике. Поэтому, если кто-то, связанный с проектом ИИ, проявляет расизм, это может повлиять на суждение ИИ. Например, предположим, что он или она делает некоторый уклон в отношении расы в алгоритме ИИ.

В этом случае этот алгоритм явно может стать расистским алгоритмом. Но может ли алгоритм ИИ сам стать расистским? Ответ: да, может. Даже если алгоритм работает безупречно, предположим, что алгоритм обнаружения преступлений, основанный на ИИ, поможет полиции найти преступников. Две возможности могут заставить этот алгоритм вести себя как расистский алгоритм. Первая возможность заключается в том, что в обществе может быть расизм, и алгоритм учится на нем. Например, может быть, существует несколько расистских полицейских, поэтому алгоритм может учиться у них. Таким образом, даже с хорошим алгоритмом существует вероятность того, что алгоритм станет расистским из-за расизма в обществе. Вторая возможность состоит в том, что алгоритм случайно становится расистским. Например, в предыдущем примере может быть случайно более высокий уровень преступности для группы людей с цветом кожи или цветом волос или даже национальностью через год, поэтому алгоритм делает смещение для этой группы , что явно является расизмом. Есть ли решение? Как написала Джейн Э. Фонтейн в своей статье «Луна, гетто и искусственный интеллект: уменьшение системного расизма в вычислительных алгоритмах» [4], есть несколько способов уменьшить эту проблему, а также решить ее. Однако лучший способ уменьшить его в любом аспекте — меньше расизма в обществе. Есть несколько примеров этой проблемы в реальной жизни. Один из них, поднятый Лелом Джонсом в «Философском анализе ИИ и расизма» [5], — это «расизм в правоохранительных органах ИИ». Одной из доступных сейчас систем искусственного интеллекта является COMPOS, используемая полицией США. Она проверяет возможность совершения того же преступления арестованным в будущем на основе его истории. Эта система разработана, чтобы быть более справедливой, но некоторые случаи показывают нам обратное. Так что впереди нас ждет много проблем. Кто-то может сказать, что эти системы уменьшают расизм. Они правы, но расизм по-прежнему остается большой проблемой. Эта система могла только сделать плохую ситуацию менее плохой.

2. Выводы

В целом, ИИ может решить многие трудности, но могут быть и некоторые проблемы, и расизм — одна из них. Таким образом, программист, ученый-компьютерщик или эксперт по искусственному интеллекту должны быть осторожны с тем, какую программу он или она пишет, потому что с небольшими изменениями в своей программе они могут уменьшить проблему и предотвратить некоторые необратимые события.

Рекомендации

[1] Дж. Боссманн, 9 основных этических проблем в области искусственного интеллекта, weform.org, Accessed, 2016.
URL https://www.weforum.org/agenda/2016/10/ top- 10 этических проблем искусственного интеллекта/

[2] Б. Ригер, Labelbox говорит об этике ИИ на конференции O’Reilly’s Strata Data Conference, Labelbox. Доступно (2019 г.).

[3] С.Дж.Рассел, П.Норвиг, Искусственный интеллект, современный подход, Pearson, Saddle River, New Jersey, 2010.

[4] Дж. Э. Фонтейн, Луна, гетто и искусственный интеллект: снижение системного расизма в вычислительных алгоритмах, Ежеквартальное издание правительственной информации (2021 г.).

[5] Л. Джонс, Философский анализ ИИ и расизма, Stance: Международный студенческий философский журнал 13 (2020) 36–46.