В части I мы читаем о страхах, охвативших мир технологий, но, возможно, сейчас нам следует сосредоточиться на других вещах.

У ИИ есть потенциал положить конец человеческой расе — в конце концов, когда-нибудь, может быть. Я здесь, чтобы сказать вам, что этот день не близок, но, как я уже намекал, есть еще много вопросов, которые должны вас волновать.

Пропустили первую часть? Прочитайте здесь сейчас:



Мы должны сосредоточиться на другой угрозе ИИ — среднесрочных рисках, присущих современным технологиям. Мы слышим об этом намного меньше, может быть, потому, что заголовки не такие кричащие, но они ставят настоящие этические дилеммы, которые мы должны решить в первую очередь, прежде чем выдвигать гипотезу о потере контроля над сверхразумными программами.

Возьмем, к примеру, дезинформацию. ChatGPT в настоящее время достаточно хорош, чтобы писать убедительные и основанные на фактах ответы. Если бы его попросили сделать это, он мог бы помочь в распространении пропаганды и теорий заговора. Даже без злого умысла языковые модели склонны к галлюцинациям, то есть к выдаче уверенных ответов, не основанных на фактах реального мира. Использование технологий, которые могут ошибаться, может быть опасным, особенно если они интегрированы в повседневные инструменты, такие как веб-поиск.

Другие вредные последствия ИИ были продемонстрированы с точки зрения гендерных и расовых предубеждений. Известно, что алгоритмы, используемые сегодня при приеме на работу, дискриминируют мужчин. Точно так же были случаи, когда финансовые учреждения, у которых есть модели для определения кредитоспособности, предлагали гораздо более низкие кредитные линии для женщин.

Кроме того, прогностические алгоритмы, используемые в системе уголовного правосудия агрессивно настроены против цветных людей, а самоуправляемые автомобили вряд ли распознают темнокожих людей как людей, которых следует избегать. Примеров таких этических проблем бесчисленное множество. Реальные, актуальные примеры, а не просто домыслы.

Проблема в том, что в реальных данных, на которых обучаются эти технологии, существует предвзятость. Алгоритмы, однако, усиливают предвзятость, определяя, что такие атрибуты, как раса и пол, являются наиболее важными прогностическими факторами. Чем больше мы используем подобные алгоритмы без глубокого изучения последствий, тем больший краткосрочный и среднесрочный вред наносит ИИ.

Тем не менее, с этими случаями у нас все еще есть контроль. У людей есть возможность исследовать наборы данных, которые используются для обучения моделей, оценивать этические последствия их использования и устранять предвзятость в своих программах. При этом мы начинаем понимать, какое влияние ИИ мы принимаем на нашу жизнь, и решаем, какие ограничения мы хотим наложить на него.

У нас гораздо больше автономии, чем мы думаем об этой технологии, но необходимо принять меры для смягчения угроз человечеству, которые действительно существуют в настоящее время. Если мы будем ждать слишком долго, мы действительно можем потерять контроль или, по крайней мере, позволить предвзятым алгоритмам контролировать наши мысли и действия.

Осознать это и внести изменения прямо сейчас намного эффективнее, чем готовиться к концу света. Это поможет нам лучше подготовиться к тому моменту, когда мы действительно достигнем пугающих уровней развития, которые некоторые считают неизбежными.

Есть реальные угрозы ИИ, но большинство из них уже здесь, а не в каком-то апокалиптическом будущем. Наша работа сейчас состоит в том, чтобы лучше осознавать мир, в котором мы живем, по крайней мере до того, как это сделает ИИ.