Знаменитые ученые призывают к введению моратория на обучение более мощных искусственных интеллектов

Более тысячи экспертов в области искусственного интеллекта, включая Илона Маска, Стива Возняка, Йошуа Бенджио, Стюарта Рассела и Юваль Ной Харари, призывают к контролированной и обязательной паузе в обучении ИИ систем, более мощных, чем недавно представленная модель GPT-4. В открытом письме опубликованном некоммерческим институтом Future of Life, говорится о потенциальных рисках для человечества от дальнейшего неконтролируемого развития систем искусственного интеллекта.

Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для дальнейшего проектирования и разработки ИИ, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Это не означает остановку развития искусственного интеллекта в целом, а лишь является необходимым шагом назад от опасной гонки к все более мощным и непредсказуемым моделям ИИ, работающим по принципу черного ящика.

Перевод письма

Системы ИИ с интеллектом, сопоставимым с человеческим, могут представлять серьезную опасность для общества и человечества, как показывают обширные исследования[1] и признают ведущие лаборатории ИИ.[2] Как говорится в широко одобренных Асиломарских принципах ИИ, продвинутый ИИ может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соответствующим вниманием и ресурсами. К сожалению, такого планирования и управления не происходит, несмотря на то, что в последние месяцы лаборатории ИИ вступили в неконтролируемую гонку по разработке и внедрению все более мощных цифровых разумов, которые никто - даже их создатели - не может понять, предсказать или надежно контролировать.

Современные системы ИИ сейчас становятся конкурентоспособными по отношению к человеку при выполнении общих задач,[3] и мы должны спросить себя: Должны ли мы позволить машинам наводнить наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать всю работу, включая ту, которая приносит удовлетворение? Должны ли мы развивать нечеловеческие разумы, которые в конечном итоге превзойдут, перехитрят, устареют и заменят нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны быть делегированы неизбираемым техническим лидерам. Мощные системы ИИ должны разрабатываться только тогда, когда мы уверены, что их влияние будет положительным, а риски - управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать по мере увеличения масштабов потенциального воздействия системы. В недавнем заявлении OpenAI относительно искусственного интеллекта общего назначения говорится: "В какой-то момент может оказаться важным получить независимую экспертизу, прежде чем начинать обучение будущих систем, а для наиболее продвинутых усилий договориться об ограничении темпов роста вычислений, используемых для создания новых моделей". Мы согласны. Этот момент настал.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4. Эта пауза должна быть публичной, проверяемой и охватывать всех ключевых участников. Если такая пауза не может быть введена быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для проектирования и разработки передового ИИ, которые будут строго проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, безопасны вне разумных сомнений. 4] Это не означает паузу в развитии ИИ в целом, а лишь отступление от опасной гонки за все более крупными непредсказуемыми моделями "черного ящика" с эмерджентными возможностями.

Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны сотрудничать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Как минимум, они должны включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокоэффективных систем ИИ и больших массивов вычислительных возможностей; системы проверки происхождения и водяных знаков, помогающие отличать реальное от синтетического и отслеживать утечку моделей; надежную экосистему аудита и сертификации; ответственность за причиненный ИИ вред; надежное государственное финансирование технических исследований безопасности ИИ; а также хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических нарушений (особенно демократии), которые вызовет ИИ.

Человечество может наслаждаться процветающим будущим с ИИ. Преуспев в создании мощных систем ИИ, мы теперь можем наслаждаться "летом ИИ", когда мы пожинаем плоды, совершенствуем эти системы для всеобщего блага и даем обществу шанс адаптироваться. Общество взяло паузу в отношении других технологий с потенциально катастрофическими последствиями для общества.[5] Мы можем сделать это и здесь. Давайте наслаждаться долгим летом ИИ, а не бросаться без подготовки в осень.

++
ОФИС В ЕКАТЕРИНБУРГЕ

работаем в режиме онлайн

г. Екатеринбург
+7 (922) 601-81-71
ПН-СБ 9:00am-19:00pm
[email protected] 24 X 7 поддержка