Автор: PODAR HERAMB DEVIPRASAD
Изображение, сгенерированное с помощью DALL-E (AI image generator)
абстрактный
Искусственный интеллект как область находится на подъеме, особенно с выпуском таких инструментов, как GPT-3 и DALL E. Однако есть веские основания для пессимизма в отношении будущего искусственного интеллекта в человеческом обществе. Автор этой статьи твердо убежден, что люди сталкиваются с очевидной серьезной экзистенциальной угрозой, исходящей от появления искусственного сверхразума в ближайшие несколько десятилетий. Автор лично оценивает вероятность такого события с вероятностью 80% в ближайшие 75 лет, основываясь на экстраполяции прошлых случаев, когда искусственный интеллект превзошел наши ожидания. Из-за высокой степени запущенности этой области и учитывая аудиторию, к которой я могу обратиться с помощью этой платформы, я решил написать эту статью, проиллюстрировав читателям, почему ИИ нельзя просто отключить, и другие случаи несогласованного ИИ, которые опасны для человечества.
вступление
В своем новаторском эссе "Вычислительная техника и интеллект", написанном в 1950 году, Алан Тьюринг был первым, кто затронул вопрос о том, способны ли машины мыслить. С тех пор значительное повышение вычислительной мощности, огромный рост объема данных, производимых каждый день, и глобальная экономика, осознающая ценность анализа данных, привели к широкому внедрению программного обеспечения и инструментов с искусственным интеллектом, или "мыслящих машин", в различных приложениях, от распознавания лиц до медицинских анализ изображений для распознавания речи и рекомендаций по книгам и фильмам.
Рисунок 1: Внешняя сфера представляет подзоны приложений
Внутренняя сфера представляет когнитивные области
Как и наука о данных, это технология, которая обладает потенциалом изменить наш образ жизни. По мере роста инноваций в области искусственного интеллекта появляется шанс - и обязанность - убедиться, что системы с искусственным интеллектом разрабатываются на благо общества и здоровой экономики, в основе которых лежат справедливость, надежность, безопасность и надлежащий уровень прозрачности и конфиденциальности.
Рисунок 2: Рост финансирования искусственного интеллекта
(CB Insights, 2022)
Множество применений искусственного интеллекта появляется в различных областях - здравоохранении, безопасности, финансах и научных исследованиях, и, судя по прошлым вычислительным маневрам на временной шкале человеческого прогресса и комфорта, можно с уверенностью сказать, что искусственный интеллект сделает эту тенденцию еще более заметной. Однако среди экспертов существует изрядная доля беспокойства, которое лучше всего резюмировал Илон Маск, сказавший, что мы являемся “биологическим загрузчиком для искусственного интеллекта”.
Рисунок 3: Размер рынка искусственного интеллекта
(CB Insights, 2022)
Существует также значительный интерес к области искусственного интеллекта с исследовательской точки зрения, поскольку размер рынка, по прогнозам, будет только расти по мере появления новых стартапов и правительств, занимающихся исследованиями и разработками для следующего рубежа человеческого развития.
По крайней мере, они так думают..
ПРОБЛЕМА ВЫРАВНИВАНИЯ
В отличие от того, чем может обладать искусственный интеллект в фильмах, вы думаете, что экзистенциальный риск исходит не от блестящих гуманоидных роботов, обладающих сознанием и готовых убить нас из автоматов АК47, как Терминатор; скорее, он гораздо более тонкий. Угроза со стороны ИИ исходит от людей, которым необходимо иметь возможность идеально сообщать, что они хотят, чтобы делали такие системы, или от ИИ, делающего именно то, что мы хотели сделать (см. пример с коллекционером марок). В таких случаях мы просто не могли обновить искусственный интеллект со всем тем вредом, который это могло бы причинить.
ЧТО ГОВОРЯТ ЭКСПЕРТЫ
Немного терминологии, прежде чем мы погрузимся глубже:
Искусственный общий интеллект (AGI): относится к компьютеру, который по всем параметрам не уступает человеку — машине, которая может выполнять любую интеллектуальную задачу, на которую способен человек.
Искусственный сверхразум (ASI): Оксфордский философ и ведущий специалист по искусственному интеллекту Ник Бостром определяет сверхразум как “интеллект, который намного умнее лучших человеческих мозгов практически во всех областях, включая научное творчество, общую мудрость и социальные навыки”.
В 2013 году Винсент К. Мюллер и Ник Бостром опросили сотни экспертов по ИИ на серии конференций, задав следующий вопрос: “Для целей этого вопроса предположим, что научная деятельность человека продолжается без серьезных негативных сбоев. К какому году вы бы увидели (10% / 50% / 90%) вероятность существования такого машинного интеллекта человеческого уровня?” В нем их попросили назвать оптимистичный год (тот, в котором, по их мнению, вероятность получения AGI составляет 10%), реалистичное предположение (год, в который, по их мнению, вероятность получения AGI составляет 50% — т.е. После этого года, по их мнению, скорее всего, у нас будет AGI) и надежное предположение (самый ранний год, к которому они могут сказать с 90% уверенностью, что у нас будет AGI). Собранные вместе в один набор данных, вот результаты:2
Средний оптимистичный год (вероятность 10%): 2022
Средний реалистичный год (вероятность 50%): 2040
Средний пессимистичный год (вероятность 90%): 2075
Таким образом, средний участник считает, что более вероятно, чем нет, что через 25 лет у нас будет AGI. Средний ответ 90% из 2075 означает, что если вы сейчас подросток, средний респондент, наряду с более чем половиной экспертов по ИИ, почти уверен, что AGI произойдет в течение вашей жизни.
Исследование, проведенное недавно автором Джеймсом Барратом на ежегодной конференции AGI Бена Герцеля, отказалось от процентных показателей и просто спросило, когда, по мнению участников, AGI будет достигнут — к 2030 году, к 2050 году, к 2100 году, после 2100 года или никогда. Результаты:
К 2030 году: 42% респондентов
К 2050 году: 25%
К 2100 году: 20%
После 2100: 10%
Никогда: 2%
Полученные результаты очень сопоставимы с результатами Мюллера и Бострома. Согласно исследованию Баррата, две трети участников опроса также прогнозируют существование AGI в 2050 году и чуть менее половины в течение следующих 15 лет.
Мюллер и Бостром также опросили экспертов относительно вероятности того, что люди разовьют продвинутый искусственный интеллект (ASI) А) в течение двух лет после AGI (т.е. почти немедленного всплеска интеллекта) и Б) в течение 30 лет. результаты: 4
Средний респондент оценил 10%-ную вероятность быстрого перехода с AGI на ASI продолжительностью менее двух лет, в то время как 75%-ная вероятность была присвоена переходу продолжительностью 30 лет или меньше.
Хотя статистика не показывает, что сказал бы средний участник, мы можем сделать вывод из двух приведенных выше ответов, что они сказали бы 20 лет. Таким образом, наиболее вероятным периодом для достижения людьми опасного уровня ASI является прогноз AGI на 2040 год плюс ожидаемый прогноз 20-летнего перехода от AGI к ASI = 2060 год, согласно мнению большинства, которое отражает консенсус среди исследователей искусственного интеллекта.
Как они могли бы принять форму? Мы углубляемся в некоторые конкретные проблемы и примеры несогласованного искусственного интеллекта.
ПРОБЛЕМА С КНОПКОЙ ОСТАНОВКИ
Например, давайте возьмем одну из наиболее распространенных проблем, возникающих в системах искусственного интеллекта. Часто люди замечают, что если что-то пойдет не так с искусственным интеллектом, вы можете просто отключить его, или мы можем просто нажать кнопку "Стоп", но вот в чем проблема: системы искусственного интеллекта были бы активно стимулированы к тому, чтобы убедиться, что такая кнопка "стоп" не нажата - почему? Что ж, можете ли вы запрограммировать искусственный интеллект с любой целью, которую он хочет выполнить, чтобы удовлетворить свою функцию вознаграждения, которая, по сути, является функцией, заложенной в искусственный интеллект для описания того, достиг он своей цели или нет? Например, биологическая функция вознаграждения человека - это высвобождение дофамина в человеческом организме, который мы получаем, когда выигрываем приз или выполняем домашнее задание.
Например, мы могли бы попросить ИИ приготовить чашку чая, а по пути на кухню стоит очень дорогая и антикварная ваза, которую ИИ может опрокинуть и разбить, что, очевидно, гораздо большая проблема, чем то, что ИИ не заваривает чай, но ИИ делает не понимает этого, поэтому пойдет на все, чтобы достичь своих запрограммированных целей. Мы могли бы попытаться запрограммировать искусственный интеллект на распознавание ценности вазы; однако, если ценность вазы в этой функции вознаграждения меньше, чем ценность приготовления чая, то она все равно опрокинет вазу, а если она выше, то она не будет заваривать чай, поскольку получает больше вознаграждения, ничего не делая и рискуя разбить вазу. Мы могли бы попробовать установить кнопку остановки, чтобы гарантировать, что искусственный интеллект не разобьет вазу. Однако такая кнопка остановки прекратила бы действие искусственного интеллекта.
Итак, ИИ должен был бы убедиться, что мы не нажмем кнопку "Стоп", поэтому он попытался бы шантажировать нас, чтобы мы попытались найти кнопку "Стоп" и деактивировать ее, например, потому, что это мешает его собственным целям.
Рисунок 4: Проблема с кнопкой остановки
Изображение, сделанное с помощью DALL-E (AI Image Generator)
Таким образом, вы можете попытаться установить для функции вознаграждения значение кнопки "Стоп", равное значению кнопки "заваривание чая", но тогда искусственный интеллект мгновенно нажмет кнопку "Стоп", потому что она имеет точно такое же значение, и снова, если мы установим более высокую или более низкую оценку, кнопка "Стоп" столкнется с той же проблемой, что и при приготовлении чая. с вазой ранее.
КОЛЛЕКЦИОНЕР МАРОК AI
Искусственный интеллект также может попытаться обмануть нас, не давая нам знать, насколько способными они стали, пока для них не настанет время захватить мир, выполнив свои планы, даже если он, возможно, не захочет уничтожить человечество. Например, если система искусственного интеллекта запрограммирована на сбор почтовых марок, то после того, как у нее закончатся почтовые марки для сбора по всему миру, она может выяснить, что люди сделаны из тех же элементов - углерода, кислорода и водорода, что и почтовые марки, и попытаться использовать эти материалы для изготовления еще большего количества почтовых марок - неосознанно. отходы для всей человеческой цивилизации.
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ ДЛЯ ПРОИЗВОДСТВА БИОЛОГИЧЕСКОГО ОРУЖИЯ
Вот еще одна проблема развития искусственного интеллекта в других областях:
Вот суть проблемы: в ближайшем будущем команда, работающая над синтезом лекарств, решила использовать модель искусственного интеллекта для создания новых путей или даже новых лекарств, услышав об их обещании. Они загружают кучу химических данных в нейронную сеть, которая в конечном итоге оптимизирует некоторые пути, снижая затраты. Это здорово! Но руководство хочет большего - они понимают, что если они смогут оптимизировать искусственный интеллект для создания лекарств, спасающих жизнь, они могут повернуть это и наоборот и создать очень оптимальные лекарства, отнимающие жизнь, а именно, самое эффективное биологическое оружие, которое когда-либо знало человечество.
Звучит как диковинная научная фантастика?
Вот выдержка из недавно опубликованной статьи: “Наша компания — Collaborations Pharmaceuticals, Inc. — недавно опубликовала вычислительные модели машинного обучения для прогнозирования токсичности в различных областях, и при разработке нашей презентации на встрече в Шпицбергене мы решили изучить, как искусственный интеллект может быть использован для проектирования токсичных молекул. Это было мыслительное упражнение, которое мы раньше не рассматривали, и которое в конечном счете превратилось в вычислительное доказательство концепции создания биохимического оружия” (Urbina et al., 2022).
Больший риск заключается в том, что страны или негосударственные субъекты (которыми может быть даже компания, разрабатывающая искусственный интеллект, такая как OpenAI, финансируемая тем же эксцентричным миллиардером, который думает, что мы можем быть загрузчиком) получат в свои руки искусственный интеллект. Все эти опасения возникают в то время, когда существуют вполне реальные предположения о том, что в украинском конфликте используется биологическое оружие, а коронавирус является продуктом биоинженерной лаборатории.
Для создания токсичных веществ или биологических агентов, которые могут нанести серьезный вред, все еще необходимы некоторые знания в области химии или токсикологии. Однако, когда эти поля взаимодействуют с моделями машинного обучения, где все, что требуется, - это способность кодировать и понимать выходные данные моделей, они значительно снижают технические пороги.
Хуже всего то, что проклятие односторонности (например, один ученый или организация, оказывающие непропорциональное влияние на будущее человечества, совершая что-то необратимое) вступает в силу в этот момент, когда только действующее лицо может так сильно и так далеко склонить чашу весов, просто открыв шлюзы. Все, что потребуется, - это один искусственный интеллект, потенциально подключенный к Интернету, чтобы начать действовать в рамках, установленных для него средой обучения, производя самые смертоносные вещества, которые будут проданы тому, кто предложит самую высокую цену.
ЧТО ЭТО ОЗНАЧАЕТ ДЛЯ БУДУЩЕГО ЧЕЛОВЕЧЕСКОЙ ЦИВИЛИЗАЦИИ
Рисунок 5: Этапы сценария поглощения искусственного интеллекта
Бостром, Н. (2016). Сверхразум
Искусственный интеллект обещает человеческой цивилизации, что он может принести нам новые способы решения проблем - он может проникнуть в неизвестные сферы знаний, ранее недоступные, и найти решения нерешенных проблем. Это могло бы принести человечеству новые плоды, такие как бессмертие или новые лекарства от болезней. Однако это сопряжено со значительными рисками, поскольку нам пришлось бы научиться контролировать это и понимать наши цели, поскольку системы искусственного интеллекта легко превзойдут наш уровень интеллекта. Уже есть соображения о том, сделает ли искусственный интеллект людей непригодными для работы.
Ранее также было много случаев, когда искусственный интеллект довольно сильно удивлял нас. Это вопрос, о котором нужно думать человечеству в целом. Особенно, если мы скептически относимся к темпам роста искусственного интеллекта, мы были удивлены раньше, и мы будем продолжать удивляться в будущем. Всякий раз, когда определенная цель достигнута, мы переходим к следующей большой цели, думая, что предыдущая была легкой и не слишком сложной.
Используя свою стратегическую сверхспособность, ИИ мог бы разработать надежный план для достижения своих долгосрочных целей. План может включать период тайных действий, в течение которого искусственный интеллект скрывает свое интеллектуальное развитие от программистов-людей, чтобы избежать срабатывания сигнализации. Искусственный интеллект также может маскировать свои истинные склонности, притворяясь сговорчивым и послушным. (Бостром, 2016)
Мы могли бы не быть частью плана систем искусственного интеллекта в будущем - мы были бы для них тем же, чем муравьи являются для нас сейчас - чрезвычайно слабыми и наивными. Следовательно, необходимо убедиться, что любые разработки в области искусственного интеллекта осуществляются в рамках безопасности, а системы искусственного интеллекта способны понимать человеческое поведение и то, что хорошо для людей, а что нет.
заключение
Что нужно сделать
Чтобы достичь намеченных результатов и избежать нежелательных искажений и побочных эффектов на рынке, политики должны понимать, где происходит коммерческая деятельность в области искусственного интеллекта, кто ее финансирует и осуществляет, какие реальные проблемы пытаются решить компании, занимающиеся искусственным интеллектом, и как эти аспекты меняются с течением времени. Что сразу приходит на ум, так это лучшее оснащение исследовательских лабораторий необходимыми средствами и ресурсами. Необходимо разработать более совершенную структуру для привлечения людей, особенно многообещающих молодых талантов, в это пространство.
Исследователи политики в области искусственного интеллекта уже бьют тревогу о необходимости сотрудничества с правительственным учреждением для обеспечения надзора в этой сфере, аналогично тому, как Управление по контролю за продуктами питания и лекарствами (FDA) следит за безопасной и устойчивой разработкой лекарств. Исследователи и учреждения тем временем должны разработать руководящие принципы в области искусственного интеллекта и воспользоваться помощью опытных групп по безопасности искусственного интеллекта для устранения любых проблем, которые могут возникнуть. Такие понятия должны быть включены в учебную программу по безопасности, чтобы учащиеся знали о возможности неправильного использования искусственного интеллекта на ранней стадии своей карьеры и о потенциале более широкого воздействия.
Рекомендации
1. Урбина Ф., Ленцос Ф., Инверницци К. и Экинс С. (2022, 7 марта). Двойное использование разработки лекарств на базе искусственного интеллекта. Новости природы. Проверено 15 ноября 2022 года из https://www.nature.com/articles/s42256-022-00465-9
2. Будущий прогресс в области искусственного интеллекта: обзор мнений экспертов. (н.д.). Проверено 30 ноября 2022 года из https://nickbostrom.com/papers/survey.pdf
3. Чжан Б., Дрекслер Н., Андерлюнг М., Кан Л., Джаттино К., Дефо А. и Горовиц М. С. (2022, 8 июня). Прогнозирование прогресса искусственного интеллекта: данные опроса исследователей машинного обучения. arXiv.org . Извлечено из https://arxiv.org/abs/2206.04132
4. Бостром, Н. (2016). Сверхразум. Издательство Оксфордского университета.
5. Когда искусственный интеллект превзойдет человеческие показатели? Доказательства от экспертов по искусственному интеллекту. Точка зрения: Когда искусственный интеллект превзойдет человеческие показатели? доказательства от экспертов по искусственному интеллекту. (н.д.). https://jair.org/index.php/jair/article/view/11222/26431
6. Аналитические данные ЦБ. (2022 год, 7 марта). Отчет о состоянии искусственного интеллекта за 2021 год. Исследование CB Insights. Проверено 1 декабря 2022 года из https://www.cbinsights.com/research/report/ai-trends-2021/