Что будет, когда Искусственный интеллект достигнет пика своего развития?

О чем вы думаете, когда речь заходит об Искусственном интеллекте? Полагаю, большинство вспоминает произведения наподобие «Я, робот» или многочисленные фильмы, в которых рассказывается о супер интеллектуальном ИИ, вознамерившимся уничтожить человечество. На деле же все куда прозаичнее: люди, которые непосредственно заняты разработкой ИИ, к подобным страшилкам относятся скептически и не без оснований.

Вряд ли можно назвать Алису от Яндекса, например, угрозой для человечества. Однако существует другая область научных исследований, которая занимается изучением глобальных рисков, то есть событий, потенциально способных привести к падению нашей цивилизации и вымиранию человечества. И, как это не удивительно, по мнению многих исследователей, ИИ действительно представляет для нас с вами потенциальную угрозу.

Как показали результаты исследования, проведенного в начале 2021 года, мы вряд ли сможем управлять компьютерным суперинтеллектом. По мнению авторов научной работы, сверхразум многогранен и, следовательно, потенциально способен мобилизовать разнообразные ресурсы для достижения собственных целей. И эти цели зачастую людям непонятны.

Стоит ли создавать то, что может нас уничтожить?

Исследования глобальных рисков

Сегодня наши знания об окружающем мире настолько обширны, что все предыдущие поколения определенно точно позавидовали бы нам. В то время как наши бабушки и дедушки стирали вручную, так же мыли полы и посуду, сегодня все больше людей возлагают эти обязанности на роботов. Все, что нам остается – загрузить и разгрузить стиральную/посудомоечную машину, что попросту не сравнимо с работой руками.

Но за этот комфорт, все же, приходится платить. История раз за разом демонстрирует нам пути развития общества. За ту немногочисленную историю человечества (по сравнению с возрастом Вселенной) пали такие цивилизации как Майя, Древняя Месопотамия, Древняя Греция, Цивилизация Ольмеко, Древний Рим и прочие, прочие.

Развитие некоторых древних цивилизаций поражает воображение. Но если они исчезли с лица Земли, что будет с нами?

На первый взгляд может показаться, что история падения древних цивилизаций и империй – это не про нас. Ведь наше могущество, способность отправлять в космос ракеты, изучать другие планеты и связывать мир в единое информационное поле должны привести нас к лучшему будущему. Однако реальность, как это часто бывает, рисует совершенно иную картину.

Что такое Искусственный интеллект?

Искусственный интеллект – это попытка создать компьютеры, способные к разумному поведению. По сути, это универсальный термин, используемый для обозначения всего – от Siri до IBM Watson и мощных технологий, которые нам еще предстоит изобрести.

Некоторые исследователи различают «узкий ИИ» или слабый ИИ — компьютерные системы, которые лучше людей в какой-то конкретной, четко определенной области, такой как игра в шахматы, генерация изображений или диагностика рака, — и «общий ИИ» – то есть, системы, которые могут превзойти человеческие возможности во многих областях. На сегодняшний день общего ИИ у нас нет, однако исследователи все лучше начинают осознавать проблемы, который он может собой представлять.

Технологии по распознаванию лиц становятся лучше с каждым годом

За последние несколько лет узкий ИИ добился необычайного прогресса: сегодня системы искусственного интеллекта отлично справляются с переводом иностранной речи, с игрой в шахматы и Го, а также в помогают решать важные вопросы исследовательской биологии, например предсказание того, как сворачиваются белки, и при создании изображений.

Более того, системы искусственного интеллекта определяют, что именно мы увидим в поиске Google или Яндекс или в ленте новостей Facebook или Вконтакте. Они сочиняют музыку и пишут статьи, которые на первый взгляд не отличаются от написанных человеком текстов. Эти же системы разрабатываются для улучшения наведения беспилотных летательных аппаратов и обнаружения ракет.

Но узкий ИИ становится все менее… слабым. На сегодняшний день ученым удалось добиться значительного прогресса в области искусственного интеллекта, кропотливо обучая компьютерные системы конкретным концепциям. И в последние годы интерес многих ученых нацелен на создание компьютерных систем, способных к обучению.

Иными словами, вместо математического описания подробных особенностей проблемы, исследователи позволили компьютерной системе изучать эти особенности самостоятельно. И по мере развития этой системы ИИ начинают демонстрировать более общие возможности.

В целом, прогресс в области искусственного интеллекта позволил ученым добиться огромных успехов, а также поднял насущные этические вопросы. Так, Рози Кэмпбелл из Центра ИИ при Калифорнийском университете в Беркли утверждает, что нынешние трудности никак не связаны с теми жуткими сценариями из фильмов о восстании машин. Скорее, они возникают из-за несоответствия между тем, что мы приказываем нашим системам делать, и тем, что мы на самом деле от них хотим.

Искусственный интеллект несет в себе как прогресс, так и риск возможного регресса и гибели цивилизации

Проблемы, однако, возникают из-за того, что системы действительно хороши в достижении поставленной (или заданной) цели; но цель, которую они усвоили в своей учебной среде – это не тот результат, которого ученые на самом деле хотели добиться.

«В результате мы создаем системы, которые не понимаем, а это означает, что мы не всегда можем предвидеть их поведение», – отмечают исследователи.

Потенциальные угрозы ИИ

Ну вот мы и подобрались к самому интересному. Если ученые действительно сталкиваются с проблемами, описанными выше, то какие же угрозы могут принести нам новейшие открытия в области ИИ? На самом деле все больше исследователей сомневаются в нашей способности управлять сверхразумом, в который потенциально могут превратиться обученные нами системы.

Дело в том, что для управления сверхразумом, находящимся далеко за пределами человеческого понимания, потребуется имитация этого сверхразума, которую мы можем проанализировать. Но если мы не в состоянии понять эти системы, то создать такую симуляцию невозможно. Более того, мы даже не можем установить правила, предложенные Айзеком Азимовым – «не причинять вреда людям». Ведь если мы не понимаем, какие сценарии собирается придумать ИИ, то как их предотвратить?

Как только компьютерная система сможет работать на уровне, превышающем возможности наших программистов, мы больше не сможем устанавливать ограничения, – пишут авторы исследования, опубликованного в журнале Journal of Artificial Intelligence Research.

Проблема развития ИИ заключается в том, что из нашего помощника он может превратиться в нашего врага

Интересно, что часть рассуждений, описанных в научной работе, восходят к трудам Алана Тьюринга 1936 года. С помощью сложных математических уравнений он придумал абстрактную вычислительную машину, которая формализовала определение алгоритма.

Иными словами, он попытался понять, можно ли решить любую задачу с помощью математических алгоритмов (а также те, что можно решить только методом перебора). Сам Тьюринг считал, что к 2000 году машины будут способны обмануть человека в 30% случаев.

Описание «машины Тьюринга» в конечном итоге позволило ученым подступиться к этим сложным задачам.

Алан Тьюринг оказал огромное влияние на развитие систем искусственного интеллекта

Еще одна проблема в случае появления суперинтеллекта, заключается в том, что любая программа, написанная для того, чтобы остановить ИИ, который хочет убить всех людей, может «понять» эту программу (и остановиться) или нет. Суть в том, что математически мы не можем быть абсолютно уверены в том, какой вывод сделает программа. И если говорить совсем просто, это означает, что программу «уничтожить всех» будет невозможно сдержать.

А если не разрушать мир?

Альтернативой обучению ИИ некоторой этике и указанию ему не разрушать мир – а именно в этом по словам исследователей, ни один алгоритм не может быть абсолютно уверен – является ограничение возможностей сверхразума. Например, он может быть отключен от некоторых частей Интернета или от определенных сетей.

Но еще одно недавнее исследование отвергает эту идею, предполагая, что возможности искусственного интеллекта ограничены. Данный аргумент гласит, что если мы не собираемся использовать ИИ для решения проблем, выходящих за рамки человеческих возможностей, то зачем вообще его создавать?

Если мы хотим построить будущее, в котором будут присутствовать ИИ системы, то можем даже не знать, когда появится сверхразум, находящийся вне нашего контроля, такова его непостижимость. А так как мы к созданию сверхразума стремимся, пришла пора задавать серьезные вопросы о направлениях, в которых движется развитие этих технологий.

Технологии могут быть использованы как во благо человека, так и наоборот. Давайте не будем об этом забывать

Суперинтеллектуальная машина, которая управляет миром, звучит как научная фантастика, – говорит Мануэль Себриан из Института человеческого развития Макса Планка. Но уже есть сегодня машины, которые выполняют определенные важные задачи самостоятельно, без полного понимания программистами того, как они этому научились.

Поэтому возникает вопрос – и вполне справедливо – может ли ИИ в какой-то момент стать неконтролируемым и опасным для человечества?

 

источник

  • avatar
  • .
  • +12

0 комментариев

Только зарегистрированные и авторизованные пользователи могут оставлять комментарии.