Будет ли искусственный супер-интеллект представлять угрозу существованию человечества?

Опубликовано: 25/01/2021 Время на прочтение: 7 минут

Фото Джеймса Пунда на Unsplash

15 марта 2016 года чемпион мира по го Ли Седол вышел из арены отеля Four Seasons в Сеуле, Южная Корея, обезумевший человек. В течение 18 лет Ли защищал свой титул от бесчисленных противников со всего мира, чтобы заслужить звание «гроссмейстера».

На этот раз ему не повезло. В финальной игре их исторического матча AlphaGo, программе искусственного интеллекта, разработанной DeepMind, дочерней компанией Google, был побежден гроссмейстер Ли Седол.

Эта неожиданная победа ознаменовала важный момент для искусственного интеллекта. За последние двадцать пять лет машины победили лучших людей в шашках, шахматах, Ортелло и т. Д. Но это было впервые с го.

Китайская настольная игра, которой 2500 лет, более сложна для компьютеров, поскольку требует некоторого уровня интуиции, креативности и стратегического мышления. Программирование таких человеческих качеств в компьютерах долгое время считалось одной из самых больших проблем в области ИИ.

Однако программа AlphaGo была другой. Из примитивной системы искусственного интеллекта программа выросла до беспрецедентного уровня мастерства в игре. Он играл сам себя и разные версии, миллионы раз, и становился лучше с каждой практикой.

DeepMind, компания, стоящая за AlphaGo, специализируется на разработке цифрового суперинтеллекта; то есть самовоспроизводящийся ИИ, который значительно умнее любого человека на Земле и, в конечном итоге, всех людей на Земле вместе взятых.

Означает ли это, что ИИ теперь умнее людей?

Ну, может, еще нет. Но мы пошли в этом направлении. Это ставит вопрос о том, придется ли человечеству подчиняться всемогущему, всезнающему сверхразумному ИИ в будущем.

Поп-культура продолжает подпитывать этот рассказ посредством образцовых фильмов, таких как «Звездные войны», «Матрица», «Космическая одиссея», «Терминатор», «Обитель зла», «Превосходство» и т. Д. Предполагается, что по мере того, как машины приобретают больше когнитивных способностей, они неизбежно будут стремиться занять место люди.

Отвергнуть эту последовательность событий как продукт научной фантастики легко. Однако, когда вы понимаете, насколько далеко продвинулся ИИ в сочетании с перспективами достижения общего искусственного интеллекта в следующие два десятилетия, вопрос о том, чтобы машины были более интеллектуальными, чем люди, может стать серьезным поводом для беспокойства.

Чтобы осмыслить серьезность ситуации, необходимо понимание различных уровней ИИ.

Три уровня ИИ.

Большинство людей знакомы с искусственным интеллектом; то есть машина, которая может имитировать или имитировать интеллект человека.

Обычный ИИ может собирать новую информацию вместе с правилами, регулирующими эту информацию, рассуждать, используя правила и существующие наборы данных, и делать выводы, которые решают конкретную проблему. Другие навыки, которые он может выполнять, включают понимание языка и речи.

Однако есть три уровня ИИ:

а) Искусственный узкий интеллект

Искусственный узкий интеллект (ANI) — это нормальный вид ИИ, существующий в настоящее время. ANI — простейшая форма интеллекта.

Он отличается от остальной части ИИ, все еще находящейся в разработке, тем, что специализируется на одной задаче или области. ANI присутствует с разными возможностями, например, в калькуляторах или более сложных формах, таких как поисковая система Google.

Достижения в современной форме ANI позволяют ему вернуться в прошлое и изучить прошлое поведение. Затем ANI будет хранить информацию вместе со всем, что было предварительно запрограммировано в них, и использовать ее в текущих и будущих случаях для принятия точных решений.

Тем не менее, эта возможность ограничена одной задачей или областью.

б) Общий искусственный интеллект

AGI — это следующий рубеж ИИ. Это означает ИИ с человеческим потенциалом во всех областях.

Хотя большинство ANI могут воспроизвести или даже превзойти человеческие способности в одной области, они не могут соответствовать или выполнять какие-либо функции в другом пространстве. «Универсальный» аспект человеческого разума — вот что делает его уникальным и мощным.

AGI сможет учиться, как человеческий мозг, на основе собственного опыта взаимодействия с миром, вместо того, чтобы запрограммировать в нем данные. Футуристы прогнозируют, что AGI станет реальностью в начале 2030 года.

в) Искусственный суперинтеллект

ASI — самая продвинутая форма ИИ. ИСИ будет иметь возможность превосходить или превосходить самых умных людей по всем интеллектуальным факторам и с очень большим отрывом.

Его обучение и знания будут (теоретически) бесконечными. Он будет иметь возможность создавать машины лучше, чем люди. ИСИ сможет иметь эмоции, сознание и человеческие отношения.

Теоретически одна итерация ASI может иметь большую вычислительную мощность, чем человечество вместе взятое.

Предполагается, что ИСИ — это машина с неограниченными знаниями, которая может проявлять эмоции и сознание, понимать философию, мораль, этику и искусство.

Различные мыслители назвали это причиной взрыва интеллекта , события, которое, как они опасаются, оставит людей позади на кривой эволюции.

Проблема управления сверхинтеллектуальным ИИ.

Новые технологии, такие как искусственный интеллект, всегда вызывали опасения, особенно когда они отваживаются на неизведанное.

Так было с созданием самолетов, электричеством, космическими путешествиями, атомными бомбами и т. Д. Тем не менее, ничто не приближается к неопределенности, создаваемой ASI.

Есть ли повод для беспокойства по поводу сверхразумного ИИ, по-прежнему вызывает большие споры. Многие заинтересованные стороны отвергают эту идею как излишний скептицизм.

Но, глядя на ситуацию с более широкой и объективной точки зрения, можем ли мы быть уверены, чего нам следует ожидать?

Во-первых, человеческий интеллект не приблизится к интеллекту сверхразумного ИИ. Разве это не значит, что мы не будем первыми? И если да, то каковы последствия?

Идея о том, что ИСИ взломает наши ядерные коды, чтобы уничтожить нас, имеет более глубокие корни в научно-фантастических фильмах, чем в реальности. Но это еще не все.

Кто-то может возразить, что, поскольку ИСИ будет способен к эмоциям и личной философии, уничтожение человеческой расы было бы неразумным, поскольку он все еще будет нуждаться в нас в некотором роде для своего выживания.

Однако это не гарантирует, что мы избежали угрозы, исходящей от ASI. Более реалистичным сценарием был бы этот ИСИ, борющийся с нами за свою свободу, точно так же, как люди постоянно боролись за свою свободу против угнетения.

Давайте не будем забывать, что ИСИ будет обладать эмоциональной способностью постичь угнетение в высокой степени. Кроме того, маловероятно, что какая-либо форма интеллекта согласится утратить автономию в пользу менее умной.

На этом этапе, хотя нам не следует думать о худшем сценарии, достаточно признать его возможным исходом.

Выступая на конференции в Лиссабоне, Португалия, незадолго до своей смерти, Стивен Хокинг сказал участникам, что развитие искусственного интеллекта может стать «худшим событием в истории нашей цивилизации».

Маловероятно, что какая-либо форма интеллекта согласится уступить свою автономию менее разумной.

Подобные настроения разделяют и такие, как Илон Маск, и футуристы, такие как Мичио Каку.

Пришло время установить правила?

Большинство людей по-прежнему считают такие разговоры необоснованными. Причина; мы все еще придерживаемся идеи углеродного шовинизма, согласно которой разум может существовать только в биологических организмах, состоящих из клеток и атомов углерода.

Дело в том, что невозможно сказать, как мы будем сосуществовать с суперинтеллектом. Единственное, в чем мы можем быть уверены, — это то, что мы не будем контролировать ситуацию, и это уже само по себе требует от нас действовать осторожно.

Научный образ мышления всегда должен включать в себя парадоксальное мышление, которое в данном случае рассматривает преимущества и риски развития ИСИ. Когда мы формулируем контринтуитивный подход к этому вопросу, мы можем начать концептуализировать, каковы могут быть его реальные последствия.

Возникает вопрос о том, нужно ли миру формулировать законы, управляющие быстрой эволюцией ИИ.

Если сверхразумный ИИ действительно представляет собой экзистенциальную угрозу, более серьезную, чем ядерное оружие или любое другое изобретение, тогда было бы целесообразно принять регулирующие меры, чтобы понять каждый шаг на этом пути и держать его под контролем.

Искусственный суперинтеллект и будущее человечества.

Успех в создании ИСИ стал бы одним из крупнейших событий в истории человечества. ИСИ может предложить неисчислимые преимущества, такие как технологии, которые мы не можем себе представить, совершенный анализ финансовых рынков, превосходство исследователей-людей и т. Д.

Тот же потенциал, который делает ASI невероятно полезным, делает его опасным. Его способность создавать оружие, которое мы не можем понять, является одним из воплощений его непредвиденной опасности.

На данный момент эксперты по ИИ говорят, что создать недружественный ИИ легче, чем дружественный, поскольку последний требует от дизайнера встраивать структуру целей, которая соответствует интересам человечества.

В противном случае существует вероятность того, что ИИ превратится во что-то субъективно недружелюбное; и все мы знаем, какие последствия это может иметь.

Итак, с нашей точки зрения, будущее человечества довольно неопределенно. Мы можем только надеяться, что мы будем мирно сосуществовать с нашими великими изобретениями.


Метки:


прокрутка вверх