HAL 9000 никогда не появится: эмоции не программируются

HAL 9000 никогда не появится: эмоции не программируются

HAL 9000 — один из самых известных киношных искусственных интеллектов. Эта превосходная форма разумного компьютера дала сбой на пути к Юпитеру в знаковом фильме Стэнли Кубрика «Космическая Одиссея 2001 года», который в настоящее время празднует 50-летие своего выхода. HAL может говорить, понимает человека, выражение его лица, читает по губам — и играет в шахматы. Его превосходные вычислительные способности подкрепляются уникальными человеческими чертами. Он может интерпретировать эмоциональное поведение, рассуждать и ценить искусство.

Наделив HAL эмоциями, писатель Артур Кларк и кинорежиссер Стэнли Кубрик сделали его одним из самых человекоподобных образов разумных технологий. В одной из самых красивых сцен в научно-фантастических фильмах он говорит, что ему «страшно», когда командир миссии Дэвид Боуман начинает отключать его модули памяти после серии убийственных событий.

HAL запрограммирован обеспечивать помощь экипажу корабля “Дискавери”. Он управляет судном, заручившись поддержкой своего мощного искусственного интеллекта. Но скоро становится понятно, что он весьма эмоционален — он может испытывать страх, сочувствовать, пусть и немного. Фантастика фантастикой, но такой эмоциональный искусственный интеллект в наших реалиях просто невозможен на текущий момент. Любая глубина эмоций и чувств, которую вы найдете в современных технологиях, будет абсолютно фальшивой.

“Идеальный” искусственный интеллект

Когда в фильме Боуман начинает вручную править функции HAL, тот просит его остановиться, и когда мы видим поразительное разрушение «умственных» способностей HAL, ИИ пытается успокоить себя, напевая «Дэйзи Белл» — это, наверное, первая песня, которую написал компьютер.

По сути, зрители начинают чувствовать, что Боуман убивает HAL’а. Отключение похоже на месть, особенно после того, что стало известно из предыдущих событий фильма. Но если HAL способен выносить эмоциональные суждения, ИИ реального мира определенно будет ограничен в способностях к рассуждению и принятию решений. Более того, несмотря на мнение футурологов, мы никогда не сможем запрограммировать эмоции так, как это сделали фантасты — создатели HAL, потому что не понимаем их. Психологи и нейробиологи однозначно пытаются выяснить, как эмоции взаимодействуют с познанием, но пока не смогли.

В одном из исследований, проведенном с участием китайско-английских билингвистов, ученые изучали, как эмоциональное значение слов может менять бессознательные умственные процессы. Когда участникам представляли положительные и нейтральные слова вроде «праздника» или «дерева», они бессознательно извлекали словоформы на китайском. Но когда у слов было негативное значение, например, «убийство» или «изнасилование», их мозг блокировал доступ к родному языку — без их ведома.

Рассуждения и эмоции

С другой стороны, мы хорошо понимаем, как работает рассуждение. Мы можем описать, как приходим к рациональным решениям, пишем правила и превращаем эти правила в процесс и код. Но эмоции остаются загадочным эволюционным наследием. Их источник невозможно отследить, настолько он обширен, и это не просто атрибут разума, который можно внедрить намеренно. Чтобы запрограммировать что-то, вам не только нужно знать, как это работает, но и зачем. У рассуждения есть цели и задачи, у эмоций — нет.

В 2015 году было проведено исследование со студентами Университета Бангора, говорящими на мандарине. Им предложили сыграть в игру с возможностью выиграть деньги. В каждом раунде им нужно было принимать или оставлять предложенную ставку на экране — например, 50% шанс получить 20 очков, 50% шанс потерять 100.

Ученые предположили, что возможность говорить на родном языке прибавит им эмоций и они будут вести себя не так, как если бы они общались на втором языке, английском. Так и произошло: когда обратная связь проходила на родном китайском, испытуемые были на 10% более склонны делать ставку в следующем раунде, независимо от риска. Это показывает, что эмоции влияют на рассуждения.

Возвращаясь к ИИ, поскольку эмоции не могут быть в полной мере реализованы в программе — какой бы сложной она ни была — рассуждение компьютера никогда не изменится под давлением его эмоций.

Одна из возможных интерпретаций странного “эмоционального” поведения HAL заключается в том, что он был запрограммирован на симуляцию эмоций в экстремальных ситуациях, где ему нужно было манипулировать людьми, основываясь на здравом смысле, но взывая к их эмоциональному «я», когда человеческий разум терпит неудачу. Это единственный способ увидеть убедительное симулирование эмоций в таких обстоятельствах.

На мой взгляд, мы никогда не создадим машину, которая сможет чувствовать, надеяться, бояться или радоваться по-настоящему. Любое приближение будет симулякром, потому что машина никогда не будет человеком, а эмоции — это по умолчанию человеческая часть.

Источник

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *