Центр стратегических оценок и прогнозов

Автономная некоммерческая организация

Главная / Наука и общество / Будущее информационного общества / Статьи
Что такое хорошо, что такое плохо: будет ли совесть у искусственного интеллекта?
Материал разместил: AдминистраторДата публикации: 15-10-2020
Сможет ли искусственный интеллект изучить моральные ценности человеческого общества? Сможет ли принимать решения в ситуациях, когда необходимо взвесить все за и против? Сможет ли развить чувство правильного и неправильного? Короче говоря, будет ли у него совесть?

Эти вопросы могут показаться неуместными, учитывая что современные системы ИИ способны выполнять довольно ограниченное число задач. Но по мере развития науки его возможности все больше расширяются. Мы уже видим, как алгоритмы искусственного интеллекта применяются в областях, где границы «хороших» и «плохих» решений трудно определить, — например, в уголовном правосудии или отборе резюме.

Мы ожидаем, что в будущем ИИ будет заботиться о пожилых людях, обучать наших детей и выполнять множество других задач, требующих человеческой эмпатии и понимания норм морали. Поэтому вопрос осознанности и добросовестности ИИ становится все более острым.

С этим запросом я начал искать книгу (или книги), которая объясняла бы, как у людей формировалась совесть. И дала бы подсказку, какие знания о мозге человека могут помочь в создании совестливого искусственного интеллекта.

Друг предложил мне изучить книгу «Совесть: истоки нравственной интуиции» доктора Патриции Черчленд, нейробиолога, философа и почетного профессора Калифорнийского университета в Сан-Диего. Книга доктора Черчленд и личная встреча с ней дали мне хорошо понять, каковы масштабы и ограничения науки о мозге. «Совесть» показывает, как далеко мы продвинулись к пониманию связи между физиологией и работой мозга и моральными качествами людей. Также книга проливает свет на то, какой путь нам еще предстоит пройти, чтобы по-настоящему понять, как люди принимают моральные решения.

Книга написана доступным языком и понравится тем, кто заинтересован в изучении биологической основы сознания и размышляет на тему «человечности» искусственного интеллекта.

Ниже очень краткое изложение того, что «Совесть» рассказывает о развитии морального выбора в человеческом мозге. Поскольку именно с него списана модель ИИ, больше знаний о совести поможет нам понять, что необходимо искусственному интеллекту для изучения моральных норм.

Система обучения

«Совесть — это индивидуальное суждение человека о том, что является правильным или неправильным. Обычно, но не всегда это суждение отражает мнение группы, к которой человек себя причисляет», — пишет доктор Черчленд в книге.

Но как люди развили способность понимать, что правильно, а что нет? Чтобы ответить на этот вопрос, доктор Черчленд переносит нас в прошлое, когда появились наши первые теплокровные предки.

Птицы и млекопитающие — эндотермы: их тела могут сохранять тепло. В то время как у рептилий, рыб и насекомых, иных холоднокровных организмов тело приспосабливается к температуре окружающей среды.

Большое преимущество животных-эндотермов — способность собирать пищу ночью и выживать в более холодном климате. Но таким существам нужно гораздо больше пищи для выживания. Это привело к ряду эволюционных шагов в мозге теплокровных млекопитающих, которые сделали их умнее. Наиболее заметное изменение — развитие коры головного мозга.

Кора головного мозга может интегрировать сенсорные сигналы и формулировать абстрактное представление о событиях и вещах, относящихся к выживанию и производству потомства. Она учится, обобщает новые знания, вспоминает и продолжает обучение.

Кора позволяет млекопитающим быть более гибкими и не чувствительными к изменениям погоды и ландшафта. В отличие от насекомых и рыб, которые очень зависят от стабильных условий окружающей среды.

Но, опять же, способность к обучению компенсируется тем, что млекопитающие рождаются беспомощными и уязвимыми. В отличие от змей, черепах и насекомых, которые после вылупления способны бегать и полноценно функционировать, млекопитающим нужно время на развитие навыков выживания.

Кроме того, их выживание зависит друг от друга.

Развитие социального поведения

В мозге всех живых существ есть система вознаграждения и наказания, которая гарантирует, что они делают все для выживания и передачи генов. Мозг млекопитающих немного адаптировал эту функцию, чтобы приспособиться к жизни в обществе.

«В ходе эволюции чувства удовольствия и боли, помогающие выживать, были переориентированы, чтобы развить аффилированное поведение, — пишет Черчленд. — Самолюбие распространилось на родственную, но новую сферу — любовь к ближнему».

Основной причиной этого изменения стали потомки. Эволюция вызвала трансформации в мозге млекопитающих, чтобы поставить на первое место заботу о детях. Матери, а у некоторых видов оба родителя, готовы пойти на все, чтобы защитить и прокормить свое потомство. Даже если лично для них в этом нет выгоды.

В книге «Совесть» автор описывает эксперименты по определению биохимических реакций мозга различных млекопитающих, которые поощряют социальное поведение, в том числе заботу о потомстве.

«Социальная жизнь млекопитающих качественно отличается от жизни других социальных животных, у которых отсутствует кора головного мозга, — например, пчел, термитов и рыб, — пишет Черчленд. — Мозг млекопитающих более гибкий, меньше завязан на рефлексах, более восприимчив к изменениям в окружающей среде. Он склонен как к долгосрочным, так и к краткосрочным суждениям. Социальный мозг млекопитающих позволяет им ориентироваться в мире, чтобы понимать, что намерены сделать или ожидают от тебя другие члены общества».

Человеческое социальное поведение

Из млекопитающих у человеческого мозга самая большая и сложная кора. Мозг homo sapiens в три раза больше мозга шимпанзе, с которыми у нас был общий предок 5-8 млн лет назад.

Большой мозг, естественно, делает нас умнее, но также требует более высоких энергозатрат. Так как же мы стали оплачивать этот калорийный счет?

«Умение готовить еду на огне, скорее всего, было решающим поведенческим изменением, которое позволило мозгу гоминина развиться за пределы мозга шимпанзе и довольно быстро продолжить эволюцию», — пишет Черчленд.

Научившись удовлетворять потребности организма в энергии, гоминины стали способны в итоге выполнять более сложные задачи. Например, развивать социальное поведение и строить общественные иерархии.

Получается, наше поведение, включая соблюдение моральных норм и правил, — это результат борьбы за выживание и необходимость получать необходимое число калорий.

«”Тривиальная потребность в энергии” звучит не достаточно глубоко, конечно, но, тем не менее, это реальная причина», — пишет Черчленд в книге «Совесть».

Наша генетическая эволюция благоприятствовала развитию социального поведения. Моральные нормы возникли как ответы на наши потребности. А мы, люди, как и любые другие живые существа, подчиняемся законам эволюции, которые Черчленд описывает как «слепой процесс, который без какой-либо цели возится с уже существующей структурой». Строение нашего мозга — результат бесчисленных экспериментов и корректировок.

«Между частью мозга, отвечающей за заботу о себе, и той, что усваивает социальные нормы, как раз и кроется то, что мы называем совестью, — пишет Черчленд. — В этом смысле наша совесть — это “конструкт” мозга, посредством которого инстинкты самосохранения и других преобразуются в конкретные формы поведения посредством развития, имитации и обучения».

Это очень деликатная и сложная тема, и, несмотря на все достижения науки о мозге, многие загадки человеческого разума и поведения остаются открытыми.

«То, что важную роль в происхождении человеческой морали сыграла простая необходимость в пище, не означает, что порядочность и честность нужно обесценивать. Эти добродетели по-прежнему достойны восхищения и очень важны для нас, независимо от их скромного происхождения. Именно они делают нас людьми», — пишет Черчленд.

Искусственный интеллект и совесть

В книге «Совесть» Черчленд обсуждает и другие темы, в том числе роль обучения с подкреплением в развитии социального поведения и способность коры головного мозга человека учиться на собственном опыте, размышлять над контрфактическими суждениями, разрабатывать модели мира, проводить аналогии и другое.

По сути, мы используем ту же систему вознаграждения, которая позволила нашим предкам выжить, и опираемся на особенности нашей многоуровневой коры головного мозга, чтобы принимать сложные моральные решения.

«Моральные нормы возникли в контексте социальной напряженности и закрепились на биологической почве. Изучение социальных практик основывается на системе положительного и отрицательного вознаграждения мозга, а также на его способности решать проблемы», — пишет Черчленд.

После прочтения «Совести» у меня возникло много вопросов о роли этого морального компаса в ИИ. Станет ли совесть неотъемлемой частью искусственного интеллекта? Если к выработке социальных норм и морального поведения нас подтолкнули физические ограничения, необходимы ли подобные требования для ИИ? Играют ли физический опыт и сенсорное восприятие мира решающую роль в развитии интеллекта?

К счастью, после чтения «Совести» у меня была возможность обсудить эти вопросы с доктором Черчленд лично.

Требуется ли физический опыт для развития совести в искусственном интеллекте?

Что очевидно из книги доктора Черчленда (и других исследований биологических нейронных сетей), физический опыт и ограничения играют важную роль в развитии интеллекта и, соответственно, сознания у людей и животных.

Но сегодня, когда мы говорим об искусственном интеллекте, мы имеем в виду программные архитектуры, такие как искусственные нейронные сети. ИИ в актуальной форме — это в основном бестелесные строки кода, которые выполняются на компьютерах и серверах и обрабатывают данные. Будут ли физический опыт и ограничения необходимыми для разработки действительно человеческого ИИ, способного ценить и соблюдать моральные нормы общества?

«Трудно понять, насколько гибкой может быть работа ИИ, учитывая, что анатомия машины сильно отличается от анатомии мозга, — рассказала доктор Черчленд в нашей беседе. — В случае биологических систем решающее значение имеет система вознаграждения, система обучения с подкреплением. Ощущения положительного и отрицательного вознаграждения необходимы для познания окружающей среды. Это может быть не так в случае искусственных нейронных сетей. Мы просто об этом не знаем».

Доктор также отметила, что мы до сих пор не знаем, как думает мозг.

«С этим знанием нам, возможно, не потребовалось бы копировать абсолютно все особенности биологического мозга в искусственном интеллекте, чтобы добиться похожего поведения», — добавила она.

Черчленд напомнила, что изначально сообщество разработчиков ИИ отвергало нейронные сети. Но в итоге признало их довольно эффективными, когда нейронные сети показали свой потенциал в исполнении вычислительных задач. И хотя современные нейронные сети серьезно уступает возможностям человеческого мозга, в будущем нас могут ждать сюрпризы.

«Мы знаем, что млекопитающие с развитой корой головного мозга, системой вознаграждения и биологическими нейронными сетями могут учиться и структурировать информацию без огромного количества данных, — сказала она. — На сегодняшний день искусственная нейронная сеть может быть настолько хороша для распознавания лиц, насколько бесполезна при классификации млекопитающих. Дело может быть просто в числах».

Нужно ли нам воспроизводить тонкие физические различия мозга в ИИ?

Один из выводов, что я сделал после прочтения «Сознания», заключался в том, что люди обычно соглашаются с социальными нормами общества, но время от времени бросают им вызов. И уникальное строение человеческого мозга, и гены, которые мы унаследовали от родителей, и опыт, который мы приобретаем, позволяют нам заниматься тонкой настройкой моральных ориентиров. Люди могут переосмысливать ранее установленные моральные нормы и законы, а также придумывать новые.

Одна из самых растиражированных особенностей искусственного интеллекта — его воспроизводимость. Когда вы создаете алгоритм ИИ, вы можете реплицировать его бесчисленное количество раз и развертывать на любом количестве устройств. Все они будут идентично работать по последним настройкам нейронных сетей. Теперь возникает вопрос: если все ИИ равны, будут ли они статичны в своем социальном поведении и потому лишены той гибкости, которая определяет динамику социального прогресса общества?

«Пока у нас не будет более глубокого понимания того, как работает мозг, на этот вопрос ответить будет трудно, — сказал Черчленд. — Мы знаем, что для того, чтобы получить сложный результат с помощью нейронной сети, в ней не обязательно должны быть такие биологические элементы, как митохондрии, рибосомы, белки и мембраны. Сколько еще в нем не должно быть? Мы не знаем…. Без данных я просто очередной человек, высказывающий мнение. А у меня нет данных, которые бы сказали: вам нужно имитировать такие-то схемы в системе обучения с подкреплением, чтобы создать более человечную нейронную сеть».

Нам еще многое предстоит узнать о человеческой совести. Еще больше о том, применимо ли это к технологиям искусственного интеллекта и как именно.

«Мы не знаем точно, что делает мозг, когда мы учимся сохранять баланс в стойке на голове, — пишет Черчленд в журнале «Conscience». — Еще меньше мы знаем о том, что делает мозг, когда учится находить баланс в социально сложном мире».

Но по мере изучения и раскрытия секретов мозга, будем надеяться, мы будем все более оснащены для создания ИИ, который послужит на благо человечества.


Источник: https://habr.com/ru/company/selectel/blog/522782/ 


МАТЕРИАЛЫ ПО ТЕМЕ: Наука и общество
Возрастное ограничение