И в этом на них полагаться намного надежнее, чем на человека

Вид материалаДокументы

Содержание


2. Понятие и структура «Искусственного интеллекта»
3. Поведение искусственного интеллекта.
Список используемой литературы
Подобный материал:
Искусственный интеллект: мотивированные эмоциональные роботы

Дитрих Дёрнер и Катрин Хилл

Университет Бамберг

96045 Бамберг

Германия

1. Введение:

Компьютеры могут играть в шахматы. Это получается у них намного лучше, чем у многих людей. А также компьютеры могут управлять электростанциями. И в этом на них полагаться намного надежнее, чем на человека.

Но лучше не просите этот, контролирующий работу электростанции, компьютер играть в шахматы. И не следует ожидать, что он предложит вам пути совершенствования чего-либо. Никогда не найдет он лучшего пути выполнения своей задачи, чем был на то запрограммирован. И в случае неожиданной перемены в окружающей среде, ничто автоматически не поменяет его программу.

Искусственный интеллект страдает определенного рода недоработками. Системы искусственных интеллектов жестко ограничены и специфичны. И не способны адаптировать свое поведение в условиях текущей ситуации. Например: подводя итог, диагностическая система не может поторопиться и не так детально просматривать свою базу знаний, когда очень необходимо принять быстрое решение.

Система искусственного интеллекта не выражает какого-либо любопытства, следовательно, не пытается познать окружающую среду. И это огромный минус. Представьте робота, берущего бутылки из конвейера, кладущего их на стол и не осознающего того, что стола больше нет. Система не заметит того, что окружающая среда больше не поддерживает необходимых для ее правильного функционирования условий.


Но существует система, которой не присущи эти недостатки. Система эта ведет себя автономно и приспосабливает свое поведение к различным ситуациям. Это не система искусственного интеллекта, это человек.

Будучи психологами, мы заинтересованы в изучении регуляции поведения человека.

Человек – мотивированная эмоционально-когнитивная система, но не только когнитивная система в смысле современной науки о мышлении. Для того чтобы понять способность человека справляться со сложной, неизведанной реальностью обязательно изучать не только познавательную систему человека, но и дополнительно исследовать взаимоотношения между познанием, эмоциями и мотивациями.

В этой статье мы попытаемся развить основные положения теории, совмещающей такие аспекты как познание, эмоции и мотивации. Мы собираемся описать внутреннюю структуру мотивированной эмоционально-когнитивной системы человека.

Кроме того, для закрепления нашей теории, мы опишем некоторые предварительные тесты.


2. Понятие и структура «Искусственного интеллекта»

Когнитивная психология рассматривает психические процессы, такие как: мышление, познание и память, в частности процесс обработки информации.

Существует множество теоретических систем, которые описывают человеческое мышление как процесс обработки информации. Но как можно описать мотивации и эмоции в терминологии данного процесса?

Мотивации основаны на потребностях. Потребности обозначают заданные отклонения определенных важных переменных величин системы (например, свободная энергия в понятии заряда аккумулятора робота с батарейным питанием и в терминологии глюкозы в крови человека). Помимо потребностей, касающихся выживания системы (например, энергии), вероятно, необходимо упомянуть информационные потребности, такие как потребности исследования окружающей среды. Здесь имеется в виду любопытство. Заданные отклонения легко могут быть интегрированы в процесс обработки данных.

Существует несколько точек зрения на понятие «эмоции». Прежде всего, не до конца ясно, что обозначает данный термин в психологии. Некоторые ученые рассматривают эмоции как инстинкты (Плачик, 1980). Для других эмоции тесно связаны с мотивациями (Бишоф, 1990). Многие авторы представляют эмоции в виде «пережиток» старой филогенетики, предынтеллектуальных форм регуляции поведения. Эти авторы зачастую считают, что эмоции ненужный и, даже, опасный элемент (К, 1928, Костлер, 1978). Другие ученые акцентируют свое внимание на совместное развитие понятий эмоций и умственных способностей (например, Хебб, 1946). Человек – не только самое интеллектуально развитое существо, но и, как мы можем наблюдать, существо самое эмоциональное.

Мы считаем, что эмоции должны рассматриваться как модуляции когнитивных процессов. Это означает, что эмоции – не самостоятельные процессы, а формы, которые когнитивные процессы адаптируют при определенных условиях. Наличие эмоции означает, что процесс регуляции поведения находится в определенной форме согласно условиям данной ситуации.

Эмоции – это модуляции процессов, подготавливающих и контролирующих поведение. Что же это означает? Например, гнев: с точки зрения модуляции познавательных процессов гнев может быть охарактеризован как:

● Высокая активизация (что, среди прочих аспектов, означает высокую скорость обработки информации)

● Высокая «избирательная граница» (то есть значительная склонность к концентрации на действительных намерениях и низкий порог чувствительности к сигналам, не относящимся к этим намерениям).

● Низкий предел разрешающей способности (довольно таки жесткий способ обзора окружающей действительности, планирования, а так же принятия решений, который не берет в расчет условия для деятельности и не рассматривает второстепенные и продолжительные результаты детально. Следовательно, низкий предел разрешающей способности действует на «неограниченное условиями» поведение и «сверхвключающее в себя» планирование).

● Низкая степень корректировки образа текущей ситуации (Тот, кто находится в состоянии гнева, не учитывает детали ситуации, а так же ее изменения).

«Гневное» поведение отличается от «негневного» не тем, что какая-то независимая форма «гнева» присутствует или нет, а потому, что такие параметры как «избирательная граница», «предел разрешающей способности», «активизация» и «степень корректировки» имеют разные значения. Эти специфические уровни модулирующих параметров обеспечивают необходимое поведение в условиях текущей ситуации. При ситуации, дающей толчок к гневу, более свойственно быть быстрым (высокая активизация), быть стойким (высокая избирательная граница), вести себя грубо (низкий предел разрешающей способности) и быть сконцентрированным на источнике гнева и совладением с ним, нежели рассматривать другие детали окружающей действительности (низкий уровень корректировки), другими словами: свойственно быть гневным. В большей степени мы понимаем эмоции как сложную систему, которая модулирует процессы познания. Эмоции определяют, является ли поведение быстрым или медленным, стойким или нет, сконцентрированным на цели или на окружающей действительности, грубым или учтивым.

Рисунок №1 иллюстрирует краткий обзор подсистем, а также взаимодействия в системе искусственного интеллекта.

В верхнем левом углу расположены потребности. У людей много потребностей, таких как голод или жажда, а также коллективность и любопытство. У нашего искусственного интеллекта тоже есть различные потребности. Некоторые возникают периодически (например, голод – в данном случае это энергия), некоторые возникают в результате воздействия окружающей среды (избежание опасности), другие развиваются благодаря внутренним установочным параметрам (любопытство как нехватка знания). Потребностям ИИ (искусственного интеллекта) в различные периоды присуща различная сила. Потребности связаны с определенными целями. Связь заключает в себе общий способ удовлетворения потребности. Например, голод связан с едой, жажда – с водой.

Давайте рассмотрим особенности системы ГЕНИНТ. ГЕНИНТ поддерживает выработку намерений (целей). Не каждая потребность порождает постоянные намерения. Иногда мы не голодны, поэтому намерения утолить голод отсутствуют. ГЕНИНТ вырабатывает намерения, в основном, опираясь на силу потребности. Все выработанные намерения сохраняются в памяти до тех пор, пока не будут удовлетворены основные потребности. Чаще всего в памяти хранится более чем одно намерение. Необходимо решить, какому из них следовать. Это задача СЕЛЕКТИНТ, что означает избирательное намерение. Намерение отбирается в зависимости от важности потребности, срочности ее реализации и способности ИИ, что определяет линию поведения на данный момент. Данное лидирующее намерение затем должно быть реализовано. Реализация осуществляется в РАНИНТ. Оно поддерживает осуществление намерения. Реализация ведущего намерения может быть проведена тремя способами. Во-первых, если ИИ не имеет достаточной информации о том, как реализовать намерение, он выясняет, как это можно осуществить. Он получает знания об удовлетворении потребности. Он обучается. Во-вторых, ИИ может проектировать в случае, если он обладает достаточными знаниями, но у него нет проекта. В-третьих, если у него есть достаточные знания, и подходящий проект, искусственный интеллект работает, он использует общеизвестный автоматизм.

Теперь изучим левую часть рисунка. Механизм РАНИНТ получает входной сигнал от модулирующих параметров (избирательных границ, активизации, степени корректировки, предела разрешающей способности). Эти параметры модуляции определяют способ «осуществления» намерения. К примеру, высокий уровень разрешающей способности обозначает прямое исследование, проектирование, деятельность; низкий уровень разрешающей способности воздействует на исследование, проектирование и деятельность, потому он проходит самым тщательным образом. Сами модулирующие параметры определяются другими параметрами. У них есть входной сигнал, получаемый, с одной стороны, от вырабатываемых намерений (срочность реализации намерения, важность основной потребности, воздействие всех вырабатываемых намерений, а так же компетенция – объективные знания, так же как и чувство компетентности), и, с другой стороны, от отображения реальности (воспринимаемая неопределенность окружающей действительности). Например, модулирующий параметр предела разрешающей способности подвергается воздействию со стороны:

● важности ведущего намерения (основанного на силе ведущей потребности); чем больше важность намерения, тем выше уровень разрешающей способности, то есть тем более тщательно осуществляется исследование, проектирование и деятельность, связанные с этим намерением.

●срочности реализации данного намерения: чем выше срочность, тем ниже уровень разрешающей способности, то есть тем быстрее намерение может быть реализовано, так как оно срочное.

●воздействия потребностей (основанных на силе всех вырабатываемых намерений). Чем выше активизация, тем ниже уровень разрешающей способности, то есть тем быстрее намерение может быть реализовано, так как существует много других вещей, которые необходимо реализовать.

ПЕРЦЕПТ отвечает за восприятие. Этот процесс вызывает отображение ситуации через призму реальности. Сам же ПЕРЦЕПТ подвергается воздействию со стороны модулирующих параметров. Например, чем выше степень корректировки, тем лучше проходит отображение ситуации. ПЕРЦЕПТ воспринимает окружающую действительность со всеми ее деталями, повышающими или удовлетворяющими потребности и либо помогающими, либо затрудняющими реализацию намерения. Так же ПЕРЦЕПТ отображает неясность ситуации. Высокий уровень неясности ситуации означает, что значительная доля событий происходит неожиданно.

Мотивировка Искусственного Интеллекта представлена через потребности и цели на рисунке №1; эмоции представлены через модулирующие параметры, причины их возникновения и воздействие; познавательная способность представлена через информационные процессы в ГЕНИНТ, СЕЛЕКТИНТ, РАНИНТ и ПЕРЦЕПТ, а также в «памяти намерения», отображении реальности и ожидаемых результатах. Крупными стрелами на рисунке мы обозначили связи и взаимодействие мотиваций, эмоций и познания.

В целом теория является компьютерной симуляцией, демонстрирующей автономное и адаптивное поведение. Компьютерная симуляция – Искусственный интеллект способна отвечать потребностям сложного мира:

● она может выбрать одно намерение; решить, какую из потребностей удовлетворить на данный момент.

● она накапливает необходимые знания, разрабатывает планы, использует автоматизм для удовлетворения своих потребностей.

● она адаптирует свое поведение к условиям своего внутреннего состояния и к окружающей действительности.

Рис.№1: структура и взаимодействие искусственного интеллекта (объяснения в тексте).


3. Поведение искусственного интеллекта.

Мы провели исследования поведения многих видов искусственного интеллекта в различных ситуациях окружающей действительности. Выясняется, что «новорожденный» интеллект после прохождения некоторого «обучения» способен жить самостоятельно в своей, похожей на лабиринт, реальности. Наделенный описанной выше системой мотиваций и модулирующих параметров, искусственный интеллект проявляет эмоциональное поведение. Он обладает поведенческими индикаторами для «страха», «надежды», «гнева», «покорности», «депрессии» и других эмоций.

Вообразите опасную ситуацию. Получено предупреждение, что нескольким минутами позже случится что-то ужасное. Вводя искусственный интеллект в подобную ситуацию, мы наблюдаем изменение в его поведении. В момент получения сигналов опасности модулирующие параметры меняют свои величины. Активизация повышается: система увеличивает скорость обработки информации. Избирательная граница мгновенно повышается: на другой стимул, однако, избегая опасной ситуации, становится труднее отбирать для достижения определенной цели. Уровень разрешающей способности быстро понижается: не остается времени на тщательное исследование и планирование ситуации. Степень корректировки образа текущей ситуации снижается: для избегания опасной ситуации стимулу необходимы все ресурсы. Далее этот параметр снова поднимается: при приближении опасности корректировка образа текущей ситуации становится все более важной; наблюдаются возможности ее избегания.

Можно наблюдать высокую активизацию, концентрацию на одном стимуле, довольно таки жесткий способ мышления и поведения, без изначального обозревания того, что находится вокруг, обращенные в неведение реальной ситуации. Мы обнаруживаем, что искусственный интеллект обеспокоен.

Опасной ситуации не существует. Сигнал отбоя снова меняет величины всех четырех модулирующих параметров. Они принимают обычное для них состояние.

Рисунок №2 иллюстрирует протокол параметра модулирования в искусственном интеллекте. Это ситуация предвиденного, но позже не произошедшего опасного события.


Рис.№2: протокол модулирующих параметров поведения в ситуации ожидаемого, но позже не произошедшего события.

Можно предположить, что искусственный интеллект, снабженный эмоциональной системой, «лучше», то есть более приспособлен к выживанию в соответствующей действительности, чем его «коллега» без эмоциональной системы.

Для исследования этого факта мы установили модулирующие параметры на заданный уровень. В данном случае мы имеем «неэмоциональный ИИ»: поведение не приспособлено к ситуации параметрами модуляции. Мы сравнили сто таких ИИ без эмоциональной системы с сотней интеллектов, имеющим данную систему. Критерием соответствия для выживания искусственному интеллекту служит воздействие потребностей. Среднее «давление» потребностей означает эффективное совладение с трудностями окружающей действительности. Итак, в идентичных условиях мы можем сказать, что более приспособленным к выживанию является интеллект с меньшим воздействием на него потребностей. Такой интеллект вырабатывает более действенную систему регуляции поведения. Следующий рисунок (рис.№3) показывает среднее воздействие потребностей для 100 Искусственных Интеллектов с эмоциями и без них соответственно, то есть с модуляцией и без модуляции поведения. Вершины графика иллюстрируют моменты, в которых окружающая действительность повышает потребности. Для обеих групп ИИ, с эмоциями и без них, средняя сила потребностей увеличивается. В целом, можно заметить, что кривая для искусственного интеллекта с системой эмоций лежит ниже другой, принадлежащей интеллекту без эмоциональной системы. Различие расположения двух кривых статистически значимо с t-показателем 41,7 (р < 0.0001). Эмоциональный ИИ испытывает более низкое «давление» потребностей, а это означает, что его система более эффективна. Эмоциональный интеллект более приспособлен к выживанию в своей окружающей действительности, чем неэмоциональный.

Рис.3: Среднее воздействие потребностей для 100 ИИ с эмоциональной системой и без

нее соответственно.

Другим показателем аргументированности наших теоретических заключений является возможность создания искусственных интеллектов различных личностей. Айзенк охарактеризовал всемирно-известные четыре типа темперамента Гиппократа своими измерениями: нестабильный/стабильный, интровертный/экстравертный (см. Айзенк и Рахман, 1965). На рисунке 4 приведены два главных фактора Айзенка и их отношение к четырем темпераментам Гиппократа.

Рис.4: Два главных фактора Айзенка и их отношение к четырем темпераментам

Гиппократа.

Мы попытались воссоздать эти четыре темперамента в искусственном интеллекте: меланхолик, холерик, флегматик и сангвиник. Мы хотели найти теоретическое объяснение происхождению темпераментов. Например, мы выяснили, что меланхолия вызвана более интенсивным переживанием печали, нежели радости. Мы изменили этот фактор, в результате чего искусственный интеллект-меланхолик больше несчастлив и переживает мало хорошего. Затем мы проследили за поведением созданного подобным образом ИИ: самооценка искусственного интеллекта-меланхолика намного ниже, чем у обычного ИИ (рис.5), несмотря на то, что эпистемологическая компетенция практически не отличается. Оценивая соотношение функционирования и нефункционирования (исследование и проектирование), мы открыли ИИ, который много думает и мало делает (рис.7).

Рис.5: Самооценка меланхолика и обычного ИИ в течение их «жизни»

Рис.6: эпистемологическая компетенция меланхолика и обычного ИИ в течение

их «жизни»

Подобным образом мы создали ИИ сангвиника, флегматика и холерика. Для самооценки ИИ-сангвиника мы увеличили воздействие благоприятных и неблагоприятных событий, так как в литературе сангвиник зачастую описывается как крайне взволнованный и готовый умереть темперамент. Изменением темпа роста потребностей мы создали ИИ флегматика и холерика. Мы обнаружили импульсивное поведение холерика, вызванное быстро растущими потребностями и спокойное флегматичное поведение, вызванное медленно растущими потребностями. Мы имитировали все четыре вида темперамента и попытались объединить их в чертеже Айзенка.

Мы интерпретировали измерение стабильности Айзенка в показателях «давления» потребностей. Если это «давление» низкое, организм способен контролировать свои отклонения, организм стабилен. Более высокое «давление» потребностей, наоборот, указывает на меньшую стабильность организма.

Величина интро/экстраверсия была представлена в измерении готовности действовать строго согласно ситуации. Интроверсия означает, что происходит много размышлений (в терминологии нашего ИИ: исследование и проектирование деятельности), и, следовательно, мало действий. Экстраверсия, с другой стороны, означает высокую готовность действовать согласно ситуации. Готовность действовать основана на компетенции действующего лица и срочности проблемы. Мы наблюдаем соотношение размышлений к действиям в ИИ.

Нам очень хотелось узнать, сможем ли мы найти темпераменты искусственных интеллектов в тех же четвертях рисунка, о которых говорил Айзенк. На рисунке 6 приведены результаты. Мы отразили показатели искусственных темпераментов по шкале Айзенка в давлении потребностей и в соотношении размышлений к действиям. Искусственные темпераменты заняли те же места, что описаны у Айзенка.

Рис.7: ИИ меланхолик, холерик, флегматик и сангвиник в терминологии стабильности

Айзенка («давление» потребностей) и экстраверсии (соотношение размышлений

к действиям).

ИИ-меланхолик действует меньше: за одну единицу размышлений он действует три единицы раз. Сангвиник действует больше: за одну единицу размышлений он действует четыре единицы раз. Самое низкое «давление» потребностей мы наблюдаем у ИИ флегматика и сангвиника, а самое высокое – у меланхолика.

Мы хотели сравнить поведение искусственного интеллекта с поведением обыкновенного человека, проведя нечто вроде теста Тьюринга в несколько этапов. Мы запланировали проект, но все еще не получили результатов.

4. Заключение

Поведение нашей мотивированной когнитивно-эмоциональной системы искусственного интеллекта подтверждает, что наша концепция интеграции когнитивных, эмоциональных и мотивированных процессов озвучены и могут быть использованы для объяснения человеческого поведения в сложных системах, и, дополнительно, могут навести на мысль о необходимости создания работающих автономно роботах.

Мы полагаем, что такие роботы должны быть оснащены:

● стимулом любопытства для получения необходимой информации о своей окружающей действительности в случае, если это возможно и необходимо;

● механизмом деятельности или мотивированной выборки для самостоятельного принятия решения «что делать?» учитывая во внимание текущую ситуацию;

● внутренними параметрами, которые определяют «личность» и могут создавать различные типы поведения роботов для разного времени и предназначения;

● эмоциями в терминологии возможности обеспечения гибкого поведения, подходящего данной ситуации


Список используемой литературы

Бишоф, Н.: Эмоциональный беспорядок: В обход трудностей с биологией

Вольфганг Кёлер: Лекция с 36 Конгресса немецкого объединения по психологии, с.1-23, 1990;


Клапареде, Е.: Чувства и эмоции: М.Л. Римерт (изд.): Чувства и эмоции. Витенбергский Симпозиум. Вустер./ М.А.: Кларк Юниверсити Пресс.

Дёрнер, Д: Знания, эмоции и управление своими действиями или Интеллект эмоций. Периодическое издание по психологии, 2, с.167-202, 1993;


Дёрнер, Д: О поддающихся механизации эмоциях.

Сибилле Крэмер (ответственный редактор): Душа – Мозг – Искусственный интеллект. Берлин, 1994;


Айзенк, Х.Дж. и Рахман, С: Причины и способы лечения невроза, Сан-Диего: Кнапп, 1965


Хебб, Д.О.: О природе страха. Психологический обзор, 53, с.259-276, 1946


Костлер, А: Человек – Irrlaufer эволюции, Берн: Шерц, 1978;


Платчик, Р: Эмоция: психически-эволюционный синтез, Харпер и Роу, Нью Йорк , 1980


Шауб, Х.: моделирование управления своими действиями, Издательство Ханц Хубер, Берн, 1993.


Дитрих Дернер и Катрин Хилл

Перевод: Егонян Жанна