Слайд 1

Вид материалаДокументы

Содержание


Запросы к задачнику
Запрос к предобработчику
Запрос к исполнителю «Обработать очередной пример». Вид ответа зависит от параметров запроса. Запросы к учителю
Запрос к контрастеру «Отконтрастировать сеть». Ответом является код завершения операции контрастирования. Запрос к оценке
Запрос к интерпретатору ответа
Запросы к сети
Слайд 6-7
Подобный материал:

Слайд 1



До настоящего времени в вычислительной технике господствует однопроцессорная фон-неймановская архитектура компьютеров, которая принципиально не менялась с 40-50-х годов.

Если возникала необходимость построить на базе традиционных компьютеров специализированный вычислитель, к примеру, с использованием оптики, то собственно оптической части вычислителя поручался тот этап вычислений, который требовал наибольшей производительности.

Такими этапами могли быть, например, умножения вектора на матрицу, перемножение матриц и т. п. Все эти операции оптические вычислители выполняли превосходно. Но, для оптической обработки огромных массивов данных было необходимо:
    1. формировать их специальным образом;
    2. загружать данные в оптическую систему через "узкое горло" электронных трактов;
    3. извлекать их из оптической системы через "узкое горло" электронных трактов.

Часто алгоритм решения задач был составлен так, что этапы вычислений, на которых можно было использовать оптику, чередовались с этапами, на которых была возможна только электронная обработка данных, естественно, со всеми недостатками электронного "узкого горла".

В результате чего, преимущества оптики уничтожались электронной фон-неймановской частью спецвычислителя. Имея компьютер фон-неймановской архитектуры вычислители иной структуры лучше было вообще не использовать, не тратить время и ресурсы на подготовку данных и расшифровку результатов, лучше сразу считать задачу, последовательно перебирая команды программы.

Итак, сильная сторона электроники (транзисторной) состоит в ее способности быстро и удобно (технологично) обрабатывать в двумерной плоскости информацию, представленную в виде одномерной последовательности битов. Поэтому цифровые компьютеры быстро вытеснили все остальные типы компьютеров еще в 50-е годы.

В иных системах, опять же, к примеру, в оптике, все не так, как в электронике. У иных систем совсем другие сильные стороны. Поэтому приемы обращения с информацией, эффективные в электронике, абсолютно неэффективны в других вычислителях. С переходом на новый носитель информации необходимо перейти и на новые приемы ёобращения с ней. Поменяв технологию реализации аппаратной части вычислителя, перейдя на новый носитель информации, необходимо поменять и саму технологию, и логический базис представления информации.

Выход из этой тупиковой ситуации появился оттуда, откуда его не ждали. Он, заключается в том, что сами вычислительные задачи повышенной сложности, для решения которых и создаются специализированные компьютеры, нужно решать по другому, используя другие алгоритмы, другую технологию обработки информации. Такой альтернативной технологией является обработка информации в нейронных сетях (НС).

Слайд 2



Нейрон (нервная клетка) является особой биологической клеткой, которая обрабатывает информацию.


Она состоит из тела клетки (cell body), или сомы (soma), и двух типов внешних древоподобных ветвей: аксона (axon) и дендритов (dendrites). Тело клетки включает ядро (nucleus), которое содержит информацию о наследственных свойствах, и плазму, обладающую молекулярными средствами для производства необходимых нейрону материалов. Нейрон получает сигналы (импульсы) от других нейронов через дендриты (приемники) и передает сигналы, сгенерированные телом клетки, вдоль аксона (передатчик), который в конце разветвляется на волокна (strands). На окончаниях этих волокон находятся синапсы (synapses).

Синапс является элементарной структурой и функциональным узлом между двумя нейронами (волокно аксона одного нейрона и дендрит другого). Когда импульс достигает синаптического окончания, высвобождаются определенные химические вещества, называемые нейротрансмиттерами. Нейротрансмиттеры диффундируют через синаптическую щель, возбуждая или затормаживая, в зависимости от типа синапса, способность нейрона-приемника генерировать электрические импульсы. Результативность синапса может настраиваться проходящими через него сигналами, так что синапсы могут обучаться в зависимости от активности процессов, в которых они участвуют. Эта зависимость от предыстории действует как память, которая, возможно, ответственна за память человека.

Кора головного мозга человека является протяженной, образованной нейронами поверхностью толщиной от 2 до 3 мм с площадью около 2200 см2, что вдвое превышает площадь поверхности стандартной клавиатуры. Кора головного мозга содержит около 1011 нейронов, что приблизительно равно числу звезд Млечного пути. Каждый нейрон связан с 103 - 104 другими нейронами. В целом мозг человека содержит приблизительно от 1014 до 1015 взаимосвязей.

Нейроны взаимодействуют посредством короткой серии импульсов, как правило, продолжительностью несколько мсек. Сообщение передается посредством частотно-импульсной модуляции. Частота может изменяться от нескольких единиц до сотен герц, что в миллион раз медленнее, чем самые быстродействующие переключательные электронные схемы. Тем не менее сложные решения по восприятию информации, как, например, распознавание лица, человек принимает за несколько сотен мс. Эти решения контролируются сетью нейронов, которые имеют скорость выполнения операций всего несколько мс. Это означает, что вычисления требуют не более 100 последовательных стадий. Другими словами, для таких сложных задач мозг "запускает" параллельные программы, содержащие около 100 шагов. Это известно как правило ста шагов. Рассуждая аналогичным образом, можно обнаружить, что количество информации, посылаемое от одного нейрона другому, должно быть очень маленьким (несколько бит). Отсюда следует, что основная информация не передается непосредственно, а захватывается и распределяется в связях между нейронами.

Слайд 3



Исторически первой работой, заложившей теоретический фундамент для создания искусственных моделей нейронов и нейронных сетей, принято считать опубликованную в 1943 г. статью Уоррена С. Мак-каллока и Вальтера Питтса "Логическое исчисление идей, относящихся к нервной активности". Главный принцип теории Маккалока и Питтса заключается в том, что произвольные явления, относящиеся к высшей нервной деятельности, могут быть проанализированы и поняты, как некоторая активность в сети, состоящей из логических элементов, принимающих только два состояния ("все или ничего"). При этом для всякого логического выражения, удовлетворяющего указанным авторами условиям, может быть найдена сеть логических элементов, имеющая описываемое этим выражением поведение.

В качестве модели такого логического элемента, получившего в дальнейшем название "формальный нейрон", была предложена схема, приведенная на рисунке. С современной точки зрения, формальный нейрон представляет собой математическую модель простого процессора, имеющего несколько входов и один выход. Вектор входных сигналов (поступающих через "дендриты") преобразуется нейроном в выходной сигнал (распространяющийся по "аксону") с использованием трех функциональных блоков: локальной памяти, блока суммирования и блока нелинейного преобразования.

Вектор локальной памяти содержит информацию о весовых множителях, с которыми входные сигналы будут интерпретироваться нейроном. Эти переменные веса являются аналогом чувствительности пластических синаптических контактов. Выбором весов достигается та или иная интегральная функция нейрона.

Слайд 4



Первые практические работы по искусственным нейросетям и нейрокомпьютерам начались еще в 40-50-е годы. Упрощенно НС можно трактовать как глобально связанную сеть примитивных процессоров-нейронов. Каждый нейрон вычисляет взвешенную сумму пришедших к нему по синапсам сигналов и производит над ней нелинейное преобразование. При пересылке по синапсам сигналы умножаются на некоторый весовой коэффициент. В распределении весовых коэффициентов заключается информация, хранимая в ассоциативной памяти НС. При обучении и переобучении НС его весовые коэффициенты изменяются.

НС может состоять из одного слоя, из двух слоев, из трех и большего числа, однако, как правило, для решения практических задач более трех слоев в НС не требуется. На рисунках все они показаны "в разрезе".

Число входов НС определяет размерность гиперпространства, в котором входные сигналы могут быть представлены точками или гиперобластями из близко расположенных точек. Количество нейронов в слое сети определяет число гиперплоскостей в гиперпространстве. Вычисление взвешенных сумм и выполнение нелинейного преобразования позволяют определить с какой стороны от той или иной гиперплоскости находится точка - входной сигнал, в гиперпространстве.

Возьмем классическую задачу распознавания образов: определение принадлежности точки одному из двух классов - такая задача естественным образом решается с помощью одного нейрона. Он позволит разделить гиперпространство на две непересекающиеся и невложенные гиперобласти. Реально, входные сигналы в задачах, решаемых с помощью нейросетей, образуют в гиперпространстве сильно вложенные или пересекающиеся области, разделить которые с помощью одного нейрона не возможно. Это можно сделать, только проведя нелинейную гиперповерхность между областями. Ее можно описать с помощью полинома n-го порядка. Однако, степенная функция слишком медленно считается и поэтому очень неудобна для вычислительной техники. Альтернативным вариантом является аппроксимация гиперповерхности линейными гиперплоскостями. Понятно, что при этом точность аппроксимации зависит от числа используемых гиперплоскостей, которая, в свою очередь, зависит от числа нейронов в сети. Отсюда возникает потребность в аппаратной реализации как можно большего числа нейронов в сети. Количество нейронов в одном слое сети определяет ее разрешающую способность. Однослойная НС не может разделить линейно зависимые образы. Поэтому важно уметь аппаратно реализовывать многослойные НС.

Слайд 5




Запросы к задачнику


Запросы к задачнику позволяют последовательно перебирать все примеры обучающей выборки, обращаться непосредственно к любому примеру задачника и изменять обучающую выборку. Обучающая выборка выделяется путем «раскрашивания» примеров задачника в различные «цвета». Понятие цвета и способ работы с цветами описаны в разделе «Переменные типа цвет и операции с цветами».

Запросы последовательного перебора обучающей выборки:

«Инициировать выдачу примеров цвета К». По этому запросу происходит инициация выдачи примеров К-го цвета.

«Дать очередной пример». По этому запросу задачник возвращает предобработанные данные очередного примера и, при необходимости, правильные ответы, уровень достоверности и другие данные этого примера.

«Следующий пример». По этому запросу задачник переходит к следующему примеру обучающей выборки. Если такого примера нет, то возвращается признак отсутствия очередного примера.

Для непосредственного доступа к примерам задачника служит запрос «Дать пример номер N». Действия задачника в этом случае аналогичны выполнению запроса «Дать очередной пример».

Для изменения обучающей выборки служит запрос «Окрасить примеры в цвет К». Этот запрос используется редко, поскольку изменение обучающей выборки, как правило, осуществляется пользователем при редактировании задачника.

Запрос к предобработчику


Предобработчик сам никаких запросов не генерирует. Единственный запрос к предобработчику – «Предобработать пример» может быть выдан только задачником.

Запрос к исполнителю


«Обработать очередной пример». Вид ответа зависит от параметров запроса.

Запросы к учителю


«Начать обучение сети». По этому запросу учитель начинает процесс обучения сети.

«Прервать обучение сети». Этот запрос приводит к прекращению процесса обучения сети. Этот запрос требуется в случае необходимости остановить обучение сети до того, как будет удовлетворен критерий остановки обучения, предусмотренный в учителе.

«Провести N шагов обучения» – как правило, выдается контрастером, необходим для накопления показателей чувствительности.

Запрос к контрастеру


«Отконтрастировать сеть». Ответом является код завершения операции контрастирования.

Запрос к оценке


Оценка не генерирует никаких запросов. Она выполняет только один запрос – «Оценить пример». Результатом выполнения запроса является оценка примера и, при необходимости, вектор производных оценки по выходным сигналам сети.

Запрос к интерпретатору ответа


Интерпретатор ответа не генерирует никаких запросов. Он выполняет только один запрос – «Интерпретировать ответ». Ответом является результат интерпретации.

Запросы к сети


Сеть не генерирует никаких запросов. Набор исполняемых сетью запросов можно разбить на три группы.

Запрос, обеспечивающий тестирование.

«Провести прямое функционирование». На вход сети подаются данные примера. На выходе сети вычисляется ответ сети, подлежащий оцениванию или интерпретации.

Запросы, обеспечивающие обучение сети.

«Обнулить градиент». При исполнении этого запроса градиент оценки по обучаемым параметрам сети кладется равным нулю. Этот запрос необходим, поскольку при вычислении градиента по очередному примеру сеть добавляет его к ранее вычисленному градиенту по сумме других примеров.

«Вычислить градиент по примеру». Проводится обратное функционирование сети. Вычисленный градиент добавляется к ранее вычисленному градиенту по сумме других примеров.

«Изменить карту с шагами Н1 и H2». Генерируется учителем во время обучения.

Запрос, обеспечивающие контрастирование.

«Изменить карту по образцу». Генерируется контрастером при контрастировании сети.

Таким образом, выделено семь основных компонентов нейрокомпьютера, определены их функции и основные исполняемые ими запросы.

Слайд 6-7



Общие задачи:
  • контроль кредитных карточек;
  • системы скрытого обнаружения веществ с помощью устройств на базе тепловых нейронов и нейрокомпьютера на заказных цифровых нейрочипах;
  • системы автоматизированного контроля безопасного хранения ядерных изделий и автоматизированного контроля установок и слежения за безопасностью АЭС.

Задачи обработки изображений:
  • обработка аэрокосмических изображений, в частности: сжатие с восстановлением, сегментация, контрастирование, обработка текстур;
  • формирование и обработка изображений, формируемых адаптивным составным телескопом (100-400 зеркал);
  • выделение на изображении движущихся целей;
  • поиск и распознавание на изображении объектов заданной формы;
  • обработка информации в высокопроизводительных сканерах, ориентированных на применение в больших информационных системах.

Задачи обработки сигналов:
  • прогнозирование финансовых показателей;
  • упреждение мощности АЭС;
  • обработка траекторных измерений;
  • выделение речевого сигнала в негауссовском шуме значительного уровня;
  • распознавание диктора.

Задачи управления динамическими объектами:
  • управление вертолетом, самолетом;
  • управление зеркалами (100-400 зеркал) адаптивного составного телескопа;
  • управление роботами;

Нейросетевые экспертные системы.

Конкретные примеры:
  • система выбора воздушных маневров в процессе ведения воздушного боя;
  • медицинская диагностическая экспертная система для оценки состояния летчика.

Системы виртуальной реальности.

Прочие задачи.