Логотип Автор24реферат
Задать вопрос
Реферат на тему: Управление роботом со статичной нейросетью
100%
Уникальность
Аа
24190 символов
Категория
Автоматика и управление
Реферат

Управление роботом со статичной нейросетью

Управление роботом со статичной нейросетью .doc

Зарегистрируйся в два клика и получи неограниченный доступ к материалам,а также промокод Эмоджи на новый заказ в Автор24. Это бесплатно.

Введение

Работы первичного осмотра и разминирования предназначены для военного и гражданского применения (силовыми структурами, структурами обеспечения общественного порядка, службы ликвидации последствий чрезвычайных ситуаций). В зависимости от конструкции, некоторые работы способны передвигаться не только по горизонтальной поверхности, но и по наклонным, а также перемещаться по лестничным маршам
Нейронные сети применяются для написания музыки, создания картин, решение комплексных задач регулирования параметров различных систем, а также в робототехнике. Различия вычислительных процессов в нейронных сетях часто обусловлены способом взаимосвязей нейронов. По совокупности критериев на сегодняшний день многослойные архитектуры можно разделить на статические и динамические. Каждый из классов архитектур нейронных сетей может включать множество подклассов, реализуя разные подходы. К статическим архитектурам относят сети прямого распространения, в которых реализована однонаправленный связь между слоями, отсутствуют динамические элементы и обратная связь, а выход обученной нейросети однозначно определяется входом и не зависит от предыдущих состояний сети. Статические искусственные нейронные сети прямого распространения: Персептрон; нейронная сеть Кохонена; когнитрон и неокогнитрон; современная сверточная нейронная сеть.
Объект исследования: робот со статичной нейросетью.
Предмет исследования: процесс управления роботом.
Цель работы: рассмотреть управление роботом со статичной нейросетью.
Для осуществления поставленной цели необходимо решить задачи:
- рассмотреть понятие и виды статичных нейросетей;
- описать управление роботом со статичной нейросетью.


1. Понятие и виды статичных нейросетей
Нейронная сеть (NN) состоит из множества нейронов, выполняющих одну и ту же нелинейную операцию, причем входы одного элемента связаны с выходом других элементов. Как правило, нейроны организованы в слои. Выбор функции активации, выполняемой в нейроне (сигмоид, простой порог, ...), а также количество слоев и количество нейронов на слой, являются основными параметрами сети. В качестве входных переменных для всей сети может использоваться управляющая ошибка, ее производная, заданное значение и возмущения; в качестве выходных переменных используются управляющие входы в установку.
Нейронные сети наиболее эффективны в задачах классификации и при моделировании нелинейных систем.
К преимуществам NN также можно отнести отсутствие необходимости знания точной модели объекта управления. Нейросеть позволяет решить задачу идентификации сложных динамических систем.
Основной недостаток NN связан с тем, что не определен выбор размера и структуры сети, а её настройка работает только в той области условий работы, в которой сеть была обучена. Устойчивость системы с NN –контроллером также, как и в случае применения нечеткого вывода не гарантируется.

Рисунок 1- Классификация классических нейронных сетей
Проанализируем кратко особенности статичных нейросетей (персептрон; нейронная сеть Кохонена; когнитрон и неокогнитрон; современная сверточная нейронная сеть).
Персептрон
В основе персептрона лежит математическая модель восприятия информации мозгом. Разные исследователи по-разному его определяют. В самом общем своем виде (как его описывал Розенблатт) он представляет систему из элементов трех разных типов: сенсоров, ассоциативных элементов и реагирующих элементов.

Рисунок 2- Принцип работы персептрона
Рассмотрим принцип работы персептрона.
Первыми в работу включаются S-элементы. Они могут находиться либо в состоянии покоя (сигнал равен 0), либо в состоянии возбуждения (сигнал равен 1).
Далее сигналы от S-элементов передаются A-элементам по так называемым S-A связям. Эти связи могут иметь веса, равные только -1, 0 или 1.Затем сигналы от сенсорных элементов, прошедших по S-A связям попадают в A-элементы, которые еще называют ассоциативными элементами. Стоит заметить, что одному A-элементу может соответствовать несколько S-элементов. Если сигналы, поступившие на A-элемент, в совокупности превышают некоторый его порог θ, то этот A-элемент возбуждается и выдает сигнал, равный 1. В противном случае (сигнал от S-элементов не превысил порога A-элемента), генерируется нулевой сигнал.
Почему A-элементы назвали ассоциативными? Дело в том, что A-элементы являются агрегаторами сигналов от сенсорных элементов. Например, у нас есть группа сенсоров, каждый из которых распознает кусок буквы «Д» на исследуемой картинке. Однако только их совокупность (то есть когда несколько сенсоров выдали сигнал, равный 1) может возбудить A-элемент целиком. На другие буквы А-элемент не реагирует, только на букву «Д». То есть он ассоциируется с буквой «Д». Отсюда и такое название.
Можно привести и другой пример. На самом деле ваши глаза состоят из невероятного количества S-элементов (сенсоров), улавливающих падающий свет (около 140 000 000). И у вас какой-то A-элемент, который распознает конкретную часть лица. И вот вы увидели на улице человека. Некоторые A-элементы, которые распознали конкретные части лица, возбуждаются.

Рисунок 3 - Упрощённая модель структуры глаза
Далее сигналы, которые произвели возбужденные A-элементы, направляются к сумматору (R-элемент), действие которого вам уже известно. Однако, чтобы добраться до R-элемента, они проходят по A-R связям, у которых тоже есть веса. Однако здесь они уже могут принимать любые значения (в отличие от S-A связей).
Финальный аккорд. R-элемент складывает друг с другом взвешенные сигналы от A-элементов и, если превышен определенный порог, генерирует выходной сигнал, равный 1. Это означает, что в общем потоке информации от глаз мы распознали лицо человека.
Если порог не превышен, то выход персептрона равен -1. То есть мы не выделили лицо из общего потока информации.
Так как R-элемент определяет выход персептрона в целом, его назвали реагирующим.
Нейронная сеть Кохонена
Нейронные сети Кохонена — отдельный класс нейронных сетей, используемых для решения различных задач классификации и производных от них.

Рисунок 4- Нейронная сеть Кохонена
Для применения нейронных сетей Кохонена в задачах классификации требуется некоторая формализация

Зарегистрируйся, чтобы продолжить изучение работы

. Каждый объект, который требуется классифицировать, представляется в виде некоторого вектора, подающегося на вход нейронной сети. Количество нейронов во входном слое определяется количеством компонентов этого входного вектора. Количество же выходов определяется количеством классов, т.е. если всего классов, то количество нейронов в выходном слое тоже будет . Таким образом, каждый нейрон в выходном слое «отвечает» за свой класс. Значения, которые принимают нейроны в выходном слое, отображают насколько вектор классифицируемого объекта на входе близок, по мнению нейронной сети Кохонена, к тому или иному классу. Чем больше «уверенность», что объект принадлежит к тому или иному классу, тем больше значение принимает нейрон соответствующего класса. Иногда применяют специальную функцию активацию, которая делает сумму выходов со всех нейронов равной единице. В таком случае каждый выход можно трактовать, как вероятность того, что объект принадлежит к данному классу.
Стоит отметить, что существует или более простая реализация нейронной сети Кохонена, которая называется «победитель забирает все». В таком случае каждый нейрон выходного слоя может принимать значение либо ноль, либо единица. При этом для одного входного вектора единице может быть равен один и только один нейрон выходного слоя, т.е. один объект не может относиться сразу к двум классам.
Когнитрон и неокогнитрон
Когнитрон — искусственная нейронная сеть на основе принципа самоорганизации. Своей архитектурой когнитрон похож на строение зрительной коры, имеет иерархическую многослойную организацию, в которой нейроны между слоями связаны только локально. Обучается конкурентным обучением (без учителя) с использованием латеральных связей. Каждый слой мозга реализует различные уровни обобщения; входной слой чувствителен к простым образам, таким, как линии, и их ориентации в определенных областях визуальной области, в то время как реакция других слоев является более сложной, абстрактной и независимой от позиции образа. Аналогичные функции реализованы в когнитроне путем моделирования организации зрительной коры.
Когнитрон состоит из иерархически связанных слоев нейронов двух типов — тормозящих и возбуждающих. Состояние возбуждения каждого нейрона определяется соотношением его тормозящих и возбуждающих входов. Относительно некоторой синаптической связи между слоями 1 и 2 соответствующий нейрон слоя 1 является пресинаптическим, а нейрон второго слоя — постсинаптическим. Постсинаптические нейроны связаны не со всеми нейронами 1-го слоя, а лишь с теми, которые принадлежат их локальной области связей. Области связей близких друг к другу постсинаптических нейронов перекрываются, поэтому активность данного пресинаптического нейрона будет сказываться на все более расширяющейся области постсинаптических нейронов следующих слоев иерархии.
Неокогнитрон. Когнитрон и неокогнитрон имеют определенное сходство, но между ними также существуют различия, связанные с эволюцией исследований авторов. Оба образца являются многоуровневыми иерархическими сетями, организованными аналогично зрительной коре. Неокогнитрон более соответствует модели зрительной системы, описанной в работе Hubel D. H. и Wiesel T. N. в 1962 году. В результате неокогнитрон является намного более мощной парадигмой с точки зрения способности распознавать образы независимо от их преобразований, вращений, искажений и изменений масштаба. Как и когнитрон, неокогнитрон использует самоорганизацию в процессе обучения

Рисунок 5 - Пример – распознавание неокогнитроном рукописных цифр

Рисунок 6 - Неокогнитрон для распознавания рукописных букв
Современная сверточная нейронная сеть
Отличаются от неокогнитрона тем, что в них используется обучение с учителем методом обратного распространения ошибки, хотя неокогнитрон тоже иногда называют сверточной сетью. Отличается от MLP локальностью связей между слоями и разным назначением слоев. Обучение длительное, специализация.


Рисунок 7 - Сверточная нейронная сеть

Рисунок 7 - Схема взаимодействия С-слоя с предыдущим слое
Классическая архитектура СНС подразумевает два типа слоёв: – слои свертки (C-слои) – и слои усреднения (S-слои). Эти слои с разными функциями можно объединить в один макрослой. Выделитель признаков состоит из повторяющихся несколько раз идентичных макрослоёв. Каждый нейрон в выделителе признаков имеет своё РП (рецептивное поле), которое представляет собой квадратную область, включающую в себя нейроны, способные передавать свои сигналы нейрону на следующем слое.
Каждая карта С-слоя может быть связана с некоторым количеством карт предыдущего слоя. Из рисунка видно, что карта С-слоя связана с двумя картами S-слоя или входного слоя, которые располагаются перед ней. Тогда каждый нейрон С- слоя имеет рецептивное поле (РП) сразу на двух картах в идентичных позициях предыдущего слоя. На рисунке эти поля обозначены сплошным черным и красным цветом и имеют размер 4*4. Значит, для нейрона С-слоя необходимо 33 настраиваемых параметров (весов) с учётом смещения.
Особенность С -слоя заключается в том, что для всех нейронов используются одни и те же веса, т.е. на данную карту С -слоя будет приходиться 33 параметра, а не 33 умноженное на количество нейронов в карте. Такие веса называются связанными (sharing weights). Связанные веса позволяют реагировать на некоторый признак в любом месте карты, а также, связь карты С -слоя с несколькими картами предыдущего слоя позволяет единым образом реагировать на информацию из разных модальностей (по -разному отфильтрованную), и организовывать некое подобие гиперколонок (как в мозге ) Основная задача S-слоя – это уменьшение масштаба обрабатываемого отфильтрованного отображения, получившегося на карте предыдущего С -слоя, для облегчения выделения общих признаков. Каждая карта S- слоя связана только с одной картой предыдущего С -слоя.

Рисунок 8 -Различные варианты связанности весов в С-слое

Рисунок 9 - Общая схема взаимодействия S-слоя с предыдущим C-слоем
Общий размер карт от слоя к слою падает, пока карты не вырождаются в единичные нейроны, при этом уменьшение размера карт и связанного с этим потерей точности отображений на них, компенсируется ростом их количества и связанностью между картами С-слоя и слоем перед ним.
Классификатор признаков, как правило, это однослойный или двухслойный персептрон, хотя может быть SVM или RBF-сеть

50% реферата недоступно для прочтения

Закажи написание реферата по выбранной теме всего за пару кликов. Персональная работа в кратчайшее время!

Промокод действует 7 дней 🔥
Оставляя свои контактные данные и нажимая «Заказать работу», я соглашаюсь пройти процедуру регистрации на Платформе, принимаю условия Пользовательского соглашения и Политики конфиденциальности в целях заключения соглашения.
Больше рефератов по автоматике и управлению:

Коммутационно защитная аппаратура

19512 символов
Автоматика и управление
Реферат
Уникальность

Построение сигналов телеуправления, телесигнализации и цикловой синхронизации

21732 символов
Автоматика и управление
Реферат
Уникальность

Устойчивость цифровых (дискретных) систем

9028 символов
Автоматика и управление
Реферат
Уникальность
Все Рефераты по автоматике и управлению
Закажи реферат
Оставляя свои контактные данные и нажимая «Найти работу», я соглашаюсь пройти процедуру регистрации на Платформе, принимаю условия Пользовательского соглашения и Политики конфиденциальности в целях заключения соглашения.

Наш проект является банком работ по всем школьным и студенческим предметам. Если вы не хотите тратить время на написание работ по ненужным предметам или ищете шаблон для своей работы — он есть у нас.