Нейронная сеть прямого распространения
Зарегистрируйся в два клика и получи неограниченный доступ к материалам,а также промокод на новый заказ в Автор24. Это бесплатно.
Введение
Машинное обучение стало полезным инструментом решения целого класса задач, для которых трудно найти прямое решение. С машинным обучением часть работы программиста заменяется алгоритмами обучения, которые самостоятельно настраиваются по входным данным. Поскольку вычислительные мощности современных компьютеров продолжают увеличиваться, машинное обучение становится все более практичным и популярным методом на протяжении многих лет, вплоть до его почти повсеместного распространения. Вот только некоторые примеры задач, которые лучше всего решаются методами машинного обучения: Распознавание шаблонов – объектов реального мира, лиц, речи и т.д. Распознавание аномалий – необычных последовательностей транзакций по кредитным картам, показаний датчиков на атомной электростанции и т.д. Предсказание – будущих цен на акции, курсов валют, или того, какие товары понравятся покупателю. Нейронные сети представляют собой отдельный класс моделей машинного обучения. С вычислительной точки зрения нейронная сеть – это метод представления функций, использующих сети простых арифметических вычислительных элементов, а также методы их обучения. С биологической точки зрения это математическая модель человеческого мозга: простым арифметическим вычислительным элементам соответствуют нейроны – ячейки, которые выполняют обработку информации в мозге, а сеть в целом соответствует набору взаимосвязанных нейронов. По этой причине такие сети называются нейронными. Сегодняшние исследования нейронных сетей ориентируются на развитие вычислительной техники и математики, а не на биологию . Современные нейронные сети (зачастую называемые глубокими) доказали свою эффективность в задачах машинного обучения. Цель данной работы – рассмотреть основополагающие понятия машинного обучения, изучить организацию и принцип работы нейронных сетей, а также их применение в задачах машинного обучения. В процессе ознакомления с основами работы нейронных сетей необходимо также проанализировать алгоритм их обучения – метод обратного распространения ошибки, основанный на градиентном спуске. Итогом изучения теоретических основ должно стать написание программы, которая моделирует работу нейронной сети прямого распространения, на языке программирования Python.
Проектирование программы
Для достижения поставленной в работе цели была написана программа, которая моделирует работу нейронной сети прямого распространения. В качестве языка программирования, предназначенного для реализации, был выбран высокоуровневый язык общего назначения...
Открыть главуЗаключение
В ходе выполнения работы были изучены основополагающие понятия машинного обучения, организация и принцип работы нейронных сетей, а также их применение в задачах машинного обучения. Были рассмотрены функции активации нейронных сетей, а также выполнено построение и обучение нейронной сети с одним скрытым слоем, различным количеством входов и разными функциями активации. Программная реализация сети была выполнена благодаря использованию языка высокого уровня Python и библиотеки NumPy для работы с массивами и матрицами. Обучение сети было проведено при помощи алгоритма обратного распространения ошибки, подробно изученного в теоретической части работы. Полученные в ходе проведения эксперимента результаты предсказаний нейронной сети позволяют сделать вывод о высокой точности предсказания каждой из двух построенных моделей.
Список литературы
Goodfellow I., Bengio Y., Courville A. Deep Learning, MIT Press, 2016 Karpathy A. Convolutional Neural Networks for Visual Recognition [Эл. ресурс] / Режим доступа: http://www.cs231n.stanford.edu (Дата обращения: 11.12.2018) Russell S. J., Norvig P. Artificial Intelligence: A Modern Approach, 2nd ed. Prentice Hall, c2002. ISBN 978-0137903955. Russell S. J., Norvig P. Artificial Intelligence: A Modern Approach, 1st ed. Prentice Hall, c1995. ISBN 0-13-103805-2 Pentreath N. Machine Learning with Spark, Paperback, 2015 Bishop C. M. Pattern Recognition and Machine Learning (Information Science and Statistics), Springer-Verlag New York, Inc., Secaucus, NJ, USA, 2006. Wilson D. R., Martinez, T. R. The general inefficiency of batch training for gradient descent learning, Neural Networks 16, 10 (2003), 1429–1451 LeCun Y., Ranzato M. Deep learning tutorial, in Tutorials in Int. Conf. on Mach. Learning (ICML'13), 2013. Nasr G. E., Badr E., Joun C. Cross entropy error function in neural networks: Forecasting gasoline demand. in FLAIRS Conference, 2002, pp. 381-384.