Abstract

At present, deep learning is becoming one of the most popular approach to creation of the artificial intelligences systems such as speech recognition, natural language processing, computer vision and so on. The paper presents a historical overview of deep learning in neural networks. The model of the artificial neural network is described as well as the learning algorithms for neural networks including the error backpropagation algorithm, which is used to train deep neural networks. The development of neural networks architectures is presented including neocognitron, autoencoders, convolutional neural networks, restricted Boltzmann machine, deep belief networks, long short-term memory, gated recurrent neural networks, and residual networks. Training deep neural networks with many hidden layers is impeded by the vanishing gradient problem. The paper describes the approaches to solve this problem that provide the ability to train neural networks with more than hundred layers. An overview of popular deep learning libraries is presented. Nowadays, for computer vision tasks convolutional neural networks are utilized, while for sequence processing, including natural language processing, recurrent networks are preferred solution, primarily long short-term memory networks and gated recurrent neural networks.

Highlights

  • Искусственные нейронные сетиМодель искусственного нейрона была предложена Уорреном МакКаллоком (Warren McCulloch) и Уолтером Питтсом (Walter Pitts) в 1943 году в работе [4].

  • Искусственный нейрон МакКаллока—Питтса имеет N входных бинарных величин x1, ..., xn, которые трактуются как импульсы, поступающие на вход нейрону

  • Обзор методов обучения глубоких нейронных сетей Выходной сигнал нейрона определяется по формуле:.

Read more

Summary

Искусственные нейронные сети

Модель искусственного нейрона была предложена Уорреном МакКаллоком (Warren McCulloch) и Уолтером Питтсом (Walter Pitts) в 1943 году в работе [4]. Искусственный нейрон МакКаллока—Питтса имеет N входных бинарных величин x1, ..., xn, которые трактуются как импульсы, поступающие на вход нейрону Обзор методов обучения глубоких нейронных сетей Выходной сигнал нейрона определяется по формуле:. Такие функции активации обеспечивали более плавное изменение выходного сигнала нейрона. МакКаллок и Питтс предложили также метод объединения отдельных нейронов в искусственные нейронные сети. Для этого выходные сигналы нейрона передаются на вход следующему нейрону Который принимает сигналы из внешнего мира, называется входным. Который выдает сигналы во внешний мир, —. Искусственные нейронные сети, заданные таким образом, способны приблизить любую непрерывную функцию с любой требуемой точностью [15,16,17,18]. Однако в настоящее время не существует конструктивного подхода, который бы позволял гарантированно создавать нейронные сети с заранее заданными свойствами.

Обучение нейронных сетей
Архитектура глубоких нейронных сетей
Программные системы обучения глубоких нейронных сетей
Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call