Abstract

в статье проведено исследование теоретической базы искусственных нейронных сетей. Изучалось теоретическое обоснование возможности аппроксимации функций многих переменных суперпозицией функций одной переменной. Рассмотрены основные универсальные теоремы аппроксимации, представленные и доказанные к настоящему моменту зарубежными и отечественными авторами. Рассмотрены теоремы аппроксимации, в которых представлено необходимое количество нейронов в слое — ограничение по ширине; теоремы, в которых показано необходимое количество слоев в нейронной сети — ограничение по глубине; теоремы, в которых авторы доказывают минимальные границы одновременно для количества слоев в сети и количества нейронов на слое — ограничения по глубине и ширине we studied the theoretical foundations of artificial neural networks as applied to the possibility of approximating functions of many variables by superposition of functions of one variable. We considered the most important universal approximation theorems. We also studied the approximation theorems with the required number of neurons in a layer (width constraint) or the number of layers in a neural network (depth constraint), and the theorems in which their authors prove the existence of min bounds both for the number of layers and for the number of neurons per layer

Full Text
Published version (Free)

Talk to us

Join us for a 30 min session where you can share your feedback and ask us any queries you have

Schedule a call