dc.contributor.author | Махнист, Леонид Петрович | |
dc.contributor.author | Головко, Владимир Адамович | |
dc.contributor.author | Гладкий, Иван Иванович | |
dc.contributor.author | Каримова, Татьяна Ивановна | |
dc.coverage.spatial | Брест | ru_RU |
dc.date.accessioned | 2021-02-12T10:24:59Z | |
dc.date.available | 2021-02-12T10:24:59Z | |
dc.date.issued | 2020 | |
dc.identifier.citation | Использование алгоритмов обучения однослойной сети для многослойных нейронных сетей прямого распространения / Л. П. Махнист [и др.]
// Вестник Брестского государственного технического университета. Серия: Физика, математика, информатика. – 2020. – № 5. – С. 32–37. – Библиогр.: с. 36–37 (9 назв.). | ru_RU |
dc.identifier.uri | https://rep.bstu.by/handle/data/10605 | |
dc.description | L. P. Makhnist, V. A. Golovko, I. I. Hladki, T. I. Karimova. ESTIMATION OF THE CONVERGENCE RATE AND THE CHOICE OF THE LEARNING STEP OF ARTIFICIAL FEED FORWARD
NEURAL NETWORKS | ru_RU |
dc.description.abstract | В работе рассматриваются различные подходы к выбору шага обучения нейронной сети прямого распространения, производится их сравнительный анализ с точки зрения сходимости алгоритма обучения с использованием метода наискорейшего
спуска. Получены формулы для вычисления шага обучения и ограничения для их использования. Предложенная методика может быть использована в алгоритме обратного распространения ошибки обучения нейронной сети. | ru_RU |
dc.language.iso | ru | ru_RU |
dc.publisher | БрГТУ | ru_RU |
dc.subject | нейронная сеть прямого распространения | ru_RU |
dc.subject | алгоритм обратного распространения ошибки | ru_RU |
dc.subject | метод наискорейшего спуска | ru_RU |
dc.subject | the feedforward neural network | ru_RU |
dc.subject | the backpropagation algorithm | ru_RU |
dc.subject | the steepest descent method | ru_RU |
dc.title | Использование алгоритмов обучения однослойной сети для многослойных нейронных сетей прямого распространения | ru_RU |
dc.type | Статья (Article) | ru_RU |
dc.identifier.udc | 004.021:032.26 | ru_RU |
dc.abstract.alternative | The paper presents various approaches to the choice of the learning step for a feed forward neural network and compares then in terms of
the learning algorithm convergence using the steepest descent approach. The equations for calculating the learning step and the restrictions for
their use are obtained. The proposed technique can be used in the back propagation algorithm for training a multilayer perceptron. | ru_RU |
dc.identifier.doi | https://doi.org/10.36773/1818-1212-2020-123-5-32-37 | |