dc.contributor.author | Махнист, Леонид Петрович | |
dc.contributor.author | Головко, Владимир Адамович | |
dc.contributor.author | Гладкий, Иван Иванович | |
dc.contributor.author | Каримова, Татьяна Ивановна | |
dc.coverage.spatial | Брест | ru_RU |
dc.date.accessioned | 2020-04-16T18:48:50Z | |
dc.date.available | 2020-04-16T18:48:50Z | |
dc.date.issued | 2019 | |
dc.identifier.citation | Оценки скорости сходимости и выбор шага обучения искусственных
нейронных сетей прямого распространения / Л. П. Махнист [и др.] // Вестник Брестского государственного технического университета. Серия: Физика, математика, информатика. – 2019. – № 5. – С. 27–35 : ил. – Библиогр.: с. 35 (7 назв.). | ru_RU |
dc.identifier.uri | https://rep.bstu.by/handle/data/4945 | |
dc.description | MAKHNIST L. P., GOLOVKO V. A., HLADKI I. I., KARIMOVA T. I. Estimation of the convergence rate and the choice of the learning step of
artificial feed forward neural networks | ru_RU |
dc.description.abstract | В работе рассматриваются различные подходы к выбору шага
обучения нейронной сети прямого распространения, производится
их сравнительный анализ с точки зрения сходимости алгоритма
обучения с использованием метода наискорейшего спуска. Получены формулы для вычисления шага обучения и ограничения для их
использования. Предложенная методика может быть использована в
алгоритме обратного распространения ошибки обучения нейронной
сети. | ru_RU |
dc.language.iso | ru | ru_RU |
dc.publisher | БрГТУ | ru_RU |
dc.subject | алгоритм | ru_RU |
dc.subject | нейронные сети | ru_RU |
dc.subject | algorithm | ru_RU |
dc.subject | neural networks | ru_RU |
dc.title | Оценки скорости сходимости и выбор шага обучения искусственных нейронных сетей прямого распространения | ru_RU |
dc.type | Статья (Article) | ru_RU |
dc.identifier.udc | 004.021:032.26 | ru_RU |
dc.abstract.alternative | The paper presents various approaches to the choice of the learning step for a feed forward neural network and compares then in terms of the
learning algorithm convergence using the steepest descent approach. The equations for calculating the learning step and the restrictions for their use
are obtained. The proposed technique can be used in the back propagation algorithm for training a multilayer perceptron. | ru_RU |