Search

Show simple item record

dc.contributor.authorМахнист, Леонид Петрович
dc.contributor.authorГоловко, Владимир Адамович
dc.contributor.authorГладкий, Иван Иванович
dc.contributor.authorКаримова, Татьяна Ивановна
dc.coverage.spatialБрестru_RU
dc.date.accessioned2020-04-16T18:48:50Z
dc.date.available2020-04-16T18:48:50Z
dc.date.issued2019
dc.identifier.citationОценки скорости сходимости и выбор шага обучения искусственных нейронных сетей прямого распространения / Л. П. Махнист [и др.] // Вестник Брестского государственного технического университета. Серия: Физика, математика, информатика. – 2019. – № 5. – С. 27–35 : ил. – Библиогр.: с. 35 (7 назв.).ru_RU
dc.identifier.urihttps://rep.bstu.by/handle/data/4945
dc.descriptionMAKHNIST L. P., GOLOVKO V. A., HLADKI I. I., KARIMOVA T. I. Estimation of the convergence rate and the choice of the learning step of artificial feed forward neural networksru_RU
dc.description.abstractВ работе рассматриваются различные подходы к выбору шага обучения нейронной сети прямого распространения, производится их сравнительный анализ с точки зрения сходимости алгоритма обучения с использованием метода наискорейшего спуска. Получены формулы для вычисления шага обучения и ограничения для их использования. Предложенная методика может быть использована в алгоритме обратного распространения ошибки обучения нейронной сети.ru_RU
dc.language.isoruru_RU
dc.publisherБрГТУru_RU
dc.subjectалгоритмru_RU
dc.subjectнейронные сетиru_RU
dc.subjectalgorithmru_RU
dc.subjectneural networksru_RU
dc.titleОценки скорости сходимости и выбор шага обучения искусственных нейронных сетей прямого распространенияru_RU
dc.typeСтатья (Article)ru_RU
dc.identifier.udc004.021:032.26ru_RU
dc.abstract.alternativeThe paper presents various approaches to the choice of the learning step for a feed forward neural network and compares then in terms of the learning algorithm convergence using the steepest descent approach. The equations for calculating the learning step and the restrictions for their use are obtained. The proposed technique can be used in the back propagation algorithm for training a multilayer perceptron.ru_RU


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record