Поиск по всему репозиторию:

Показать краткое описание

dc.contributor.authorМахнист, Леонид Петрович
dc.contributor.authorГоловко, Владимир Адамович
dc.contributor.authorГладкий, Иван Иванович
dc.contributor.authorКаримова, Татьяна Ивановна
dc.coverage.spatialБрестru_RU
dc.date.accessioned2021-02-12T10:24:59Z
dc.date.available2021-02-12T10:24:59Z
dc.date.issued2020
dc.identifier.citationИспользование алгоритмов обучения однослойной сети для многослойных нейронных сетей прямого распространения / Л. П. Махнист [и др.] // Вестник Брестского государственного технического университета. Серия: Физика, математика, информатика. – 2020. – № 5. – С. 32–37. – Библиогр.: с. 36–37 (9 назв.).ru_RU
dc.identifier.urihttps://rep.bstu.by/handle/data/10605
dc.descriptionL. P. Makhnist, V. A. Golovko, I. I. Hladki, T. I. Karimova. ESTIMATION OF THE CONVERGENCE RATE AND THE CHOICE OF THE LEARNING STEP OF ARTIFICIAL FEED FORWARD NEURAL NETWORKSru_RU
dc.description.abstractВ работе рассматриваются различные подходы к выбору шага обучения нейронной сети прямого распространения, производится их сравнительный анализ с точки зрения сходимости алгоритма обучения с использованием метода наискорейшего спуска. Получены формулы для вычисления шага обучения и ограничения для их использования. Предложенная методика может быть использована в алгоритме обратного распространения ошибки обучения нейронной сети.ru_RU
dc.language.isoruru_RU
dc.publisherБрГТУru_RU
dc.subjectнейронная сеть прямого распространенияru_RU
dc.subjectалгоритм обратного распространения ошибкиru_RU
dc.subjectметод наискорейшего спускаru_RU
dc.subjectthe feedforward neural networkru_RU
dc.subjectthe backpropagation algorithmru_RU
dc.subjectthe steepest descent methodru_RU
dc.titleИспользование алгоритмов обучения однослойной сети для многослойных нейронных сетей прямого распространенияru_RU
dc.typeСтатья (Article)ru_RU
dc.identifier.udc004.021:032.26ru_RU
dc.abstract.alternativeThe paper presents various approaches to the choice of the learning step for a feed forward neural network and compares then in terms of the learning algorithm convergence using the steepest descent approach. The equations for calculating the learning step and the restrictions for their use are obtained. The proposed technique can be used in the back propagation algorithm for training a multilayer perceptron.ru_RU
dc.identifier.doihttps://doi.org/10.36773/1818-1212-2020-123-5-32-37


Файлы в этом документе

Thumbnail

Данный элемент включен в следующие коллекции

Показать краткое описание