Поиск по всему репозиторию:

Показать краткое описание

dc.contributor.authorМахнист, Леонид Петрович
dc.contributor.authorГоловко, Владимир Адамович
dc.contributor.authorГладкий, Иван Иванович
dc.contributor.authorКаримова, Татьяна Ивановна
dc.coverage.spatialБрестru_RU
dc.date.accessioned2020-04-16T18:48:50Z
dc.date.available2020-04-16T18:48:50Z
dc.date.issued2019
dc.identifier.citationОценки скорости сходимости и выбор шага обучения искусственных нейронных сетей прямого распространения / Л. П. Махнист [и др.] // Вестник Брестского государственного технического университета. Серия: Физика, математика, информатика. – 2019. – № 5. – С. 27–35 : ил. – Библиогр.: с. 35 (7 назв.).ru_RU
dc.identifier.urihttps://rep.bstu.by/handle/data/4945
dc.descriptionMAKHNIST L. P., GOLOVKO V. A., HLADKI I. I., KARIMOVA T. I. Estimation of the convergence rate and the choice of the learning step of artificial feed forward neural networksru_RU
dc.description.abstractВ работе рассматриваются различные подходы к выбору шага обучения нейронной сети прямого распространения, производится их сравнительный анализ с точки зрения сходимости алгоритма обучения с использованием метода наискорейшего спуска. Получены формулы для вычисления шага обучения и ограничения для их использования. Предложенная методика может быть использована в алгоритме обратного распространения ошибки обучения нейронной сети.ru_RU
dc.language.isoruru_RU
dc.publisherБрГТУru_RU
dc.subjectалгоритмru_RU
dc.subjectнейронные сетиru_RU
dc.subjectalgorithmru_RU
dc.subjectneural networksru_RU
dc.titleОценки скорости сходимости и выбор шага обучения искусственных нейронных сетей прямого распространенияru_RU
dc.typeСтатья (Article)ru_RU
dc.identifier.udc004.021:032.26ru_RU
dc.abstract.alternativeThe paper presents various approaches to the choice of the learning step for a feed forward neural network and compares then in terms of the learning algorithm convergence using the steepest descent approach. The equations for calculating the learning step and the restrictions for their use are obtained. The proposed technique can be used in the back propagation algorithm for training a multilayer perceptron.ru_RU


Файлы в этом документе

Thumbnail

Данный элемент включен в следующие коллекции

Показать краткое описание