Search

Show simple item record

dc.contributor.authorСавицкий, Юрий Викторович
dc.coverage.spatialБрест
dc.date.accessioned2021-03-30T13:49:42Z
dc.date.available2021-03-30T13:49:42Z
dc.date.issued2008
dc.identifier.citationСавицкий, Ю. В. Сравнительный анализ производительности схем параллелизации алгоритмов обучения нейронной сети / Ю. В. Савицкий // Вестник Брестского государственного технического университета. Серия: Физика, математика, информатика. – 2008. – № 5. – С. 93–95.
dc.identifier.urihttps://rep.bstu.by/handle/data/12754
dc.descriptionSAVITSKY Yu.V. The comparative analysis of power of neural network training algorithms parallel schemes
dc.description.abstractВ статье предлагаются результаты сравнительного анализа производительности параллельных алгоритмов обучения многослойной нейронной сети, реализованных в виде программной системы на базе протокола обмена сообщениями MPI (Message Passing Interface). Детально рассмотрены вычислительные эксперименты временной зависимости обучения нейронной сети от количества нейронов, от количества эталонов обучающей выборки. Выполняется анализ временной сложности параллельных алгоритмов с учетом и без учета межмодульных пересылок.
dc.language.isoru
dc.publisherБрГТУ
dc.titleСравнительный анализ производительности схем параллелизации алгоритмов обучения нейронной сети
dc.typeСтатья (Article)
dc.identifier.udc621.324
dc.abstract.alternativeIn this article the results of power of parallel neural network training algorithms are considered. The parallel schemes are made as program system based on the MPI (Message Passing Interface) protocol. The computational experiments of time dependence from number of neurons, number of training patterns are discussed. The analysis of parallel algorithms time complexity with MPI message passing and without MPI message passing is given.


Files in this item

Thumbnail

This item appears in the following Collection(s)

Show simple item record