dc.contributor.author | Савицкий, Юрий Викторович | |
dc.coverage.spatial | Брест | |
dc.date.accessioned | 2021-03-30T13:49:42Z | |
dc.date.available | 2021-03-30T13:49:42Z | |
dc.date.issued | 2008 | |
dc.identifier.citation | Савицкий, Ю. В. Сравнительный анализ производительности схем параллелизации алгоритмов обучения нейронной сети / Ю. В. Савицкий // Вестник Брестского государственного технического университета. Серия: Физика, математика, информатика. – 2008. – № 5. – С. 93–95. | |
dc.identifier.uri | https://rep.bstu.by/handle/data/12754 | |
dc.description | SAVITSKY Yu.V. The comparative analysis of power of neural network training algorithms parallel schemes | |
dc.description.abstract | В статье предлагаются результаты сравнительного анализа производительности параллельных алгоритмов обучения многослойной нейронной сети, реализованных в виде программной системы на базе протокола обмена сообщениями MPI (Message Passing Interface). Детально рассмотрены вычислительные эксперименты временной зависимости обучения нейронной сети от количества нейронов, от количества эталонов обучающей выборки. Выполняется анализ временной сложности параллельных алгоритмов с учетом и без учета межмодульных пересылок. | |
dc.language.iso | ru | |
dc.publisher | БрГТУ | |
dc.title | Сравнительный анализ производительности схем параллелизации алгоритмов обучения нейронной сети | |
dc.type | Статья (Article) | |
dc.identifier.udc | 621.324 | |
dc.abstract.alternative | In this article the results of power of parallel neural network training algorithms are considered. The parallel schemes are made as program system based on the MPI (Message Passing Interface) protocol. The computational experiments of time dependence from number of neurons, number of training patterns are discussed. The analysis of parallel algorithms time complexity with MPI message passing and without MPI message passing is given. | |