Сравнение методов оптимизации при обучении нейронных сетей

В данной работе проводится сравнительный анализ различных методов оптимизации, используемых при обучении нейронных сетей. Рассматриваются классический стохастический градиентный спуск (SGD), его модификация с моментом, а также адаптивные алгоритмы Adagrad, RMSprop и Adam. В рамках эксперимента проводится обучение сверточной нейронной сети на наборе данных MNIST, оцениваются скорость сходимости, точность классификации и время обучения для каждого метода. Полученные результаты позволяют выявить наиболее эффективные стратегии оптимизации в контексте задач машинного обучения, а также определить баланс между скоростью, точностью и вычислительными затратами.

Авторы
Издательство
Российский университет дружбы народов (РУДН)
Язык
Russian
Страницы
207-211
Статус
Published
Год
2025
Организации
  • 1 Российский университет дружбы народов
Ключевые слова
нейронные сети; методы оптимизации; машинное обучение; стохастический градиентный спуск; adam; rmsprop
Цитировать
Поделиться

Другие записи

Avatkov V.A., Apanovich M.Yu., Borzova A.Yu., Bordachev T.V., Vinokurov V.I., Volokhov V.I., Vorobev S.V., Gumensky A.V., Иванченко В.С., Kashirina T.V., Матвеев О.В., Okunev I.Yu., Popleteeva G.A., Sapronova M.A., Свешникова Ю.В., Fenenko A.V., Feofanov K.A., Tsvetov P.Yu., Shkolyarskaya T.I., Shtol V.V. ...
Общество с ограниченной ответственностью Издательско-торговая корпорация "Дашков и К". 2018. 411 с.