Сравнение методов оптимизации при обучении нейронных сетей

В данной работе проводится сравнительный анализ различных методов оптимизации, используемых при обучении нейронных сетей. Рассматриваются классический стохастический градиентный спуск (SGD), его модификация с моментом, а также адаптивные алгоритмы Adagrad, RMSprop и Adam. В рамках эксперимента проводится обучение сверточной нейронной сети на наборе данных MNIST, оцениваются скорость сходимости, точность классификации и время обучения для каждого метода. Полученные результаты позволяют выявить наиболее эффективные стратегии оптимизации в контексте задач машинного обучения, а также определить баланс между скоростью, точностью и вычислительными затратами.

Авторы
Издательство
Российский университет дружбы народов (РУДН)
Язык
Русский
Страницы
207-211
Статус
Опубликовано
Год
2025
Организации
  • 1 Российский университет дружбы народов
Ключевые слова
нейронные сети; методы оптимизации; машинное обучение; стохастический градиентный спуск; adam; rmsprop
Цитировать
Поделиться

Другие записи

Аватков В.А., Апанович М.Ю., Борзова А.Ю., Бордачев Т.В., Винокуров В.И., Волохов В.И., Воробьев С.В., Гуменский А.В., Иванченко В.С., Каширина Т.В., Матвеев О.В., Окунев И.Ю., Поплетеева Г.А., Сапронова М.А., Свешникова Ю.В., Фененко А.В., Феофанов К.А., Цветов П.Ю., Школярская Т.И., Штоль В.В. ...
Общество с ограниченной ответственностью Издательско-торговая корпорация "Дашков и К". 2018. 411 с.