| 1 |
Вспоминаем линейную алгебру. Скорость сходимости |
Матричные вычисления, нормы, LoRA, анализ сходимости |
| 2 |
Матричное дифференцирование и одномерная оптимизация |
Градиенты матричных функций, line search методы, Brent method |
| 3 |
Автоматическое дифференцирование |
Forward/reverse mode AD, gradient checkpointing, JAX практикум |
| 4 |
Выпуклость и сильная выпуклость |
Доказательства выпуклости, PL-условие, логистическая регрессия, SVM |
| 5 |
Условия оптимальности и KKT |
Множители Лагранжа, KKT условия, adversarial attacks |
| 6 |
Линейное программирование и симплекс-алгоритм |
Планирование производства, max-flow min-cut, применения ЛП |
| 7 |
Градиентный спуск и анализ сходимости |
Теоретический анализ, выбор размера шага, PL-условие |
| 8 |
Ускорение градиентного спуска |
Heavy Ball, Nesterov acceleration, hobbit village challenge |
| 9 |
Метод сопряженных градиентов |
CG для квадратичных задач, нелинейный CG, патологические примеры |
| 10 |
Метод Ньютона и квази-Ньютоновские методы |
Newton method, BFGS, L-BFGS, cubic-regularized Newton |
| 11 |
Проекционные методы и Frank-Wolfe |
Проекция на симплекс, PGD, Frank-Wolfe algorithm |
| 12 |
Субградиенты и проксимальные методы |
Субдифференциалы, ISTA/FISTA, image denoising, L1-регуляризация |
| 13 |
Стохастический градиентный спуск |
SGD vs GD, адаптивные методы (Adam, AdaGrad, RMSProp, AdamW) |
| 14 |
Методы уменьшения дисперсии |
SVRG, SAG/SAGA, эксперименты с нейросетями |
| 15 |
Современные методы и практики оптимизации |
SAM, mode connectivity, grokking, Muon optimizer, distributed training |