Skip to content
This organization was marked as archived by an administrator on Jun 11, 2024. It is no longer maintained.
@trio-at-optimization

Trio at Numerical Optimization

Трио и методы оптимизации

В данной организации хранятся решения одной безымянной команды лабораторных работ курса Методы оптимизации.

Внимание: просматривая исходный код, Вы автоматически соглашаетесь с тем, что любое списывание и последующая за ним карма - это только Ваша ответственность.

Команда

Лабораторные работы

  • ЛР №1 - Градиентный спуск. Рассматриваемые темы:
    • Реализация и исследование градиентного метода спуска как метод поиска минимума заданной функции.
    • Реализация и применение на градиентном методе спуска методы одномерного поиска.
    • Реализация и исследование эффективности одномерного поиска с учетом условий Вольфе.
  • ЛР №2 - Стохастический градиентный спуск. Рассматриваемые темы:
    • Реализация и исследование стохастического градиентного метода спуска для решения линейной регрессии.
    • Реализация и сравнение модификаций SGD Momentum, Nesterov, AdaGrad, RMSProp, Adam.
    • Реализация и исследование полиномиальной регрессии.
    • Реализация и сравнение регуляризаций к полиномиальной регрессии L1, L2, Elastic.
  • ЛР №3 - Методы высокого порядка. Рассматриваемые темы:
    • Реализация и исследование методов Gauss-Newton и Powell Dog Leg для решения нелинейной регрессии.
    • Реализация и исследование метода BFGS как метод поиска минимума заданной функции.
    • Реализация и исследование модификации L-BFGS как метод поиска минимума заданной функции.
  • ЛР №4 - Использование готовых библиотек для оптимизации на Python. Рассматриваемые темы:
    • Изучение и использование библиотеки PyTorch для построения оптимизаторов поиска минимума функций.
    • Сравнение реализованных методов из предыдущих ЛР с готовыми методами оптимизации из библиотеки SciPy.
    • Изучение и использование линейных и нелинейных ограничений с готовыми методами оптимизации из библиотеки SciPy.

Popular repositories Loading

  1. optimization-lab1 optimization-lab1 Public archive

    Implementing and researching Gradient Descent.

    Jupyter Notebook

  2. optimization-lab2 optimization-lab2 Public archive

    Implementing and researching Stochastic Gradient Descent.

    Jupyter Notebook

  3. optimization-lab3 optimization-lab3 Public archive

    High order methods and non-linear regression solution.

    Jupyter Notebook

  4. optimization-lab4 optimization-lab4 Public archive

    Use and research of ready-made libraries for optimization in Python.

    Jupyter Notebook

  5. .github .github Public archive

Repositories

Showing 5 of 5 repositories
  • .github Public archive
    trio-at-optimization/.github’s past year of commit activity
    0 0 0 0 Updated Jul 1, 2023
  • optimization-lab1 Public archive

    Implementing and researching Gradient Descent.

    trio-at-optimization/optimization-lab1’s past year of commit activity
    Jupyter Notebook 0 0 0 0 Updated Jun 28, 2023
  • optimization-lab2 Public archive

    Implementing and researching Stochastic Gradient Descent.

    trio-at-optimization/optimization-lab2’s past year of commit activity
    Jupyter Notebook 0 0 0 0 Updated Jun 28, 2023
  • optimization-lab3 Public archive

    High order methods and non-linear regression solution.

    trio-at-optimization/optimization-lab3’s past year of commit activity
    Jupyter Notebook 0 0 0 0 Updated Jun 28, 2023
  • optimization-lab4 Public archive

    Use and research of ready-made libraries for optimization in Python.

    trio-at-optimization/optimization-lab4’s past year of commit activity
    Jupyter Notebook 0 0 0 0 Updated Jun 28, 2023

Top languages

Loading…

Most used topics

Loading…