КУРС
«ГЛУБОКАЯ МАТЕМАТИКА»

старт 20 июля / 10 недель / стоимость 34.900 рублей


Забронируйте минимальную стоимость

Нажимая кнопку, я даю согласие на обработку персональных данных и соглашаюсь c политикой конфиденциальности и договором оферты.
Цели курса
Главная цель курса - разобраться с тем, как работают современные нейросети на уровне алгоритмов
1
Познакомиться с математической базой обучения современных нейронных сетей
2
Познакомиться с формальными моделями нейронов-слоев-сетей
3
Понять принципы обучения современных нейросетей
Чему вы научитесь
Понимать работу сети на самом нижнем уровне обработки информации
Подбирать параметры нейросетевой модели с учетом особенностей задачи
Формат обучения
Занятия в записи

У вас будут видеозаписи вебинаров, доступные для просмотра в любое время
Закрытая обучающая платформа
В течение суток после оплаты вы получите доступ к закрытой обучающей платформе GetCourse с записями занятий и материалами курса
Поддержка куратора

Во время обучения вы сможете задавать любые вопросы по курсу и выполнению заданий вашему куратору в общем чате
Программа курса
Модель нейрона МакКалока-Питца
  1. Физиологическая модель нейрона

  2. Реализация нейрона МакКалока-Питца: свертка+активационная функция

  3. Вычисление выхода линейного нейрона

  4. Обучение линейного нейрона по Дельта-правилу на примере линейно-разделимого пространства примеров

  5. Реализация слоя нейронной сети

  6. Реализация многослойной сети

  7. Комбинирование решений линейных нейронов
Алгоритм линейной регрессии
  1. Задача регрессии

  2. Определение модели регрессии

  3. Функционал ошибок

  4. Метод наименьших квадратов

  5. Поиск параметров регрессии на основе градиентного спуска

  6. Стохастический градиентный спуск

  7. Обучение линейной нейронной сети и ее ограниченность
Метод обратного распространения ошибки
  1. Нелинейный нейрон

  2. Проблемы обучения нелинейного нейрона

  3. Зачем нужен метод обратного распространения ошибки

  4. Реализация метода обратного распространения ошибки

  5. Обучение нелинейного MLP

  6. Проблемы Обучение нелинейного MLP : Переобучение, недообучение, высокая вычислительная сложность, затухание градиента
Алгоритмы обучения
  1. Метод стохастического градиентного спуска

  2. Функция потерь (виды функции потерь и их реализация)

  3. Регуляризация L1, L2

  4. Реализация метода Adam

  5. Реализация метода NAdam

  6. Методы 2-го порядка
Алгоритмы классификации
  1. Модель линейного разделения объектов в пространстве признаков

  2. Функционал ошибок классификатора

  3. Линейный классификатор

  4. Машины опорных векторов

  5. Логистическая регрессии

  6. KNN

  7. Классификатор на основе нелинейного MLP

  8. Дилемма дисперсии-смещения

  9. Ансамбли решателей

  10. Оценка классификаторов - метрики (accuracy, Precition, Recall, F1, ROC)
Методы редукции пространства признаков
  1. Зачем делать редукцию

  2. Оценка корреляция признаков друг с другом и с целевым свойством

  3. Селекция признаков на основе корреляции, на основе анализа моделей

  4. Трансформация пространства признаков : PCA

  5. Редукция признаков : T-SNE

  6. Что происходит в нейронной сети : скрытые слои как детектор признаков - визуализация сети.
Сверточные сети
  1. Тензор - определение и смысл

  2. Почему работает сверточная сеть: архитектура как обработка тензоров и состав сверточных сетей.

  3. Сверточные слои

  4. Реализация сверточного слоя и визуализация его работы

  5. Обучение сверточного слоя

  6. Слои Пуллинга - визуализация

  7. Обратное распространение через слой пуллинга

  8. Слои Нормализации - реализация и визуализация

  9. Обратные слои - как работает

  10. Почему возможен перенос обучения
Проблемы сверточных сетей
  1. Деградация глубоких сетей

  2. Резидуальные модели: реализация и обучение

  3. Основные принципы построения сверточных сетей: примеры и реализация
Рекуррентные модели и нейронные сети (RNN)
  1. Модель рекуррентных связей в нейросети и влияние на результат работы

  2. Сеть Хопфилда - реализация и работа

  3. Обучение рекуррентных сетей: Backpropagation Through Time (BPTT).

  4. Сети долгой кратковременной памяти (Long short-term memory, LSTM).

  5. Рекуррентная сеть Gated Recurrent Unit (GRU).
Самоорганизация. Машина Больцмана
  1. Обучение без учителя

  2. Реализация обучения без учителя (kmeans)

  3. Сеть - Карта Кохонена

  4. Обучение как восстановление распределения (можно и EM алгоритм немножко)

  5. RBM - архитектура и обучение

  6. Визуализация вероятностных моделей

  7. Проблемы вероятностных моделей

Запишитесь на курс
Забронируйте участие прямо сейчас
Ведущий курса
Мария Корлякова
Образование:
МГТУ им.Н.Э.Баумана + аспирантура МЭИ. К.т.н., доцент
Более 30 публикаций за последние 5 лет (Scopus, РИНЦ, ВАК, конференции)

Область научных интересов:
Нейронные сети для обработки изображений (трекинг/сегментация/детекторы), анализ сложности задач и оценка параметров нейронных сетей (Machine Learning, Deep Learning, Computer vision, Object recognition).

Основные технологические модули:
Python (scikit-learn, Keras), OpenCV, Matlab (Neuro NetWork Toolbox, Computer Vision Toolbox, Statistic and ML Toolbox)

Работаю в проектах систем технического зрения (трекинг/сегментация/детекторы) на нейронных сетях, нейросетевой анализ временных рядов

Работаю (МГТУ им. Н.Э.Баумана) в качестве руководителя выпускных работ (магистры, бакалавры) и НИР студентов по направлению Deep learning, Computer Vision. Мои студенты участвуют в программах платформы Kaggle, Сбербанка, Политехнике и т.п.
Сертификат
Мы выдаем сертификат о прохождении курса
Фото с наших занятий
Мы проводим живые занятия, конференции и мероприятия,
посмотрите наши фотографии
Любые вопросы по курсу задавайте менеджеру
Артём Воронов-Гашев
Менеджер по работе с клиентами
Email: info@neural-university.ru
Телефон: +7 (499) 648-67-44
Whatsapp/viber/telegram:
+7(918) 916-41-84

КУРС
«ГЛУБОКАЯ МАТЕМАТИКА»

Старт 20 июля / 10 недель / стоимость 34.900 рублей


Забронируйте минимальную стоимость