«Основы программирования глубоких нейронных сетей на Python»
В этом вебинаре вы узнаете сначала в целом про область нейронных сетей и искусственного интеллекта и во второй половине - основы нейронных сетей и написание примера нейронных сетей для распознавания рукописных цифр
«Оценка качества обучения нейронной сети»
В этом вебинаре вы узнаете одну из ключевых тем нейронных сетей - работа с обучающей и тестовой выборкой, а также продолжите работу со свёрточными сетями и распознаванием изображений
Раскадровки вебинаров
Ниже вы можете посмотреть
о чем мы говорили на уроках
Вебинар по Python
0:00:0 Вступление, общие слова о Python
0:20:0 Основы Python. Как написать простенький питоновский код
0:23:0 Среда разработки PyCharm
0:26:0 Anaconda - бесплатный дистрибутив языка Python
0:28:0 Jupyter ноутбук
0:30:0 GIT система контроля действий – история изменений кода
0:33:0 Типы данных
0:42:0 Строки в Python
0:47:0 Коллекция
1:25:0 Преобразование типов
1:27:0 Каждая переменная – это ссылка
1:26:0 Циклы и Условный оператор
1:53:0 Функции
2:10:0 Области видимости
1:24:0 Классы
2:49:0 Пакеты и модули
3:00:0 Исключения
3:02:0 Генераторы
3:09:0 Файлы
3:16:0 Обход файлов
3:17:0 Random
3:21:0 Аргументы
3:24:0 Домашнее задание
3:26:0 Кросс-валидация
3:37:0 Домашнее задание
3:40:0 Задание лайт и задание Pro.
3:43:0 Модуль NumPy - чтобы посчитать статистику
Оценка качества обучения сети
0:00:0 Оценка качества обучения нейронной сети
0:05:0 Проблема переобучения
0:08:0 Наборы данных для обучения
0:13:0 Оценка качества обучения нейронной сети в Keras
0:26:0 Создаем нейронную сеть
0:30:0 Проверяем качество обучения на тестовом наборе данных
0:34:0 Демонстрация контроля переобучения в Keras
0:42:0 Наборы данных для обучения
1:10:0 Схема обучения нейронной сети
1:20:0 Почему softmax?
21:25:0 График exp(x)
21:26:0 Функция мягкого максимума (softmax)
1:30:0 Искусственный нейрон
1:31:0 Снижение переобучения с помощью слоя Dropout
1:31:0 Слой Dropout
1:42:0 Платформа Data Scientist'ов Kaggle
1:50:0 Домашнее задание 2: соревнования по распознаванию рукописных цифр MNIST на Kaggle
0:32:30 - функция ошибки loss - то насколько отличается распознавание от правильного ответа
0:35:30 - batch_size - размер минивыборки, используется метод стохастического спуска. Берем элементы данных например = 200 (200 картинок с рукописными цифрами), подаем их на вход в нейронную сеть, считаем функцию ошибки, дальше смотрим производную, смотрим направление изменения производной, смотрим на сколько нам нужно поменять веса в соответствии с правилами изменения весов и меняем веса после обработки минивыборки.
0:54:45 - Остановить keras автоматически, когда будет достигнут максимальный порог точности. Функция Callbacks.
0:56:21 - Распределение весов при обучении. Когда сеть только начинает обучаться, веса начинают назначаться случайным образом, соответственно в первом пакете ошибка будет самой большой, поэтому на первых шагах изменение весов будет самым большим.
0:59:05 - Batch_size влияет на точность.
1:02:37 - Один из признаков переобучения, когда ошибка начинает увеличиваться
1:15:45 - Функция relu на входном скрытом слое - полулинейная функция, возвращающая 0 при отрицательном значении и само значение при положительном.
1:18:16 - Функция Softmax
1:28:45 - Функция Softmax - функция активации, она меняет значения того, что выдал на нейрон.
1:30:00 - использование слоя Dropout
1:35:12 - оптимальный подбор параметра Dropout
data science библиотеки и визуализация данных
0:00:0 Объединение массивов
0:04:0 Библиотека Numpy.
0:05:0 Создание массивов
0:16:0 Индексация
0:20:0 Операции
0:45:0 Random
0:55:0 Индексация масками
1:04:0 Сохранение, загрузка
1:15:0 Библиотека Pandas - библиотека для Data Science
1:26:0 Библиотека Matplotlib - Рисование графиков
1:51:0 Matplotlib Galery https://matplotlib.org/gallery/index.html
2:00:0 Домашнее задание.
2:23:0 Факультативно: Lambda, map, filter, reduce

Ссылки, которые давал Павел:
python-graph-gallery.com
https://drive.google.com/file/d/1R6-5kDpIEYSz3-HFwb7RVl0Rsax9C5lk/view

Математические функции:https://docs.scipy.org/doc/numpy/reference/routines.math.html
Семинар
«Как работают нейронные сети и где Вы можете применить их на практике»
Из этого семинара вы узнаете все ключевых архитектуры нейронных сетей, как происходит работа и обучение сетей и где они применяются на практике
Может быть интересно
Другие страницы сайта