Что такое нейронные сети,
что они могут, и как написать нейронную сеть на Python?

Узнайте о том, как работают нейронные сети, какие задачи они могут решать и напишите свою первую нейронную сеть на Python и Keras
Краткое оглавление
Что такое нейронные сети,
и что они могут?
Нейронные сети решают интеллектуальные задачи
Начнем с главного. Основное назначение нейронных сетей - это решение интеллектуальных задач.

Для того, чтобы понять, что является интеллектуальной задачей, а что - нет, давайте рассмотрим пример.

Допустим, вы находитесь на вебинаре. Есть ведущий, есть зрители, и есть некий сервис, который обеспечивает проведение трансляции.

Какую работу производит программное обеспечение вебинарного сервиса?

Оно получает видеопоток с камеры ведущего, по определенным правилам его сжимает, переправляет по сети до каждого из участников, распаковывает поток и отдает его конечному зрителю.

То же самое происходит с презентацией, которую демонстрирует ведущий, с чатом и т.д.
Функционирование такого программного обеспечения - это полностью детерминированный алгоритм:

  • получить видеопоток с камеры ведущего
  • сжать его
  • передать в виде пакетов по определенному протоколу до зрителя
  • распаковать обратно в видеопоток
  • отобразить его для зрителя

Такого рода задачи не являются интеллектуальными.

Какие же задачи призваны решать нейронные сети? Их сила заключена в решении так называемых интеллектуальных задач, задач иного типа, например:

- распознавание лиц
- распознавание стульев в ТЦ (отличить стулья KFC от McDonalds)
- автопилот Tesla и т.д.

Эти задачи называются интеллектуальными, так как в них нет определенных заданных шагов для их решения, нет четко прописанной последовательности действий, а сама нейронная сеть обучается в процессе решения такой задачи.
Место нейронных сетей в области Data Mining и Machine Learning
Сейчас давайте посмотрим на место нейронных сетей в более обширной области Data Mining. Она не представлена на иллюстрации ниже, т.к. является еще более общим понятием, включающим в себя все остальные составляющие, отраженные на схеме.
Data Mining – это непосредственная работа с данными и их анализ человеком с использованием своих собственных интеллектуальных ресурсов.

Классический пример прикладной программы, использующейся в области Data Mining - это широко распространенный пакет MATLAB.

В случае с Data Mining человек сам, как исследователь, занимается этим вопросом и погружается в него. В качестве примерной аналогии здесь можно вспомнить знаменитый фильм "Игры разума", когда главный герой, весь обложенный данными, сидел, думал и разгадывал некий шифр.

Ещё один пример хорошо показывает нам разницу между Data Mining и Machine Learning (Машинное обучение). В то время, когда многие пытались разгадать коды немецкой шифровальной машины "Enigma" вручную, своей головой, английский математик и криптограф Алан Тьюринг создавал машину, которая сама будет разгадывать этот код.

И машина в итоге победила.
Machine Learning – это обучение машины для того, чтобы она решала задачи определенного типа без участия человека.

Еще один пример - разработка кредитного скоринга в банке, т.е. создание надежной системы оценки кредитоспособности (кредитных рисков) человека, основанная на численных статистических методах.

Во многих случаях это еще делается вручную, человеческими силами. Т.е. человек анализирует множество данных по тем, кто платит или не платит по кредитам и пытается найти те параметры, которые коррелируют с платежеспособностью заемщика.

Это тоже пример обычного классического Data Mining.

Machine Learning же – это ситуация, когда мы на этот Data Mining запускаем алгоритм, по которому происходит работа с данными. И именно написанный человеком алгоритм уже находит определенные закономерности, которые нам важно знать о неких данных.

При этом, алгоритм, скорее всего, не будет выдавать нам эти закономерности в понятном для нас виде, но при этом он будет обладать обладать необходимой предсказательной силой и сможет дать достаточно точный прогноз по платежеспособности того или иного потенциального заемщика.
Два вида Machine Learning
Дальше нам важно понимать, что машинное обучение делится на 2 больших класса:

1. Классическое машинное обучение

Это более старый подход, в котором используются такие методы, как метод наименьших квадратов, метод главных компонент и т.д.

Это математические методы, в которых много математической статистики, теории вероятностей, линейной алгебры, математического анализа и т.д. Это операции с матрицами, разделяющие поверхности и др.

В классическом машинном обучении очень велико участие человека.

Например, как писалось распознавание лиц методом классического машинного обучения?

Писалась специальная программа, которая определяла, где глаз, где ухо, где рот и т.д. Для этого специалист самостоятельно проводил анализ и создавал алгоритм, работающий по заданным параметрам.

Например, рассчитывалось расстояние между глазами, угол наклона глаза по отношению к носу, размер губ, расположение ушей и т.д.

Т.е. человек самостоятельно продумывал алгоритм, выделяя множество параметров и то, как они соотносятся друг с другом, а дальше уже распознавала машина на основе тех "ориентиров", которые ей дал человек.
2. Нейронные сети

Нейронные сети отличаются от классического машинного обучения тем, что они самообучающиеся. В случае с нейронными сетями человек, например, не пишет алгоритм конкретно под распознавание лиц и т.д.

К примеру, если бы мы писали классическим методом отдельно распознавание лиц и отдельно распознавание кошек и собак, то это были бы категорически разные алгоритмы.

В одном случае мы бы замеряли расстояния (и другие параметры) между элементами лица, в то время как для кошек и собак мы бы выделяли лапы, хвосты, размер тела, формы носов, ушей и т.д.

Отличие нейронной сети в том, что у неё есть принцип, по которому она обучается, и нам нужно лишь дать ей выборку для обучения, чтобы она сама научилась.

Главное – выбрать правильную архитектуру сети (допустим, для работы с 2-D изображениями), указать, сколько классов объектов мы должны иметь на выходе и дать правильную обучающую выборку.

Как следствие, нейронная сеть, обученная распознавать лица и нейронная сеть, обученная распознавать кошек и собак, будут практически одинаковыми.

В них будут определенные отличия, но они будут минимальными.

Глубокое Обучение (Deep Learning)

И, наконец, в нейронных сетях выделяют глубокое обучение (Deep Learning).

Это достаточно модный термин, поэтому важно объяснить его суть, чтобы развеять некую магию, которая нередко вокруг него существует.

Начнем чуть издалека. Когда нейронная сеть маленькая (без скрытых слоев или с минимальным их количеством), она не способна описать сложные явления и решить сколь-нибудь значимые значимые задачи, и в этом отношении её можно назвать "туповатой".

В глубоких же нейронных сетях количество слоев может достигать десятков и даже сотен, и она имеет огромную мощность для обобщения комплексных сложных явлений и процессов.

В последнее время именно глубокое обучение становится все более популярным и востребованным, т.к. появляется все больше и больше данных, а также постоянно растут вычислительные мощности.

Важно отметить, что глубокое обучение нужно не всегда.

Так, например, если для изучения какого-то явления мы берем модель нейронной сети, сложность которой превосходит сложность самого явления, сеть будет переобучаться, т.е. заучивать шумы, признаки, не отражающие суть изучаемого явления.

Иными словами, сложность нейронной сети должна соответствовать сложности изучаемого явления.

Более того, во многих случаях очень простые нейронные сети в пару слоев оказываются даже более точными, чем очень глубокие сети со множеством слоев.

Причины этого могут крыться в недостаточном количестве данных, в чрезмерной сложности сети по отношению к изучаемому явлению и т.д.

В целом же тенденция такова, что нейронные сети все больше вытесняют классическое машинное обучение, а глубокое обучение преобладает над простыми нейронными сетями с небольшим количеством слоев.
Типы задач, которые решают нейронные сети
Сейчас давайте разберем классические типы задач, которые можно целесообразно решать с использованием нейронных сетей.

Сразу можно сказать, что перечисленные ниже типы нельзя считать жестко разграниченными – они могут плавно перетекать друг в друга.

1. Распознавание образов (классификация)

Классификация - типичная и одна из самых распространенных задач, например:

- Распознавание лиц
- Распознавание эмоций
- Классификация типов огурцов на конвейере при сортировке и т.д.

Задача распознавания образов - это ситуация, когда у нас есть некоторое количество классов (от 2 и более) и нейронная сеть должна отнести образ к той или иной категории. Это задача классификации.
2. Регрессия

Следующий тип задач - это регрессия.

Суть этой задачи - получить на выходе из нейронной сети не класс, а конкретное число, например:

- Определение возраста по фото
- Прогнозирование курса акций
- Оценка стоимости недвижимости

Например, у нас есть данные об объекте недвижимости, такие как: метраж, количество комнат, тип ремонта, развитость инфраструктуры в окрестностях этого объекта, удаленность от метро и т.д.

И нашей задачей является предсказать цену на этот объект, исходя из имеющихся данных. Задачи такого плана - это задачи регрессии, т.к. на выходе мы ожидаем получить стоимость - конкретное число.
3. Прогнозирование временных рядов

Прогнозирование временных рядов - это задача, во многом схожая с регрессией.

Суть её заключается в том, что у нас есть динамический временной ряд значений, и нам нужно понять, какие значения будут идти в нем дальше.

Например, это задачи по предсказанию:

- Курсов акций, нефти, золота, биткойна
- Изменению процессов в котлах (давление, концентрация тех или иных веществ и т.д.)
- Количества трафика на сайте
- Объемов потребления электроэнергии и т.д.

Даже автопилот Tesla отчасти тоже можно отнести к задаче этого типа, ведь видеоряд следует рассматривать как временной ряд из картинок.

Возвращаясь же к примеру с оценкой процессов, происходящих в котлах, задача, по сути, является двойной.

С одной стороны, мы предсказываем временной ряд давления и концентрации тех или иных веществ, а с другой - распознаем по этому временному ряду паттерны, чтобы оценить, критичная ситуация, или нет. И здесь уже идет распознавание образов.

Именно поэтому мы сразу отметили тот факт, что не всегда есть четкая граница между разными типами задач.
4. Кластеризация

Кластеризация - это обучение, когда нет учителя.

В этой ситуации у нас есть много данных и неизвестно, какие из них к какому классу относятся, при этом есть предположение, что там есть некоторое количество классов.

Например, это:

- Выявление классов читателей при email-рассылках
- Выявление классов изображений

Типичная маркетинговая задача - эффективно вести email-рассылку. Допустим, у нас есть миллион email-адресов, и мы ведем некую рассылку.

Разумеется, люди ведут себя совершенно по-разному: кто-то открывает почти все письма, кто-то не открывает почти ничего.

Кто-то постоянно кликает по ссылкам в письмах, а кто-то просто их читает и кликает крайне редко.

Кто-то открывает письма по вечерам в выходные, а кто-то - утром в будние, и так далее.

Задача кластеризации в этом случае - это анализ всего объема данных и выделение нескольких классов подписчиков, обладающих сходными поведенческими паттернами (в рамках, каждого класса, разумеется).

Другая задача этого типа - это, например, выявление классов для изображений. Один из проектов в нашей Лаборатории - это работа с фентези-картинками.

Если передать эти изображения нейронной сети, то, после их анализа, она, к примеру "скажет" нам, что обнаружила 17 различных классов.

Допустим, один класс - это изображение с замками. Другой - это картинки с изображением человека по центру. Третий класс - это когда на картинке дракон, четвертый - это много персонажей на фоне природного ландшафта, происходит какая-нибудь битва, и т.д.

Это примеры типичных задач кластеризации.
5. Генерация

Генеративные сети (GAN) - это самый новый, недавно появившийся тип сетей, который стремительно развивается.

Если говорить кратко, то их задача – машинное творчество. Под машинным творчеством подразумевается генерация любого контента:

- Текстов (стихи, тексты песен, рассказы)
- Изображений (в том числе фотореалистичных)
- Аудио (генерация голоса, музыкальных произведений) и т.д.

Кроме того, в этот список можно добавить и задачи трансформации контента:

- раскрашивание черно-белых фильмов в цветные
- изменение сезона в видеоролике (например, трансформация окружающей среды из зимы в лето) и др.

В случае с "переделкой" сезона изменения затрагивают все важные аспекты. Например, есть видео с регистратора, в котором машина зимой едет по улицам города, вокруг лежит снег, деревья стоят голые, люди в шапках и т.д.

Параллельно с этим роликом идет другой, переделанный в лето. Там уже вместо снега зеленые газоны, деревья с листвой, люди легко одеты и т.д.

Безусловно, есть и некоторые другие типы задач, которые решают нейронные сети, но все основные мы с вами рассмотрели.
Отличия нейронных сетей от классического машинного обучения
Теперь, когда мы с вами поговорили про основные задачи, которые могут решать нейронные сети, стоит чуть подробнее остановиться на тех особенностях, которые отличают нейронные сети от классического машинного обучения.

Мы выделим 5 таких отличий:
1. Самообучение

Косвенно мы уже касались этой момента выше, поэтом сейчас раскроем его чуть больше.

Суть самообучения заключается в том, что мы задаем общий алгоритм, как она будет обучаться, а дальше она сама "понимает", как некое явление или процесс устроены изнутри.

Суть самообучения заключается в том, что нейронной сети для успешной работы нужно дать правильные, подготовленные данные и прописать алгоритм, по которому она будет обучаться.

В качестве иллюстрации для этой особенности можно привести генетический алгоритм, суть которого мы рассмотрим на примере программы с летающими по экрану монитора смайликами.

Одновременно перемещалось 50 смайликов, и они могли замедляться / ускоряться и менять направление своего движения.

В алгоритме мы заложили, что если они вылетают за край экрана или попадают под клик мыши, то "умирают".

После "смерти" тут же создавался новый смайлик, причем на основании того, кто "прожил" дольше всего.

Это была вероятностная функция, которая отдавала приоритет "рождения" новых смайликов тем, кто прожил дольше всех и минимизировала вероятность появления "потомства" у тех, кто быстро улетел за пределы экрана или попался под клик мыши.

Сразу после запуска программы все смайлики начинают летать хаотично и быстро "умирают", улетая за края экрана.

Проходит буквально 1 минута, и они научаются не "умирать", улетая за правый край экрана, но улетают вниз. Еще через минуту они перестают улетать вниз. Через 5 минут они уже вообще не умирают.

Смайлики разбились на несколько групп: кто-то летал вдоль периметра экрана, кто-то топтался в центре, кто-то нарезал восьмерки, и т.д. При этом мышкой мы их еще не кликали.

Теперь мы начали кликать по ним мышкой и, естественно, они тут же умирали, потом что еще не обучались избегать курсора.

Через 5 минут было невозможно поймать ни одного из них. Как только к ним приближался курсор, смайлики делали какой-нибудь кульбит и уходили от клика - поймать их было невозможно.

Самое важное и восхитительное во всем это то, что мы не закладывали в них алгоритм, как не улетать за края экрана и уворачиваться от мышки. И если первый момент реализовать несложно, то со вторым все на порядок сложнее.

Можно было бы потратить примерно неделю времени и создать нечто подобное, но прелесть в том, что мы добились такого же или даже лучшего результата, потратив на программирование пару часов и еще несколько минут на то, чтобы произошло обучение.

Вдобавок к этому, поменяв пару строчек кода, мы могли бы довнести в их алгоритм обучения любую другую функцию. Например, если это происходит на фоне рабочего стола - не залезать на иконки, которые на нем есть.

Или мы хотим, чтобы они не сталкивались друг с другом. Или мы хотим поделить их на 2 группы, раскрашенных в разные цвета и хотим, чтобы они не сталкивались со смайликами другого цвета. И так далее.

И они обучились бы этому за те же самые 5-10 минут по тем же принципам генетических алгоритмов.

Надеюсь, что этот пример показал вам потрясающую силу всего, что связано с искусственным интеллектом и нейронными сетями.

При всем при этом важно иметь компетенцию писать такие генетические алгоритмы и уметь подавать такой сети правильные входные данные.

Так, в рассмотренном выше примере сначала никак не удавалось добиться сколь-нибудь значимого прогресса в обучении смайликов по той причине, что в качестве входных данных им подавалось расстояние до краев экрана и расстояние до курсора мыши.

В результате этого нейронной сети не хватало мощности обучиться на таком типе данных, и прогресса практически не было.

После этого в качестве входных параметров стали передаваться другие значения - единица, деленная на расстояние до края экрана и единица, деленная на расстояние до курсора.

Результат - прекрасное обучение, о котором мы только что говорили. Почему? Потому что когда они подлетали к краю экрана, этот параметр начинал зашкаливать, его изменение происходило очень быстро, и в этой комбинации нейронная сеть смогла выявить важную закономерность и обучиться.

На этом с самообучением всё, двигаемся дальше.
2. Требуется обучающая выборка

Нейронным сетям для обучения требуется обучающая выборка. Это главный минус, т.к. обычно нужно собрать много данных.

К примеру, если мы пишем распознавание лиц в классическом машинном обучении, то нам не нужна база из фотографий – достаточно нескольких фото, по которым человек сам составит алгоритм определения лица, или даже сделает это по памяти, вообще без фото.

В случае с нейронными сетями ситуация иная – нужна большая база того, на чем мы хотим обучить нейронную сеть. При этом важно не только собрать базу, но и определенным образом её предобработать.

Поэтому очень часто сбор базы производится в том числе фрилансерами или крупными бизнесами (классический пример - сбор данных компанией Google для того, чтобы показывать нам капчи).

На своем курсе мы делаем на это упор - в том числе в Лабораториях и во время подготовки дипломных работ. Важно научиться собирать эти данные руками, получив ценный опыт, поняв, как это делается правильно, и на что нужно обратить внимание.

Если вы освоите это сами, то в будущем сможете писать в том числе и правильные ТЗ для подрядчиков, получая качественные, нужные вам результаты.
3. Не требуется понимания явления человеком

Третий пункт - это огромный плюс нейронных сетей.

Можно не быть экспертом в какой-либо предметной области, но, будучи экспертом в нейронных сетях решить практически любую задачу.

Да, экспертность, безусловно влияет в плюс, т.к. мы можем лучше предобработать данные и, возможно, быстрее решить задачу, но в целом это не является критическим фактором.

Если в классическом машинном обучении не являясь экспертом в предметной области (например, атомная энергетика, машиностроение, геологические процессы и т.п.) мы вообще не сможем решить задачу, то здесь это вполне реально.
4. Значительно точнее в большинстве задач

Следующее значимое преимущество нейронных сетей - их высокая точность.

Например, аварийность автопилотов Tesla на пробег в 1 млн. км. примерно в 10 раз ниже, чем аварийность обычного водителя.

Точность предсказания медицинских диагнозов по МРТ также выше, чем у специалистов-врачей.

Нейронные сети обыгрывают людей практически в любые игры: шахматы, покер, го, компьютерные игры и т.д.

Одним словом, их точность значительно выше практически во всех задачах, что и привело к их все более и более активному использованию в самых разных сферах жизни человека, начиная с маркетинга и финансов, и заканчивая медициной, промышленностью и искусством.
5. Непонятно, как работают внутри

Однако, при всех этих возможностях у нейронных сетей есть следующий минус - непонятно, как они работают "внутри".

Мы не можем туда влезть и понять, как там все устроено, как она «мыслит». Это все скрыто в весах, в цифрах.

Более или менее "увидеть" то, что происходит внутри возможно, разве что, в сверточных сетях при работе с изображениями, но даже это не позволяет нам получить полной картины.

Типичный пример того, что нейронная сеть в чем-то похожа на черный ящик - это ситуации, когда, например идет судебный процесс, в ходе которого какие-нибудь компании обращаются в Яндекс и спрашивают, почему именно этот сайт, а не какой-то другой выводится именно на этот позиции в выдаче.

И Яндекс не может ответить на подобные вопросы, т.к. это решение принимается нейронной сетью, а не чётко прописанным алгоритмом, который можно полностью объяснить.

Ответить на такой вопрос - задача столь же нетривиальная, как, например, предсказать точную траекторию, по которой именно с этого стола скатится именно этот металлический шарик, положенный именно в это конкретное место.

Да, законы гравитации нам известны, однако предсказать в точности, как именно будет происходить его движение, практически невозможно.

То же самое с нейронной сетью. Принципы её работы ясны, однако понять, как она сработает в каждом конкретном случае не представляется возможным.
Строение биологического и модель искусственного нейронов
Строение биологического нейрона

Для того, чтобы понять, как устроен искусственный нейрон, начнем с того, что вспомним, как функционирует обычная нервная клетка.

Именно её строение и функционирование Уоррен Мак-Каллок (американский нейропсихолог, нейрофизиолог, теоретик искусственных нейронных сетей и один из основателей кибернетики) и Уолтер Питтс (американский нейролингвист, логик и математик) взяли как основу для модели искусственного нейрона еще в середине прошлого века.

Итак, как выглядит нейрон?
У нейрона есть тело, которое накапливает и некоторым образом преобразует сигнал, приходящий к нему через дендриты – короткие отростки, функция которых заключается в приеме сигналов от других нервных клеток.

Накопив сигнал, нейрон передает его по цепочке дальше, другим нейронам, но уже по длинному отростку – аксону, который, в свою очередь, связан с дендритами других нейронов, и так далее.

Конечно, это крайне примитивная модель, т.к. каждый нейрон в нашем мозге может быть связан с тысячами других нейронов.

Следующий момент, на который нам нужно обратить внимание - это то, каким образом сигнал передается от аксона к дендритам следующего нейрона.

Дендриты с аксонами связаны не напрямую, а через так называемые синапсы, и когда сигнал доходит до конца аксона, в синапсе происходит выброс нейромедиатора, определяющего, как именно сигнал будет передан дальше.

Нейромедиаторы - биологически активные химические вещества, посредством которых осуществляется передача электрохимического импульса от нервной клетки через синаптическое пространство между нейронами, а также, например, от нейронов к мышечной ткани или железистым клеткам.

Иными словами, нейромедиатор является неким мостиком между аксоном и множеством дендритов принимающей сигнал клетки.

Если нейромедиатора выбросится много, то сигнал передастся полностью или даже будет усилен. Если же его выбросится мало, то сигнал будет ослаблен, либо вовсе погашен и не передастся другим нейронам.

Таким образом, процесс формирования устойчивых нейронных дорожек (уникальных цепочек связей между нейронами), являющихся биологической основой процесса обучения, зависит от того, сколько будет выброшено нейромедиатора.

Все наше обучение с самого детства построено именно на этом и образование совсем новых связей происходит достаточно редко.

В основном, все наше обучение и освоение новых навыков связано с настройкой того, сколько выбрасывается нейромедиатора в местах контакта аксонов и дендритов.

Например, у нас в нервной системе может быть установлена связь между понятиями "яблоко" и "груша". Т.е. как только мы видим яблоко, слышим слово "яблоко" или просто думаем о нем, в нашем мозгу по механизму ассоциации возникает образ груши, т.к. между этими понятиями у нас установлена связь - сформирована нейронная дорожка.

При этом между понятиями "яблоко" и подушка такой связи, скорее всего нет, поэтому образ яблока не вызывает у нас ассоциаций с подушкой - соответствующая нейронная связь очень слаба или отсутствует.

Интересный момент, о котором также стоит упомянуть, заключается в том, что у насекомых аксон и дендрит связаны напрямую, без выделения нейромедиатора, поэтому у них не происходит обучения в том виде, как оно происходит у животных и человека.

В течение жизни они не обучаются. Они рождаются уже умея всё, что они будут уметь в течение жизни.

Например, каждая конкретная муха не способна научиться облетать стекла - она всегда будет в них биться, что мы с вами постоянно и наблюдаем.

Все нейронные связи у них уже существуют, а сила передачи каждого сигнала уже отрегулирована определенным образом для всех имеющихся связей.

С одной стороны, такая негибкость в плане обучения имеет свои минусы.

С другой стороны, у насекомых, как правило, очень высокая скорость реакции именно за счет другой организации нервных связей, за счет отсутствия веществ-медиаторов, которые, будучи своеобразными посредниками, естественным образом замедляют процесс передачи сигналов.

При все при этом обучение у насекомых все же может происходить, но только эволюционно - от поколения к поколению.

Допустим, если способность облетать стекла станет важных фактором, способствующим выживанию вида как такового, то за некоторое количество поколений все мухи в мире научатся их облетать.

Пока этого не могло произойти, т.к. сами стекла существую относительно недавно, а для эволюционного обучения могут потребоваться десятки тысяч лет.

Если же это не играет важной роли для сохранения вида, то данная модель поведения так и не будет ими приобретена.
Модель математического нейрона Маккаллока — Питтса

Теперь давайте посмотрим на модель искусственного, математического нейрона Маккалока - Питтса, разработанную по аналогии с нервными клетками.
Обычно при работе математическими нейронами используются следующие обозначения:

X – входные данные
W – веса
H – тело нейрона
Y – выход нейронной сети

Входные данные - это сигналы, поступающие к нейрону.

Веса – это эквиваленты синаптической связи и выброса нейромедиатора, представленные в виде чисел, в том числе отрицательных.

Вес представлен действительным числом, на которое будет умножено значение входящего в нейрон сигнала.

Иными словами, вес показывает, насколько сильно между собой связаны те или иные нейроны - это коэффициент связи между ними.

В теле нейрона накапливается взвешенная сумма от перемножения значений входящих сигналов и весов.

Если говорить кратко, то процесс обучения нейронной сети - это процесс изменения весов, т.е. коэффициентов связи между имеющимися в ней нейронами.

В процессе обучения веса меняются, и, если вес положительный, то идет усиление сигнала в нейроне, к которому он приходит.

Если вес нулевой, то влияние одного нейрона на другой отсутствует. Если же вес отрицательный, то идет погашение сигнала в принимающего нейроне.

И, наконец, выход нейронной сети - это то, что мы получаем в результате обработки нейроном поданного на него сигнала. Это некая функция от накопившейся в теле нейрона взвешенной суммы.
Функции активации

Данную функцию называют функцией активации. Её задача - определить значение выходных данных, выходного сигнала.
Эти функции бывают разные, например, если мы имеем дело с функцией Хевисайда, то если в теле нейрона накопилась сумма больше определенного порога, то на выходе будет единица. Если же меньше порога - ноль.

На выходе из нейрона возможны разные значения, однако чаще всего их стараются приводить к диапазону от -1 до 1 или, что бывает еще чаще - от 0 до 1.

Еще один пример - это функция ReLU (на иллюстрации не представлена), которая работает иначе: если значение взвешенной суммы в теле нейрона отрицательно, то идет преобразование в 0, а если положительно, то в X.

Так, если значение на нейроне было -100 то после обработки функцией ReLU оно станет равным 0. Если же это значение равно, например, 15,7, то на выходе будут те же 15,7.
Также для обработки сигнала с тела нейрона применяются сигмоидальные функции (логистическая и гиперболический тангенс) и некоторые другие. Обычно они используются для «сглаживания» значений некоторой величины.

К счастью, для написания кода необязательно понимать различные формулы и графики этих функций, т.к. они уже заложены в библиотеках, используемых для работы с нейронными сетями.

Простейший пример классификации 2 объектов

Теперь, когда мы разобрались с общим принципом работы, давайте посмотрим на простейший пример, иллюстрирующий процесс классификации 2 объектов с помощью нейронной сети.

Представим, что нам нужно отличить входной вектор (1,0) от вектора (0,1). Допустим, черное от белого, или белое от черного.

При этом, в нашем распоряжении есть простейшая сеть из 2 нейронов.
Допустим, что мы зададим верхней связи вес «+1», а нижней – «-1». Теперь, если мы подадим на вход вектор (1,0), то на выходе мы получим 1.

Если же мы подадим на вход вектор (0,1), то на выходе получим уже -1.

Для упрощения примера будем считать, что у нас здесь используется тождественная активационная функция, при которой f(x) равно самому x, т.е. функция никак не преобразует аргумент.

Таким образом, наша нейронная сеть может классифицировать 2 разных объекта. Это совсем-совсем примитивный пример.

Обратите внимание на то, что в данном примере мы сами назначаем веса "+1" и "-1", что не совсем неправильно. В действительности они подбираются автоматически в процессе обучения сети.

Обучение нейронной сети – это подбор весов.

Любая нейронная сеть состоит из 2 составляющих:
  • Архитектура
  • Веса

Архитектура - это её структура и то, как она устроена изнутри (об этом мы поговорим чуть позже).

И когда мы подаем на вход нейронной сети данные, нам нужно её обучить, т.е. подобрать веса между нейронами так, чтобы она действительно выполняла то, что мы от неё ожидаем, допустим, умела отличать фото кошек от фото собак.

На самом деле, обучением нейронной сети можно назвать также и подбор архитектуры в процессе исследования.

Так, например, если мы работаем с генетическими алгоритмами, то в процессе обучения нейронная сеть может менять не только веса, но еще и свою структуру.

Но это скорее исключение, чем правило, поэтому в общем случае под обучением нейронной сети мы будем понимать именно процесс подбора весов.
Типы обучения
Теперь, когда мы поговорили об общем механизме обучения нейронной сети, давайте рассмотрим три типа обучения.
1. С учителем

Обучение с учителем - это одна из самых частых задач. В этом случае у нас есть выборка, и мы знаем по ней правильные ответы.

Мы точно заранее знаем, что на этих 10 тыс. фото - собаки, а на этих 10 тыс. фото - кошки.

Или мы точно знаем курс каких-нибудь акций на протяжении длительного времени.

Допустим, 5 дней до этого дня были такие цены, а на следующий день цена стала такой-то. Затем смещаемся на день вперед, и мы снова знаем: 5 дней цены были такие, а на следующий день цена стала такой-то, и так далее.

Или мы знаем характеристики домов и их реальные цены, если мы говорим про прогнозирование цен на недвижимость.

Все это - примеры обучения без учителя.
2. Без учителя

Второй тип обучения - это обучение без учителя (кластеризация).

В этом случае мы подаем на вход сети некие данные и предполагаем, что в них можно выделить несколько классов.

Обучение без учителя используется в тех случаях, когда требуется обнаружить внутренние взаимосвязи, зависимости и закономерности, существующие между объектами.
3. С подкреплением

Третий тип обучения - это обучение с подкреплением. Оно немного похоже на обучение с учителем, когда есть готовая база верных ответов. Отличие заключается в том, что в этом случае у нейронной сети нет всей базы сразу, а дополнительные данные приходят в процессе обучения и дают сети обратную связь о том, достигнута цель или нет.

Простой пример: бот проходит некий лабиринт и на 59 шаге получает информацию о том, что он «упал в яму» или после 100 шагов, выделенных на выход из лабиринта, он узнает, что «не дошел до выхода».

Таким образом нейронная сеть понимает, что последовательность её действий не привела к нужному результату и обучается, корректируя свои действия.

Т.е. заранее сеть не знает, что верно, а что – нет, но получает обратную связь, когда происходит некое событие. По этому принципу строятся практически все игры, а также различные агенты и боты.

Кстати, пример с умирающими смайликами, который мы рассматривали выше - это также обучение с подкреплением.

Кроме того, это автопилоты, подбор стиля под пожелания конкретного человека, исходя из его предыдущих выборов и т.д.

Например, нейронная сеть генерирует 20 картинок и человек выбирает из них 3, которые ему больше всего нравятся. Затем нейронная сеть создает еще 20 картинок и человек снова выбирает то, что ему нравится больше всего и т.д.

Таким образом, сеть выявляет предпочтения человека по стилю изображения, цветовой гамме и другим характеристикам, и может создавать изображения под вкусы каждого конкретного человека.
Архитектуры нейронных сетей
Одной из ключевых задач при создании нейронных сетей является выбор её архитектуры. Он производится разработчиком, исходя из стоящей перед ним задачи и, в общем случае, нейронная сеть обучается только за счет изменения весов.

Исключение – генетические алгоритмы, когда популяция нейронных сетей в процессе обучения самостоятельно пересобирает саму себя и свою архитектуру в том числе.

Однако в подавляющем большинстве случаев в процессе обучения архитектура нейронной сети самопроизвольно не меняется.

Все изменения в нее вносит сам разработчик через добавление или удаление слоев, увеличение или уменьшение количества нейронов на каждом слое и т.д.

Давайте посмотрим на основные архитектуры и начнем с классического примера - полносвязной нейронной сети прямого распространения.
1. Полносвязная нейронная сеть
Полносвязная нейронная сеть прямого распространения - это сеть, в которой каждый нейрон связан со всеми остальными нейронами, находящимися в соседних слоях, и в которой все связи направлены строго от входных нейронов к выходным.

Слева на рисунке мы видим входной слой, на который приходит сигнал. Правее находятся два скрытых слоя, и самый правый слой из двух нейронов – выходной слой.

Эта сеть может решить задачу классификации, если нам нужно выделить два любых класса – допустим, кошек и собак.

Например, верхний из этих двух нейронов отвечает за класс «собаки» и может иметь значения 0 или 1. Нижний – за класс «кошки», и имеет возможность принимать те же самые значения – 0 или 1.

Другой вариант - она может, к примеру, прогнозировать 2 параметра - давление и температуру в котле на основании 3 неких входных данных.

Чтобы лучше понять, как это работает, давайте посмотрим, как такая полносвязная сеть может использоваться, допустим, для прогнозирования погоды.
В этом примере мы подаем на вход температурные данные по трем последним дням, а на выходе хотим получить предсказания на два следующих дня.

Между входным и выходным слоями у нас есть 2 скрытых слоя, в которых нейронная сеть будет обобщать данные.

Например, в первом скрытом слое один нейрон будет отвечать за такое простое понятие, как «температура растет».

Другой нейрон будет отвечать за понятие «температура падает».

Третий – за понятие «температура неизменна».

Четвертый – «температура очень высокая».

Пятый – «температура высокая».

Шестой – «температура нормальная».

Седьмой – «температура низкая».

Восьмой – «совсем низкая».

Девятый – «температура скакнула вниз и вернулась».

И так далее.

Мы, разумеется, называет все это словами, понятными нам, в то время как сеть сама в процессе обучения сделает так, что каждый из нейронов будет за что-то отвечать, чтобы эффективно обобщать данные.

И каждый из нейронов первого скрытого слоя (в т.ч. обведенный на картинке) будет отвечать за выделение определенного признака в поступивших данных.

Например, если он отвечает за понятие «температура растет», то нейрон с температурой +17 со входного слоя будет входить в него с положительным весом.

Нейрон с температурой +15 – с нулевым весом, а нейрон с температурой +12 – с отрицательным весом.

Если этот так, т.е. температура реально росла и подавались такие данные, обведенный на рисунке нейрон будет активироваться. Если же температура падала, он останется неактивированным.

Нейроны второго скрытого слоя (например, обведенный на картинке ниже), будут отвечать за более высокоуровневые признаки, например, за то, что это осень. Или за то, что это любое другое время года.
На активацию данного нейрона будет положительно влиять падение температуры, свойственное осени.

Если наблюдается постепенный рост температуры, то, скорее всего, это статистически будет влиять в минус, т.е. не будет активировать данный нейрон.

Понятно, что бывают ситуации, когда осенью температура растет, но, скорее всего, статистически рост температуры в течение 3 дней будет отрицательно влиять на этот нейрон.

То, что температура слишком высокая, точно будет отрицательно влиять на нейрон, отвечающий за осень, т.к. не бывает очень высоких температур в это время года, и так далее.

И, наконец, нейроны 2 скрытого слоя соединяются с двумя выходными нейронами, которые выдают предсказание по температуре.

При этом обратите внимание, что сами мы не задаем, за что будет отвечать каждый из нейронов (это было бы примером классического машинного обучения). Нейронная сеть сама сделает нейроны "ответственными" за те или иные понятия.

Более того, в рамках нейронной сети привычные нам понятия, такие как "весна", "осень", "температура падает" и т.д. не существуют. Мы просто обозначили их так для своего удобства, чтобы нам было понятнее, что примерно происходит внутри во время обучения.

В действительности же нейронная сеть сама в процессе обучения выделит именно те свойства, которые нужны для решения данной конкретной задачи.

Важно понимать, что нейронная сеть именно с такой архитектурой не будет правильно прогнозировать температуру – это упрощенный пример, показывающий, как внутри сети может происходить выделение различных признаков (так называемый процесс feature extraction).

Процесс выделения признаков хорошо иллюстрирует работа свёрточных нейронных сетей.

Допустим, на вход сети мы подаем фото кошек и собак, и сеть начинает их анализировать.

На первых слоях сеть определяет наиболее общие признаки: линия, круг, темное пятно, угол, близкий к прямому, яркое пятно на фоне темного и т.д.

На следующем слое сеть сможет извлечь уже иные признаки: ухо, лапа, голова, нос, хвост и т.д.

Еще дальше, на следующем слое будет идет анализ уже такого плана:

- здесь хвост загнут вверх, это коррелирует с лайкой, значит собака;
- а тут короткие лапы, а у кошек нет коротких лап, поэтому, скорее всего, собака, такса;
- а вот здесь треугольное ухо с белым кончиком, похоже на такую-то породу кошки, и т.д.

Примерно таким образом происходит процесс feature extraction.

Безусловно, чем больше нейронов в сети, тем более детальные, специфические свойства она может выделить.

Если же нейронов немного, она сможет работать только «крупными мазками», т.к. у нее не хватит мощности проанализировать все возможные комбинации признаков.

Таким образом, общий принцип выделения свойств - это все большее обобщение при переходе с одного слоя на другой, от низкого уровня ко все более высокому.

Итак, давайте снова вспомним, что из себя представляет нейронная сеть.

Во-первых, это архитектура.

Она задается разработчиком, т.е. мы сами определяем, сколько у сети слоев, как они связаны, сколько нейронов на каждом слое, есть ли у этой сети память (об этом чуть позже), какие у нее активационные функции и т.д.

Архитектуру сети можно представить, например, как обычный JSON, YAML или XML-файл (текстовые файлы, в которых можно полностью отразить её структуру).

Во-вторых, это обученные веса.

Веса нейронной сети хранятся в совокупности матриц в виде действительных чисел, количество которых (чисел) равно общему количеству связей между нейронами в самой сети.

Количество самих матриц зависит от количества слоев и того, как нейроны разных слоев связаны друг с другом.

Веса задаются в начале обучения (обычно случайным образом) и подбираются в процессе обучения.

Таким образом, сеть можно легко сохранить через сохранение её архитектуры и весов, а в дальнейшем снова использовать её, обратившись к файлам с архитектурой и весами.
Обучение полносвязной сети методом обратного распространения ошибки (градиентного спуска)

Как же обучается полносвязная нейронная сеть прямого распространения? Давайте рассмотрим этот вопрос на примере метода обратного распространения ошибки, являющегося модификацией метода классического градиентного спуска.

Это метод обновления весов нейронной сети, при котором распространение сигналов ошибки происходит от выходов сети к её входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы.

Сразу отметим, что это не самый продвинутый алгоритм, и при работе с библиотекой Keras мы будем использовать более эффективные решения.

Также важно понимать, что в других типах сетей обучение происходит по другим алгоритмам, однако сейчас нам важно понять общий принцип.

Вернемся к примеру про прогнозирование температуры и допустим, что в качестве выходного сигнала у нас есть 2 вещественных числа т.е. значения температуры в градусах по 2 дням.

Таким образом, мы знаем правильные ответы, т.е. какая температура была на самом деле, и знаем те ответы, которые дала нам нейронная сеть.

В качестве способа измерения величины ошибки при обучении сети мы будем использовать так называемую функцию среднеквадратичной ошибки.
Например, в первый день сеть предсказала нам 10 градусов, а реально было 12. Про второй день она сказала, что будет 11 градусов, и реально также было 11.

Среднеквадратичная ошибка в этом случае составит сумму квадратов разностей предсказанной и реальной температур: (10-12)² + (11-11)² = 4.

В процессе обучения нейронной сети алгоритмы (в т.ч. Back Propagation – алгоритм обратного распространения ошибки) ориентированы на то, чтобы менять веса так, чтобы уменьшать эту среднеквадратичную ошибку.

Если она будет равна нулю, это значит, что нейронная сеть гарантированно точно распознает, например, все образы в обучающей выборке.

Понятно, что на практике в ноль она никогда не сходится, но близко к нулю - вполне возможно, и точность в этом случае будет очень высокая.

Метод градиентного спуска

Представим теперь, что у нас есть некоторая поверхность ошибки. Допустим, у нас есть нейронная сеть, в которой 2 веса, и мы можем эти веса менять.

Понятно, что разным значениям этих весов будет соответствовать разная ошибка нейронной сети.

Таким образом, взяв эти значения, мы можем создать двухмерную поверхность, на которой видны соотношения значений весов W₁ и W₂ и значений ошибок X₀-X₄ (см. иллюстрацию).
Теперь представим, что у нас в нейронной сети не два, а тысяча весов, и разные комбинации этих тысяч весов соответствуют разным ошибкам при одной и той же обучающей выборке. В этом случае у нас получается уже тысячемерная поверхность.

Мы можем менять тысячу действительных чисел и каждый раз получать новое значение ошибки.

И эту тысячемерную поверхность можно сравнить с поверхностью измятого одеяла со своими локальными максимумами и минимумами (соответственно максимальными и минимальными значениями функции на заданном множестве). Это и будет называться поверхностью ошибки.

Так вот, обучение нейронной сети – это продвижение по этой тысячемерной поверхности разных весов и получение разных ошибок. И где-то на этой поверхности есть глобальный минимум – такая комбинация этой тысячи весов, при которой ошибка минимальна.

Локальных же минимумов может быть много, и в них значение ошибки достаточно низкое.

Поэтому обучение нейронной сети можно представить как это осмысленное перемещение по этой тысячемерной поверхности с целью добиться минимальной ошибки в некоторой точке.

При этом глобальный минимум, как правило, никто не ищет – он один, а пространство для поиска огромное. Именно поэтому нашей целью обычно являются как раз локальные минимумы. При всем при этом стоит отметить, что заранее мы не можем знать, какой именно минимум мы нашли – один из локальных, либо глобальный.

Но как именно происходит перемещение по поверхности ошибки? Давайте разберемся.

Важный момент заключается в том, что мы можем посчитать производную ошибки по весам. Иными словами, мы можем математически просчитать, как изменится ошибка, если мы чуть-чуть изменим в какую-то сторону веса.
Таким образом, мы можем вычислить, куда нам нужно сместить веса, чтобы ошибка у нас гарантированно уменьшилась при следующем шаге обучения.

Именно таким образом мы пошагово ищем необходимое направление спуска по поверхности ошибки.

Если мы шагнем слишком широко, то можем перескочить локальный минимум и подняться выше по поверхности ошибки, что для нас нежелательно.

Если же шаг будет небольшим, то мы шагнем вниз, ближе к локальному минимуму, затем снова пересчитаем направление движения и снова сделаем небольшой шаг.

Да, продвинутые алгоритмы могут, например, "перелезть через горку" и найти более глубокий локальный минимум и т.д., но в целом алгоритм обучения построен именно так.

Мы работаем с многомерной поверхностью ошибки в рамках наших весов и ищем, куда нам двигаться, чтобы прийти в локальный минимум, по возможности, максимально глубокий.
2. Свёрточная нейронная сеть
Следующая архитектура - это сверточные нейронные сети, которые в подавляющем большинстве случае используются для работы с изображениями (хотя одномерные сверточные сети могут применяться также для работы с текстом).

Они обрабатывают информацию примерно по тому же принципу, как работает наш глаз. Это принцип рецептивных полей.

Основная особенность сверточных нейронных сетей заключается в том, что в них нет связи между всеми нейронами соседних слоев, как это было в полносвязных сетях.

Здесь каждый нейрон последующего слоя "смотрит" на небольшой кусочек (3 на 3 или 5 на 5 пикселей) предыдущего слоя и обобщает с него информацию для передачи дальше.
Такая архитектура позволяет поэтапно выделять разные признаки на разных слоях. Первые слои при этом выделяют самые простые признаки, например:

- справа – белое, слева – черное
- по центру – яркое, по краям – тусклое
- линия под 45 градусов
- и т.д.

На иллюстрации ниже изображена одномерная свёрточная сеть, в которой не все нейроны связаны со всеми, а каждый нейрон последующего слоя "смотрит" на два нейрона предыдущего слоя (за исключением входного слоя слева).

При этом вы можете обратить внимание, что в правой части свёрточная сеть переходит в полносвязную, т.е. идет объединение двух архитектур. Для чего это нужно вы узнаете буквально несколькими предложениями ниже.

Выделение признаков происходит постепенно, слой за слоем, например: линия – овал – лапа, что отражено на трех иллюстрациях ниже.
Как уже упоминалось выше, выделение признаков происходит от низкоуровневых к высокоуровневым, после чего идет передача наиболее высокоуровневых признаков в полносвязную нейронную сеть, которая уже проводит окончательную классификацию изображений и выдает результат - допустим, кошка это или собака.
3. Рекуррентная нейронная сеть
Рекуррентные сети – это сети, где у нейронов есть память.

Такие нейроны не просто обрабатывают поданные им на вход вектора, - они также «помнят», что у них происходило в прошлые итерации обучения.
Проще говоря, у нейрона в рекуррентной сети есть связь с самим собой, и эта связь также хранится в матрице весов.

Рекуррентные сети используются для языковых задач, когда нужно помнить структуру предложения: где подлежащее, где сказуемое, где предлоги и т.д.
4. Генеративная нейронная сеть
В генеративной сети у нас две нейронных сети: одна генерирует образы, а вторая пытается отличить эти образы от некоторых эталонных.

Например, одна сеть-детектор смотрит на фентези-картинки, а другая пытается создавать новые картинки и говорит: «А попробуй отличить фентези-картинки от моих».

Сначала она генерирует картинки, которые сеть-детектор легко отличает, потому что они не очень похожи на фентези-картинки.

Но потом та сеть, которая создает картинки, обучается все больше, и сеть-детектор уже едва может отличить фентези-картинки, которые мы подали ей на вход сами от тех, что сгенерировала вторая сеть.
5. Архитектуры и типы задач
И сейчас, когда мы рассмотрели основные архитектуры, давайте вспомним типы задач, которые решаются нейронными сетями и сопоставим их с архитектурами, которые для подходят для их решения.

1. Распознавание образов производится средствами полносвязных, свёрточных, рекуррентных сетей.

2. Языковые задачи чаще всего решаются с помощью рекуррентных сетей с памятью, и иногда - с помощью одномерных свёрточных.

3. Обработка аудио и голоса - это полносвязные, одномерные свёрточные, иногда рекуррентные сети.

4. Задачи регрессии и прогнозирования временных рядов решаются с помощью полносвязных и рекуррентных сетей.

5. Наконец, машинное творчество - это генеративные свёрточные и генеративные полносвязные сети.

Таким образом, мы видим, что стандартные архитектуры пересекаются и используются в задачах разного типа.

Мы будем проходить все эти архитектуры: сначала полносвязные, потом свёрточные, рекуррентные и генеративные. После чего уже будем изучать сложные комбинации архитектур.
Как нейронная сеть встраивается в production?
Итак, мы подошли с вами к важному этапу - пониманию того, как нейронная сеть встраивается в Production. Все это вы сможете ощутить непосредственно на курсе или в Лаборатории, тем не менее, давайте кратко пройдемся по основным этапам.
1. Сбор данных и их предобработка
Первым делом мы, безусловно, собираем данные и занимаемся их предобработкой, чтобы передать их нейронной сети в нужном, подходящем виде.
2. Исследования и разработка нейронной сети
На этом шаге мы берем какую-нибудь архитектуру исходя из имеющейся задачи и получаем первичные результаты на обучающей и тестовой выборках.

Допустим, у нас задача распознавания кошек и собак. Значит берем сверточную сеть.

Попробуем простую сеть на 5 слоев по 20 нейронов в каждой, а в конце - 2 слоя полносвязной, и обучим.

В результате мы получаем какие-то базовые результаты, некую первичную точность. И уже после этого начинаем думать, как можно её повысить, например:

- создаем различные варианты архитектур (допустим, несколько десятков вариантов) и собираем статистику по ошибке и точности для каждого из вариантов
- пробуем разные активационные функции
- повышаем качество данных (избавление от зашумленных данных)
- и так далее…

В итоге, путем экспериментов и проверки своих предположений мы доводим качество работы сети до желаемого уровня.
3. Архитектура и веса загружаются в сервис
Следующим шагом мы уже начинаем интеграцию непосредственно в Production. На курсе у нас это также будет - например, это сервис на Python, или перенос каким-то другим способом.

Итак мы выкладываем в production, например, в сервис на Python, некоторые варианты архитектур и весов.
4. Production-часть обращается к сервису для распознавания
И, наконец, наша production-часть обращается к сервису и производит распознавание.

После вывода в production, разумеется, можно продолжить исследования и постепенно улучшать работу сети и подменять её по мере доработки - либо архитектуру, либо веса, либо и то, и другое.

Скажем, вы обучили сеть на относительно небольшом объеме данных, а через некоторое время вам пришло данных в 10 раз больше. Безусловно, стоит переобучить сеть на большем объеме данных и, вполне возможно, повысить качество её работы.

Для этого мы постоянно сравниваем результаты работы нашей сети по точности распознавания на тестовой выборке.

При этом важно постоянно помнить о том, что в области нейронных сетей даже близко нет детерминированных ответов - это всегда исследование и изобретение.
Библиотеки глубокого обучения, и как мы будем работать
Библиотеки глубокого обучения
Итак, мы дошли с вами до нашего главного инструмента в создании нейронных сетей - библиотек.

Что такое библиотека? Это набор функций, которые позволяют нам собрать и обучить нейронную сеть без необходимости глубоко понимать математическую базу, лежащую в основе этих процессов.

Совсем недавно библиотек еще не было, но сейчас уже есть достаточно хороший выбор, существенно облегчающий жизнь разработчика и экономящий его время.

Мы не будем останавливаться на каждой библиотеке отдельно - это, скорее, мини-обзор существующих решений, чтобы вы могли в целом в них ориентироваться.

Так, на настоящее время наиболее известными являются следующие библиотеки:

  • TensorFlow (Google)
  • CNTK (Microsoft)
  • Theano (Монреальский институт алгоритмов обучения (MILA))
  • Pytorch (Facebook)
  • и так далее
В центре иллюстрации находится библиотека Keras - её разработчиком также является Google, и именно с ней мы будем больше всего работать.

Мы также немного затронем TensorFlow и Pytorch, но уже ближе к окончанию обучения.

В иерархии это выглядит следующим образом, начиная от самых низкоуровневых инструментов:
  • Сама видеокарта (GPU)

  • CUDA (программно-аппаратная архитектура параллельных вычислений, которая позволяет существенно увеличить вычислительную производительность благодаря использованию графических процессоров фирмы Nvidia)

  • cuDNN (библиотека, содержащая оптимизированные для GPU реализации сверточных и рекуррентных сетей, различных функций активации, алгоритма обратного распространения ошибки и т.п., что позволяет обучать нейронные сети на GPU в несколько раз быстрее, чем просто CUDA)

  • TensorFlow, CNTK, Theano (надстройки над cuDNN)

Keras же, в свою очередь, использует в качестве бэкенда TensorFlow и некоторые другие библиотеками, позволяя нам пользоваться уже готовым кодом, написанными именно для создания нейронных сетей.

Еще один важный момент, который нужно отметить - это вопрос о том, как со всем этим работает Python. Многие говорят, что он работает медленно.

Да, это так, но Keras генерирует не код Python, Keras генерирует код С++, и именно он уже используется непосредственно для работы нейронной сети, поэтому все работает быстро.
Как мы будем работать
Теперь несколько слов о том, как мы будем работать. Писать код мы будем в сервисе Google Colaboratory.

В облаке у них установлен интерпретатор Python, различные библиотеки машинного обучения, плюс к этому, нам выделяются вычислительные ресурсы (GPU Tesla K80), которые можно использовать для обучения нейронных сетей.
Наш учебный процесс будет построен именно вокруг Google Colaboratory (демонстрации кода, домашние задания и т.д.), и в целом это очень удобно, однако, если вы хотите, то можете работать и в своей, привычной вам среде.

Запускать Google Colaboratory рекомендуется под Google Chrome, и при первой попытке открыть ноутбук (так называется любой документ в Google Colaboratory) вам будет предложено установить в браузер приложение Colaboratory, чтобы в будущем оно автоматически "подхватывало" файлы такого типа.

Теперь, после установки Colaboratory мы можем перейти уже непосредственно к практической части.
Как написать нейронную
сеть на Python?
Пишем код для распознавания рукописных цифр
Ссылка на ноутбук Google Colaboratory, взятый за основу для примеров кода ниже: https://colab.research.google.com/drive/1ONwmWhL9-9sQjRlwz57NgJ2uIK71zOHA

Итак, мы переходим с вами к практической части, чтобы закрепить то, о чем мы говорили выше и разберемся с тем, как распознавать рукописные цифры из набора MNIST.
Буквально пару слов о том, что такое MNIST. Это специальный набор данных, в котором собрано большое количество изображений рукописных цифр от 0 до 9.

Ранее она активно использовалась почтой США при распознавании цифр почтовых индексов, а сейчас она очень часто применяется именно в демонстрационных целях, чтобы показать, как работают несложные нейронные сети.
Интерфейс Google Colaboratory
Первое, что нам нужно сделать - это немного освоиться с интерфейсом Google Colaboratory.

Первым делом необходимо подключиться к вычислительным ресурсам, которые нам предоставляет Google. Для этого в верхней правой части окна нажмите на Connect - connect to hosted runtime.
Дожидаемся подключения и видим примерно такую картину:
Это означает, что все прошло успешно и можно двигаться дальше.

Следующим шагом мы идем в верхнее меню и выбираем Runtime - Change runtime type
В открывшемся окне настроек ноутбука выбираем Python 3, а в качестве ускорителя указываем GPU, т.е. графическую карту и нажимаем Save.
И, наконец, последний момент. Если мы работаем с уже готовым ноутбуком и хотим иметь возможность его править, нам нужно сохранить себе его копию, поэтому выбираем в верхнем меню «File – Save a copy to Drive…»
В результате этого действия копия этого файла сохранится на ваш Google Drive и автоматически откроется в соседней вкладке.
Пишем код для распознавания
С предварительными приготовлениями мы закончили и теперь можем переходить непосредственно к коду.

Сразу обращаем ваше внимание на то, что во многие вещи мы не будем погружаться очень глубоко, но будем заострять внимание на ключевых моментах.

Первым делом подключаем необходимые библиотеки:
В первой строке мы импортируем предустановленный датасет MNIST с изображениями рукописных цифр, которые мы будем распознавать.

Затем мы подключаем библиотеки Sequential и Dense т.к. работаем с полносвязной сетью прямого распространения.

Наконец, мы импортируем дополнительные библиотеки, позволяющие нам работать с данными (NumPy, Matplotlib и др.).

Сразу обратите внимание на модульную структуру ноутбука, благодаря которой вы можете в любом порядке чередовать блоки кода и текстовые поля.

Для того, чтобы добавить новую ячейку кода, текстовое поле или поменять порядок их следования воспользуйтесь, кнопками CODE, TEXT и CELL прямо под основным меню.
Для того, чтобы добавить комментарий непосредственно к ячейке, сослаться на нее, добавить форму или удалить её, нажмите на три точки в верхней правой части любой ячейки и увидите соответствующее меню.
Ну и, наконец, для запуска фрагмента кода нам нужно просто нажать на значок play слева вверху от кода. Он появляется при выделении блока с кодом, либо при наведении мышки на пустые квадратные скобки, если блок не выделен.

Следующим шагом с помощью функции load_data мы подгружаем данные, необходимые для обучения сети, где x_train_org и y_train_org – данные обучающей выборки, а x_test_org и y_test_org – данные тестовой выборки.

Их названий выборок понятно, что обучающую выборку мы используем для того, чтобы обучить сеть, в то время как тестовая используется для того, чтобы проверить, насколько качественно произошло это обучение.

Смысл тестовой выборки в том, чтобы проверить, насколько точно отработает наша сеть с данными, с которыми она не сталкивалась ранее. Именно это является самой важной метрикой оценки сети.
В x_train_org находятся сами изображения цифр, на которых обучается сеть, а y_train_org – правильные ответы, какая именно цифра изображена на том или ином изображении.

Сразу важно отметить, что формат представления правильных ответов на выходе из сети - one hot encoding. Это одномерный массив (вектор), хранящий 10 цифр – 0 или 1. При этом положение единицы в этом векторе и говорит нам о верном ответе.

Например, если цифра на картинке изображен 0, то вектор будет выглядеть как в первой строке на картинке ниже.

Если на изображении цифра 2, то единица в векторе будет стоять в 3 позиции (как в строке 2).

Если же на изображении цифра 9, то единица в векторе будет стоять в последней, десятой позиции.

Это объясняется тем, что нумерация в массивах по умолчанию начинается с нуля.
Для проверки, корректно ли загрузились данные, мы можем произвольно указать номер элемента массива с цифрами и посмотреть его содержимое:
После запуска этого кода мы увидим цифру 3.
Далее мы производим преобразование размерности данных в обучающем наборе картинок – это необходимо для корректной работы с ними в дальнейшем.
Изначально на вход сети в обучающей выборке подается 60 тыс. изображений размером 28 на 28 пикселей. В тестовой выборке таких изображений 10 тыс. штук.

Наша задача - привести их к одномерному массиву (вектору), размерность которого будет не 28 на 28, а 1 на 784, что мы и делаем в коде выше.

Следующий наш шаг – это так называемая нормализация данных, их "выравнивание" с целью привести их значения к диапазону от 0 до 1.

Дело в том, что до нормализации изображение каждой рукописной цифры (все они представлены в градациях серого) представлено числами от 0 до 255, где 0 представляет собой чёрный цвет, а 255 — белый).

Однако для эффективной работы сети нам необходимо привести их к другому диапазону, что мы и делаем, разделив каждое значение на 255.
Теперь давайте убедимся в том, что в массиве ответов находятся верные ответы.

Для этого мы можем запустить код ниже и убедиться, что в указанном нами выше элементе массива 157 действительно хранится ответ, что это цифра 3:
Следующий шаг – это преобразование массива правильных ответов в формат one hot encoding, про который мы уже упоминали выше.
Производит это преобразование функция to_categorical, которая трансформирует цифры от нуля до девяти в вектор из десяти цифр, в результате чего наш правильный ответ 3 будет теперь выводиться в ином виде:
Единица в четвертой позиции этого массива как раз обозначает цифру 3.
Создание и обучение
нейронной сети

На этом сбор данных и их простая предобработка завершены. Дальше нам нужно будет создать нейронную сеть и задать её архитектуру.

В нашем случае мы создадим последовательную сеть прямого распространения, пример которой мы рассматривали самым первым, когда говорили про типы архитектур.
Далее мы указываем слои, которые будут использоваться в данной сети, создаем её архитектуру:
Мы добавляем в качестве входного полносвязный слой из 800 нейронов, на вход каждого из которых приходят все 784 значения интенсивности пикселов (это размерность вектора, в который мы преобразовали исходные квадратные картинки) и используем активационную функцию ReLU.
В данном случае количество нейронов (800) уже подобрано эмпирически. При таком количестве нейронная сеть обучается лучше всего (безусловно, на старте своих исследований мы можем пробовать самые разные варианты, постепенно приходя к оптимальному).

В качестве выходного слоя у нас будет полносвязный слой из 10 нейронов – по количеству рукописных цифр, которые мы распознаём.

И наконец, функция softmax будет преобразовывать вектор из 10 значений в другой вектор, в котором каждая координата представлена вещественным числом в интервале [0,1] и сумма этих координат равна 1.

Эта функция применяется в машинном обучении для задач классификации, когда количество классов больше двух, при этом полученные координаты трактуются как вероятности того, что объект принадлежит к определенному классу.

После этого мы компилируем сеть и выходим на экран ее архитектуру.
Для обработки ошибок мы используем функцию categorical_crossentropy - её лучше использовать, когда у нас на выходе происходит классификация объектов, а диапазон значений составляет от 0 до 1.

В качестве оптимизатора используем adam, который похож по своей сути на метод обратного распространения ошибки, но с некоторой инерцией, а метрикой оценки качества обучения сети у нас служит точность – accuracy.

После этого мы запускаем обучение сети с помощью метода fit:
В качестве параметров мы передаем ему данные обучающей выборки – сами картинки и правильные ответы.

Также мы устанавливаем значения для:

  • batch_size=200 - количество картинок, с которыми идет работа в пределах одной итерации до изменения весов,
  • epochs=20 - количество повторений циклов обучения для всей выборки из 60 тыс. картинок,
  • verbose=1 - определение того, какой объем служебной информации о процессе обучения мы увидим (см. картинку ниже)

На скриншоте мы можем видеть, как последовательно сменяются эпохи обучения, продолжительностью по 2 с лишним секунды, количество обработанных изображений (везде по 60 тыс.), а также значения ошибки (loss) и точности распознавания изображений (acc) по итогам каждой эпохи.
Анализ результатов обучения и распознавание данных из тестового набора
Мы видим, что значение ошибки по итогам 20 эпох составило 0,0041, а точность - 0,9987, вплотную приблизившись к 100%.
Обратите внимание, что batch_size и количество эпох мы подбираем экспериментально в зависимости от текущей задачи, архитектуры сети и входных данных.

Когда наша сеть обучится, мы можем сохранить её себе на компьютер с помощью метода save:
Сначала мы записываем сеть в файл, затем можем проверить, что он сохранился, после чего сохраняем файл на компьютер с помощью метода download.

Ну что ж, теперь настало время проверить, как наша сеть распознает рукописные цифры, которые она еще не видела. Для этого нам понадобится тестовая выборка, которая, наряду с обучающей, также входит в датасет MNIST.

Для начала выберем произвольную цифру из набора тестовых данных и выведем её на экран:
Увидев, какую цифру нам должна распознать нейронная сеть, подготовимся к ее распознаванию через изменение размерности изображения и его нормализацию:
После чего запускаем сам процесс распознавания с помощью метода predict и смотрим на полученный результат:
Мы видим результат в уже знакомом нам формате и понимаем, что цифра 2 была распознана нейронной сетью верно.

Если мы хотим привести её к обычному виду, мы можем вывести на экран итоговый ответ в более понятном виде благодаря использованию функции argmax, преобразующей наибольшее значение (в нашем случае единицу) в искомое число, исходя из его позиции в векторе.
В первом случае мы распечатали результат работы метода predict и получили значение 2.

Во втором блоке кода мы напрямую распечатали искомый элемент из массива y_test_org по его индексу, получив значение 2. Таким образом, мы делаем вывод, что сеть распознала данное изображение верно.
Как проводить исследование дальше
Теперь, когда мы получили некие первичные результаты, мы можем продолжить процесс исследования, меняя различные параметры нашей нейронной сети.

Например, мы можем поменять количество нейронов во входном слое и уменьшить их количество с 800, например, до 10.

Для того, чтобы запустить сеть обучаться повторно после внесенных изменений с нуля, нам необходимо заново пересобрать модель, запустить код с измененными параметрами сети и снова её скомпилировать (в противном случае сеть будет дообучаться, что требуется далеко не всегда).

Для этого мы просто заново нажимаем на play последовательно во всех трех блоках кода (см. ниже).

В результате этих действий вы увидите, что исходные данные изменились, и сеть теперь имеет 2 слоя по 10 нейронов, вместо 800 и 10, которые были ранее.
После этого мы можем запустить сеть обучаться повторно и получим иные результаты. Например:
Здесь мы видим, что за те же 20 эпох сеть смогла достичь точности 93,93%, что значительно ниже, чем в предыдущем случае.

Продолжив исследование дальше, мы можем добавить в архитектуру сети еще один слой, допустим также из 10 нейронов и вставить его между уже имеющимися слоями. Таким образом мы создадим скрытый слой и потенциально можем улучшить качество работы сети:
Мы добавили еще один слой из 10 нейронов, который будет связан с предыдущим слоем также из 10 нейронов. Поэтому значение input_dim мы установили равным 10 (это опционально, нейронная сеть сработает корректно и без специального указания этого числа).

Теперь по итогам обучения сети мы приходим к следующим значениям:
Мы видим точность в 93,95%, т.е. практически идентичную той, что была в предыдущем варианте сети (93,93%), поэтому можем сделать вывод, что это изменение архитектуры практически не повлияло на качество распознавания.

И, наконец, давайте проведем еще один эксперимент, сделав так, чтобы все 784 значения приходили на один единственный нейрон входного слоя:
Запускаем обучение и смотрим на результат.
Как мы видим, даже при одном нейроне в скрытом слое сеть достигла точности почти в 38%. Понятно, что с таким результатом она едва ли найдет практическое применение, однако мы делаем это просто для понимания того, как могут разниться результаты при изменении архитектуры.

Итак, завершая разбор кода, следует сделать важную оговорку: то, что мы смотрим точность на обучающей выборке – это просто пример для понимания того, как это работает.

В действительности, качество работы сети нужно замерять исключительно на тестовой выборке с данными, с которыми нейронная сеть еще не сталкивалась ранее.

И теперь, когда мы немного поэкспериментировали, давайте подведем небольшой итог и посмотрим, как подойти к проведению экспериментов с нейронными сетями системно, чтобы получать действительно статистически значимые результаты.

Итак, мы берем одну модель сети, и в цикле формируем из имеющихся данных 100 разных обучающих и тестовых выборок в пропорции 80% - обучающая выборка, и 20% - тестовая.

Далее на всех этих данных мы проводим 100 обучений нейронной сети со случайной точки (каждый раз сеть стартует со случайными весами) и получаем некую ошибку на тестовой выборке - среднюю за эти 100 обучений на данной конкретной архитектуре (но с разными комбинациями обучающей и тестовой выборок).

Потом берется другая архитектура и делается то же самое. Таким образом мы можем проверить, например несколько десятков вариантов архитектур по 100 обучений на каждой, в результате чего получим статистически значимые результаты своих экспериментов и сможем выбрать самую точную сеть.

Ну что ж, на этом мы завершаем данный обзор и надеемся, что он помог вам лучше понять как работают нейронные сети, и как можно быстро написать свою первую нейронную сеть на Python.
Если вы хотите освоить написание нейронных сетей на Python, ознакомьтесь с подробностями о нашем курсе
«Нейронные сети на Python»

Также вы можете оставить заявку в форме ниже, и мы обязательно с вами свяжемся и ответим на вопросы.

КУРС
«НЕЙРОННЫЕ СЕТИ НА PYTHON»

6 месяцев / 26 занятий / диплом
старт 24 ноября / стоимость от 24.900 рублей



До 15 октября
2 бонусных курса по Python и математике

Нажимая кнопку, я даю согласие на обработку персональных данных и соглашаюсь c политикой конфиденциальности и договором оферты.