Skip to content
This repository has been archived by the owner on Mar 29, 2020. It is now read-only.

speech 2019dec

Valerii Zuev edited this page Dec 13, 2019 · 10 revisions

Текст выступления на защите курсовой работы. Декабрь 2019

Отведённое время: 5 минут. ЕА просит сфокусироваться на том, что сделали мы.

Слайды к выступлению (Google Drive)

Вступление

  1. О предметной области (плитки Брайля)
  2. Задача формально (отображение R[N*M] (матрица пикселей) -> {1,...32} (метки классов - буквы)).

Перцептрон

  1. Модель ((?) привести формулу)
  2. Показательный пример (классификация в два класса)
  3. Функция стоимости ((?) привести формулу). Вот на слайде проекция графика на двумерное пр-во параметров.

Градиентный спуск

Логистическая регрессия

Нейросеть

Нейронная сеть - это суперпозиция нескольких слоёв нейронов, как правило, сигмоидальных. Входами следующего слоя служат выходы предыдущего. У каждого нейрона есть вектор весов; удобно слой определять матрицей, где строка - транспонированный вектор весов одного нейрона. Тогда вектор входов следующего слоя - (формула).

На данный момент реализована демонстрационная версия системы. На слайде показана граница, сформированная на демо-данных, классификация в два класса.

В задаче обучения нейросети минимизируется функция стоимости (формула) (кросс-энтропия). Это невыпуклая функция (см. слайд), и есть опасность того, что градиентный спуск попадёт в неглубокий минимум. Один из способов решения проблемы - многократно случайным образом инициализировать веса, запустить каждый раз градиентный спуск и посмотреть, в каком случае функция стоимости минимальна.

Заключение

  1. Впереди - мультиклассовая классификация (для перцептрона и логистической регрессии - 1-vs-all)
  2. Можно ли использовать другие алгоритмы? Можно! Машинное обучение - это как кулинария: есть множество способов приготовить "деликатес".
Clone this wiki locally