Skip to content
This repository has been archived by the owner on Mar 29, 2020. It is now read-only.

speech 2019dec

Anya Melnikova edited this page Dec 15, 2019 · 10 revisions

Текст выступления на защите курсовой работы. Декабрь 2019

Отведённое время: 5 минут (6 пунктов - на каждый чуть меньше минуты). ЕА просит сфокусироваться на том, что сделали мы.

Слайды к выступлению (Google Drive)

Вступление

  1. О предметной области (плитки Брайля) В конце позапрошлого века Луи Брайль дал возможность незрячим читать - изобрел рельефно-точечный шрифт,в котором каждая буква есть 6 точек. Как часть создания системы обучения азбуке Брайля мы решали задачу распознавания символа по его черно-белой фотографии.
  2. Задача формально (отображение R[N*M] (матрица пикселей) -> {1,...32} (метки классов - буквы)). Формально перед нами стоит задача классификации изображений на принадлежность классам (каждый класс - буква алфавита), что, в свою очередь, есть построение оператора отображения матрицы пикселей на множество меток классов.

Перцептрон

  1. Модель ((?) привести формулу)
  2. Показательный пример (классификация в два класса)
  3. Функция стоимости ((?) привести формулу). Вот на слайде проекция графика на двумерное пр-во параметров.

Градиентный спуск

Логистическая регрессия

Нейросеть

Нейронная сеть - это суперпозиция нескольких слоёв нейронов, как правило, сигмоидальных. Входами следующего слоя служат выходы предыдущего. У каждого нейрона есть вектор весов; удобно слой определять матрицей, где строка - транспонированный вектор весов одного нейрона. Тогда вектор входов следующего слоя - (формула).

На данный момент реализована демонстрационная версия системы. На слайде показана граница, сформированная на демо-данных, классификация в два класса. Нейросеть может формировать нелинейные границы; это плюс.

С другой стороны, в задаче обучения нейросети минимизируется невыпуклая функция стоимости (см. слайд - проекция графика на двумерное пространство), и есть опасность того, что градиентный спуск попадёт в неглубокий минимум; это минус.

Заключение

Построены три демонстрационные модели, способные обучаться двухклассовой классификации. Далее мы перейдём к мультиклассовой классификации, соберём данные (фотографии) и попробуем обучить наши алгоритмы.

На самом деле, приведённые алгоритмы могут быть улучшены множеством различных способов. Могут быть взяты и иные модели, например, K ближайших соседей или деревья решений. Машинное обучение - это как кулинария: есть множество способов приготовить "деликатес". Но мы их, скорее всего, ограничимся выбранными моделями, потому что чаще всего обучающая выборка важнее, чем сам алгоритм.

Clone this wiki locally