Skip to content

Latest commit

 

History

History
42 lines (25 loc) · 3 KB

task1.md

File metadata and controls

42 lines (25 loc) · 3 KB

Постановка задачи

Требуется решить задачу классификации рукописных цифр c использованием алгоритма kNN.

Датасет

MNIST: http://yann.lecun.com/exdb/mnist/

MINST в формате CSV: https://www.kaggle.com/oddrationale/mnist-in-csv

Ограничения

Реализация kNN классификатора дожна быть выполнена самостоятельно на языке Python. Можно использовать только встроенный функционал и базовые операции над векторами и матрицами из библиотеки Numpy.

Шаблон

task1_template

Рекомендации к выполнению задания

  1. Выполнить реализацию kNN классификатора. Раздел 2. kNN classifier implementation в шаблоне task1_template.ipynb.
  2. Доказать корректность реализации (сравнить с реализацией из scikit-learn). Раздел 3. Check correctness (compare with exist implementations) в шаблоне task1_template.ipynb.
  3. Использовать несколько метрик, сконструировать несколько признаков (к примеру, HOG, Projection Histograms (handcrafted features), deep network's features).
  4. Выполнить подбор гиперпараметров. Раздел 5. Find hyper-parameters в шаблоне task1_template.ipynb.
  5. Указать наилучшую конфигурацию и достигнутое качество на тестовом датасете. Раздел 6. Results в шаблоне task1_template.ipynb.

Критерий выполнения задания

  1. Выполнена реализация kNN, удовлетворяющая указанным требованиям, доказана корректность.
  2. Реализованный классификатор применен к решению задачи на датасете MNIST, получено качество на тестовом датасете.

При формировании оценки будут учитываться

  1. Достигнутое качество на тестовом датасете.
  2. Сложность и количество построенных признаков.

Сдача работы

  1. Необходимо отправить письмо с заголовком "Deep Learning - Task 1" на e-mail [email protected].
  2. К письму необходимо прекрепить ipynb (все внешние зависимости должны быть указаны в notebook'е) и pdf/html с решением задачи. Файлы должны называться ФамилияИмя.ipynb, ФамилияИмя.html, например: SidnevAlexey.ipynb.

Deadline: 23:59 8.10.2020