1 / 35

Методы выбора оптимального набора информативных признаков для задач классификации текстов

Методы выбора оптимального набора информативных признаков для задач классификации текстов. Борисова Татьяна 3 курс ВМК МГУ. Для чего нужен выбор признаков?. Количество признаков может достигать 10 000 – 100 000

Download Presentation

Методы выбора оптимального набора информативных признаков для задач классификации текстов

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Методы выбора оптимального набора информативных признаков для задач классификации текстов Борисова Татьяна 3 курс ВМК МГУ

  2. Для чего нужен выбор признаков? • Количество признаков может достигать 10 000 – 100 000 • Это слишком много для многих алгоритмов обучения (нейронные сети, наивная байесовская модель и т.д.) – «проклятье размерности»

  3. Достоинства выбора признаков • Лучше работают алгоритмы обучения • Проще понять природу данных • Меньше размер хранилищ

  4. Методы выбора признаков • Filters (методы-фильтры) • Wrappers (методы-обертки) • Embedded (встроенные методы)

  5. Filters (методы-фильтры) • Этап препроцессинга • Не зависит от результата работы классификатора • Достоинства: • Вычислительно быстрые • Простая реализация • Хорошо масштабируются

  6. Независимое ранжирование признаков • Information gain (прирост информации) • Mutual information (взаимная информация) • Критерий хи-квадрат • Term strength («мощность признака») • mRMR (minimum redundancy-maximum relevance, минимальная избыточность-максимальная релевантность)

  7. Обозначения • – обучающая выборка: множество пар • = – k-й входной объект, • – число входных объектов • – выходные переменные (классы) • – классы, • – число признаков • – i-й признак • Предполагаются бинарные признаки

  8. Принцип работы • Вычисляем ранг каждого признака • Выкидываем признаки, для которых ранг меньше заданного значения порога • Значение порога можно подобрать на кросс-валидации(или путем выделения из тестовой выборки специального подмножестваи тестирования на нем различных значений порога)

  9. Information gain (прирост информации) Сколько бит информации необходимо, чтобы классифицировать объекты с использованием признака А без его использования? Берем разницу

  10. Mutual information (взаимная информация) Вначале посчитаем взаимную информацию признака и категории:

  11. Mutual information (взаимная информация) Обозначения: • A: = и = 1 • B: ≠ и = 1 • C: = и = 0 • D: ≠ и = 0

  12. Mutual information (взаимная информация) При введенных ранее обозначениях Теперь можно посчитать оценку для признака

  13. Mutual information (взаимная информация) Недостаток критерия взаимной информации Ранг редких признаков выше, чем ранг частых

  14. Критерий хи-квадрат

  15. Term strength («мощность признака») • Основан на кластеризации документов • Не использует информацию о классах , – «связанные» документы Для оценки связанности можно использовать косинусную меру

  16. mRMR(minimum redundancy-maximum relevance) • Не использует информацию о категориях • Может использовать взаимную информацию, критерий корреляции и т.д. • Показано, что этот метод приближает теоретически оптимальный maximum-dependency метод

  17. mRMR(minimum redundancy-maximum relevance) • Не использует информацию о категориях

  18. Методы выбора признаков • Filters (методы-фильтры) • Wrappers (методы-обертки) • Embedded (встроенные методы)

  19. Wrappers (методы-обертки) • Алгоритм обучения используется как «черный ящик» • Оценивается информативность конкретного подмножества признаков для алгоритма обучения

  20. Принцип работы • Выполняется поиск по пространству подмножеств исходного множества признаков • Для каждого шага поиска используется информация о качестве обучения на текущем подмножестве признаков

  21. Принцип работы – «вес» признака • Бинарный случай: • Непрерывный случай:

  22. Экспоненциальныеалгоритмы поиска • Сложность • Exhaustive search • Алгоритм ветвей и границ • FOCUS

  23. Последовательныеалгоритмы поиска • На каждом шаге выбираем одного последователя • Не можем идти «назад» • Сложность • Можно на каждом шаге рассматривать возможных последователей • Сложность в этом случае

  24. Последовательныеалгоритмы поиска • Прямой жадный алгоритм (forward selection) • Обратный жадный алгоритм (backward elimination) • Алгоритм восхождения на вершину(hill climbing)

  25. Рандомизированные алгоритмы поиска • Использование рандомизации для выхода из локальных минимумов • Anytime-алгоритмы

  26. Рандомизированные алгоритмы поиска • Симуляция отжига • Генетические алгоритмы

  27. Прямой и обратный жадный алгоритмы • Пример • прямой жадный алгоритм • обратный жадный алгоритм

  28. Прямой и обратный жадный алгоритмы 0.1 0.9 0.0 0.7 0.1 0.8 0.5 0.6 прямой жадный алгоритм обратный жадный алгоритм

  29. Методы выбора признаков • Filters (методы-фильтры) • Wrappers (методы-обертки) • Embedded (встроенные методы)

  30. Embedded (встроенные методы) Выбор признаков является одним из этапов алгоритма обучения Достоинства: • Наилучшим образом приспособлены для конкретной модели • Не нужно проводить кросс-валидацию или разбивать тренировочную выборку

  31. Embedded (встроенные методы) • Линейная регрессия • LASSO • SVM • SVM-RFE (Recursive Feature Elimination) • Полиномиальная логистическая регрессия • RMNL (Random Multinomallogit): основан на случайном лесе

  32. Методы построения признаков • PCA (Principal Component Analysis, метод главных компонент) • Кластеризация • Автокодировщик • Регуляризованный случайный лес (RRF) • Применяют также спектральные и волновые преобразования

  33. Пример работы

  34. Пример работы

  35. Спасибо за внимание!

More Related