1 / 59

Методы обработки и распознавания изображений

Методы обработки и распознавания изображений. Раздел 4 Лекция 7. Методы распознавания изображений с использованием искусственных нейронных сетей Лектор – проф. Тропченко А.Ю. Схема процесса распознавания изображений. Цели и задачи работы. Схема процесса поиска при распознавания изображений.

zenia
Download Presentation

Методы обработки и распознавания изображений

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Методы обработки и распознавания изображений Раздел 4 Лекция 7. Методы распознавания изображений с использованием искусственных нейронных сетей Лектор – проф. Тропченко А.Ю.

  2. Схема процесса распознавания изображений Цели и задачи работы

  3. Схема процесса поиска при распознавания изображений Цели и задачи работы

  4. Алгоритм ввода данных в систему автоматического распознавания изображений Цели и задачи работы

  5. Основные задачи, решаемые с помощью нейронной сети Цели и задачи работы

  6. Строение биологического нейрона Цели и задачи работы

  7. Кибернетическая модель нейрона Цели и задачи работы

  8. Кибернетическая модель нейрона (математическое описание) Цели и задачи работы Информация, поступающая на вход нейрона, суммируется с учетом весовых коэффициентов сигналов: где w0 – сдвиг (порог, смещение) нейрона Сдвиг обычно интерпретируется как связь,  исходящая от элемента, активность которого всегда равна 1.Для удобства входной вектор расширяется добавлением этого сигнала до х = (1,х0,...,xn) и порог w0 вносится под знак суммы:

  9. Кибернетическая модель нейрона (математическое описание) Цели и задачи работы Пороговая функция пропускает информацию, если алгебраическая сумма входных сигналов превышает некоторую постоянную величину Р*: Определенным компромиссом между линейной и ступенчатой функциями является сигмоидальная функция активации : Y = 1/(1+exp(-kP))

  10. Функции переноса искусственных нейронов Цели и задачи работы а) линейная;   б) ступенчатая;  в) сигмоидальная.

  11. Архитектура искусственных нейронных сетей Цели и задачи работы Персептрон Розенблатта.

  12. Архитектура искусственных нейронных сетей Цели и задачи работы Персептрон Розенблатта. Число входов сети определяет размерность пространства, из которого выбираются входные данные: для двух признаков пространство оказывается двумерным, для трех – трехмерным, а для m признаков –m-мерным. Если прямая или гиперплоскость в пространстве входных данных может разделить все образцы на соответствующие им классы, то проблема является линейной, в противном случае – нелинейной. На рисунке показаны множества точек на плоскости а) граница линейная, б) нелинейная.

  13. Схема многослойного персептрона Цели и задачи работы Для решения нелинейных проблем предназначены модели многослойных персептронов (MLP), способные строить ломаную границу между распознаваемыми образами.

  14. Классификация нейронных сетей Цели и задачи работы

  15. Многослойные нейронные сети Цели и задачи работы Архитектура многослойной нейронной сети и её применение для распознавания изображений. Нейрон с максимальной активностью (здесь первый) указывает принадлежность к распознанному классу

  16. Обучение многослойной нейронной сети Цели и задачи работы Обучаются МНС при помощи алгоритма обратного распространения ошибки, являющегося разновидностью градиентного спуска в пространстве весов с целью минимизации суммарной ошибки сети: где tj – эталонное значение выходов сети , Одними из главных проблем МНС являются следующие: 1. Проблема локального минимума, которая заключается в том, что при итерационном спуске может наступить момент, когда решение заходит в локальный минимум, из которого вследствие малой величины шага не может выбраться. 2. Выбор архитектуры сети (количество нейронов, слоёв, характер связей). С этим также связана проблема переобучения, которая заключается в том, что сеть с избыточным числом элементов теряет обобщающую способность и хорошо работает только на тренировочной выборке. 3. Выбор шага (скорости) обучения, связанная с тем, что при малом шаге время обучения будет большим и сеть может зависать в локальных минимумах, а при больших шагах возможно расхождение процесса обучения или паралич сети.

  17. Применение МНС для решения задач распознавания (по коэффициентам ДКП) Цели и задачи работы ,

  18. Применение МНС для решения задач распознавания (По коэффициентам ДКП) Цели и задачи работы • Использовались первые 25-35 коэффициентов ДКП изображения размером 92х112 пикселов (из10304, т.е. около 0.2% от общего количества коэффициентов) и двухслойная нейронная сеть. Коэффициенты выбирались двумя способами. В первом способе брались первые коэффициенты из левого верхнего угла матрицы коэффициентов, ограниченного диагональю. Во втором способе выбирались коэффициенты, которые давали наименьшую погрешность реконструкции изображения. Разница в точности при этом была неразличима. ,

  19. Применение МНС для решения задач распознавания по методу главных компонент Цели и задачи работы • Суть метода главных компонент заключается в получении максимально декореллированных коэффициентов, характеризующих входные образы. Такие коэффициенты называются главными компонентами и используются для статистического сжатия и реконструкции изображений. При этом небольшое число коэффициентов используется для представления всего образа. Каждое изображение разлагается на линейную комбинацию собственных векторов. Для набора изображений лиц собственные векторы могут быть представлены в виде изображений, такие изображения похожи на лица и называются собственными лицами (eigenfaces). Сумма собственных векторов, умноженных на соответствующие им главные компоненты, представляет собой реконструкцию изображения. ,

  20. Применение МНС для решения задач распознавания по методу главных компонент Цели и задачи работы Собственные лица (eigenfaces) ,

  21. Архитектура рециркуляционной сети для извлечения главных компонент Цели и задачи работы • НС содним скрытым слоем, содержащим m нейронов, число которых много меньше, чем размерность изображения (m<<n) и обученная по методу обратного распространения ошибки восстанавливать на выходе изображение, поданное на вход, • формирует на выходе скрытых нейронов коэффициенты первых m главных компонент, • которые и используются для сравнения изображений. Такая НС называется рециркуляционной. ,

  22. Достоинства рециркуляционной сети для извлечения главных компонент Цели и задачи работы Преимущества применения РНС для извлечения главных компонент перед решением матричных уравнений: алгоритм обучения РНС прост и универсален; нелинейная активационная функция позволяет точнее реконструировать изображение; при решении матричных уравнений возможны проблемы, если объекты похожи друг на друга, РНС лишена такого недостатка; не требуется вычислять все собственные векторы. Таким образом, время обучения сети линейно зависит от количества извлекаемых главных компонент; для предварительных экспериментов можно использовать меньшее число обучающих циклов, что снижает время обучения. ,

  23. Достоинства рециркуляционной сети для извлечения главных компонент Цели и задачи работы Преимущества применения РНС для извлечения главных компонент перед решением матричных уравнений: алгоритм обучения РНС прост и универсален; нелинейная активационная функция позволяет точнее реконструировать изображение; при решении матричных уравнений возможны проблемы, если объекты похожи друг на друга, РНС лишена такого недостатка; не требуется вычислять все собственные векторы. Таким образом, время обучения сети линейно зависит от количества извлекаемых главных компонент; для предварительных экспериментов можно использовать меньшее число обучающих циклов, что снижает время обучения. ,

  24. Методы обработки и распознавания изображений Лекция 8. Методы распознавания изображений с использованием искусственных нейронных сетей Лектор – проф. Тропченко А.Ю.

  25. Нейронные сети высокого порядка. Моментные НС Цели и задачи работы Нейронные сети высокого порядка (НСВП, по-английски – High Order Neural Network) отличаются от МНС тем, что у них только один слой, но на входы нейронов поступают так же термы высокого порядка, являющиеся произведением двух или более компонент входного вектора, например для сетей второго порядка:

  26. Радиально-базисные нейронные сети Цели и задачи работы Радиально-базисные нейронные сети (РБНС, по-английски – Radial Basis Function Network, RBF) состоят из двух слоёв, Первый слой имеет радиально-базисную активационную функцию: S определяется как расстояние между входным и весовым вектором:

  27. Топологически упорядоченное преобразование пространства Цели и задачи работы Векторные квантователи и самоорганизующиеся карты Кохонена (Self-Organizing Maps, SOM) используются для сжатия данных и извлечения ключевых характеристик. Так же они служат основой для радиально-базисных сетей и когнитронов. Активным считается нейрон, имеющий наибольшее выходное значение: Веса такого нейрона изменяются в сторону соответствия входному вектору, например Правило модификации весов Вводится функция соседства h, убывающая с расстоянием между нейронами

  28. Пример применения карт Кохонена для уменьшения размеров участков изображений Цели и задачи работы Слева – топографическая карта участков изображений до обучения, справа – после обучения. Отклики нейронной сети. 1 – наиболее вероятное положение глаза , 2 – менее вероятные места расположения (шумы)

  29. Структура когнитрона Цели и задачи работы Главные отличия когнитрона - каждый нейрон связан только с локальной областью предыдущего слоя, и такие области перекрываются друг с другом. Слоёв в когнитроне больше, чем в сетях других типов. Таким образом достигается иерархическая организация, когда на высших слоях когнитрон реагирует на более абстрактные образы, меньше реагирует на их смещение и искажение. Обучается когнитрон конкурентным обучением (без учителя).

  30. Неокогнитрон Цели и задачи работы Главное отличие неокогнитрона от когнитрона – двумерная организация локальных участков и плоскостная иерархическая структура

  31. Последовательность использования неокогнитрона • Сравнительно большие вычислительные затраты • Выполняется редко • Может не включатся в функциональность конечной • реализации Первоначальное обучение неокогнитрона Последующее использование неокогнитрона в качестве распознавателя • Вычислительные затраты невелики • Распознаватель может включатся в иные • алгоритмы распознавания

  32. Затраты ресурсов компьютера на этапах использования неокогнитрона

  33. Подготовка входного набора изображений Послойное обучение неокогнитрона (без учителя) Обучение последнего (классифицирующего) слоя неокогнитрона (с учителем) Проверка неокогнитрона на всём обучающем множестве Достигнута заданная точность? нет да Формирование компактного представления конфигурации нейросети и сохранение параметров в файле Последовательность обучения неокогнитрона

  34. Расчёт откликов нейронов в неокогнитроне Отклик нейронов первого слоя (выделение контраста) Отклик нейронов S-слоёв Отклик тормозящих нейронов

  35. Структура неокогнитрона Связи между нейронами соседних уровней Четырёхуровневая структура неокогнитрона (из статьи К. Фукушимы)

  36. Инвариантность неокогнитрона.Дополнительные символы

  37. Инвариантность неокогнитрона.Зашумление

  38. Инвариантность неокогнитрона.Искажение

  39. Инвариантность неокогнитрона.Смещение

  40. Сверточная нейронная сеть Цели и задачи работы Архитектура свёрточной НС основывается на принципах архитектуры неокогнитрона, упрощённого и дополненного обучением алгоритмом обратного распространения ошибки.

  41. Схема системы распознавания личности человека по изображению его лица Цели и задачи работы

  42. Схема системы распознавания личности человека по изображению его лица Цели и задачи работы Первый метод – создание вектора данных из набора отсчетов в локальном окне изображения. Второй метод - создание локального шаблона , т.е. выходного вектора как разности яркости между центральным и всеми другими пикселями в квадратном окне.

  43. Цели и задачи работы Архитектура системы распознавания личности по портрету

  44. Цели и задачи работы Применение ИНС для классификации по заранее извлеченным признакам Метод собственных фильтров для распознавания лица Задача анализа главных компонент – выбрать базис пространства u=(u1, u2, …, uk) так, чтобы вариация (дисперсия) проекции была минимальной. Минимум этой функции достигается решением задачи на собственные значения Ru =λu

  45. Цели и задачи работы Метод сравнения эластичных графов на основе вейвлетов Габора В результате преобразования Габора спектральная плоскость разбивается на m частотных и n ориентационных диапазонов: ĝij(ω)= exp(-½(ω-ωij)t RjΣij-l (ω-ωij))… ωij- вейвлет, соответствующий (i,j) ориентации и масштабу, где 1≤i≤m, 1≤j≤n, Rj – матрица поворота, а Σij – диагональная матрица

  46. Цели и задачи работы Метод сравнения эластичных графов на основе вейвлетов Габора Фильтры Габора и результат их применения - выделенныелокальные признаки изображения

  47. Цели и задачи работы Методы распознавания на основе Скрытых Марковских моделей Схема сегментации изображения на основе скрытой Марковской модели и Структурные признаки изображения, выделенные скрытой Марковской моделью • Процесс распознавания в Скрытой Марковской Модели: • Системе подается на вход некоторое изображение; • Система строит из него входную последовательность; • Система строит вероятности построения такой входной последовательности • всеми моделями • Выдается наиболее вероятный ответ и вероятность соответствия.

  48. Цели и задачи работы Программные средства моделирования нейросетей

  49. Цели и задачи работы Программные средства моделирования нейросетей

  50. Цели и задачи работы Программные средства моделирования нейросетей

More Related