Непараметрические методы распознавания сигнала

Материал из Национальной библиотеки им. Н. Э. Баумана
Последнее изменение этой страницы: 17:41, 24 марта 2015.

На предыдущих семинарах рассматривались параметрические методы распознавания, т.е. по выборке значений исследуемого сигнала определялись конкретные параметры условных распределений (так, были рассмотрены случаи нормального и равномерного распределений плотностей вероятностей сигналов). Однако, противник может снимать информацию по всем каналам утечки сразу или только по одному каналу утечки, но параметров передаваемой информации. В последнем случае ему будет необходимо построить следующие зависимости для определения решающего правила:

Рассмотрим случай только двух параметров. Пусть сигналу соответствует вероятность распознавания , а сигналу вероятность распознавания

Возможны 3 вида связи :

  1. аналитическая: ;
  2. отсутствие связи (статистически независимы);
  3. статистическая связь.

Положим можно не рассматривать,т.к. не дает дополнительной информации.

статистически независимы. Тогда имеется возможность управлять подбором независимых параметров так, чтобы вероятность распознавания приняла максимальное значение.

Если распределены по нормальному закону, то мерой статистической связности является коэффициент корреляции.

В общем случае задача построения зависимостей произвольного количества параметров может оказаться крайне трудоемкой или вовсе не осуществимой. Поэтому обычно применяются непараметрические методы распознавания, как более оптимальные с точки зрения вычислений. Ниже будут рассмотрены только три наиболее часто встречающихся непараметрических метода распознавания.

Основа непараметрических методов распознавания:

TemplateExampleIcon.svg Пример Постулат
Геометрическая близость сигналов в пространстве их признаков свидетельствует об их сходстве.


Рис. 1 поясняет содержание постулата. Также общим для всех методов является обучение, т.е. определение законов распределения для случаев приема сигналов, равных 0 и 1.

Рис. 1

Метод "ближайшего соседа"[1]

Выбирается один или "соседей" - тестовых сигналов, значения которых измеряют и графически отмечают в точках, соответствующих точкам их обнаружения. При получении нового сигнала определяют, к какому классу он располагается ближе. Для однозначного распознавания сигналов следует число выбирать нечетным.

Достоинства: простота метода, отсутствие необходимости выполнять построение распределений функций вероятности.

Недостатки: хранение в памяти всех принятых сигналов (чем больше зафиксировано значений сигналов, тем точнее будет получен ответ).

Метод потенциальных функций

Основа - физическое понятие "потенциал точечного заряда":

В этом случае полагаем: При получении нового сигнала вычисляется его потенциал в поле принятых ранее сигналов:

  • если принят сигнал, равный 1;
  • если принят сигнал, равный 0;
  • случай невозможен с точки зрения теории вероятностей, т.к. - непрерывная случайная величина).

Достоинства: в памяти надо хранить не все сигналы, а ближайшие к гиперплоскости (соответствует значению потенциала - см. Рис.1).

Таким образом, вследствие сокращения объема используемой памяти данный метод оказывается выгоднее предыдущего.

Линейный дискриминатор Фишера

Этот метод предлагает переход от n-мерного пространства к одномерному: подобирается ось, на которую проецируется исходная выборка (см. Рис.1). Направление оси определяется из соотношения сигнал/шум. Затем применяются рассмотренные ранее методы для одномерных случаев.

Для всех непараметрических методов распознавания встает задача группировки данных, если задаются только значения измеряемых величин (), но отсутствует информация о принадлежности каждого отдельного значения к какому-либо классу.

Примечания

  1. Влияет ли выбор метрики в методе "ближайшего соседа" на распознавание сигналов?