Статистика изображений

Метод группировки

Исследование статистики изображений всегда проводят применительно к достаточно узкому классу сюжетов (например, рукописные тексты на фототелеграфных бланках, портреты крупным планом и т. п.). В этих случаях удается выделить классы, которые можно при решении технических задач полагать статистически однородными.

Измерения, произведенные на телевизионных кадрах и кинокадрах, показали, что вероятности различных градаций яркости практически мало отличаются друг от друга (Kretzmer, 1952). Если разбить интервал яркостей, имеющихся в изображении, от минимальной Вмин до максимальной Вмакс на m одинаковых ступеней, равных

то можно считать вероятность каждой из них примерно равной рi =1/m. Энтропия, подсчитанная в этом первом (так называемом одномерном) приближении, которое мы обозначим G1, будет близка к log m,
       
Здесь нет преимущественных градаций, более вероятных «символов», как в обычном алфавите, где вероятность одних букв, например «а», «е», «и», во много раз превосходит вероятность других букв, например «э», «ш».

Учет статистических связей между элементами изображения может быть произведен двумя различными способами — методом группировки и методом предсказания.

При использовании метода группировки изображение разбивают на группы элементов, по v в каждой. Подсчитывают вероятности (точнее говоря, частоты), с которыми встречаются все возможные группы из v элементов. Если каждый из элементов может принимать любую из т градаций, возможно mv групп. Обозначим через Вi i-ю группу (i может принимать значения от 1 до mv), а через р (Bi) — вероятность появления такой группы. Тогда величину

можно рассматривать как v-e приближение к энтропии (на один элемент). Если v = l, т. е. группа состоит из одного элемента, мы возвращаемся к первому приближению (35). Чем больше v, тем лучше учитываются статистические связи между элементами, тем меньше величина Gv. Шеннон (Shannon a. Weaver, 1949) показал, что с возрастанием v величина Gi монотонно убывает, стремясь в пределе к истинному значению энтропии Н.

Можно пояснить метод группировки на примере. Снопа обратимся к изображению на рис. 31, а. Энтропия, подсчитанная в первом приближении, без учета статистических связей по распределению вероятностей градаций будет в соответствии с формулой (35)

поскольку вероятность белого рдел равна вероятности черного Рчерн. Рбел = Рчерн = 7г (мы по-прежнему считаем фрагмент изображения на рис. 31, а типовым и полагаем относительные частоты, с которыми встречаются различные градации яркости, равными соответствующим вероятностям). Разобьем теперь изображение на группы по v = 4 элемента, в виде квадратов. Всего может быть 24 = 16 таких групп (см. рис. 27). Обозначим их В1, В2 ... B16, что должно соответствовать 0, 1 ... 15 на рис. 27.

ТАБЛИЦА 4

Группа Обозначение Вероятность Группа Обозначение Вероятность
00
00
B1 0.43 10
00
B9 0.01
00
01
B2 0.01 10
01
B10 0.01
00
10
B3 0.01 10
10
B11 0.01
00
11
B4 0.01 10
11
B12 0.01
01
00
B5 0.01 11
00
B13 0.01
01
01
B6 0.01 11
01
B14 0.01
01
10
B7 0.01 11
10
B15 0.01
01
11
B8 0.01 11
11
B16 0.43

В то время как черные и белые элементы на рис. 31, а равновероятны, некоторые из этих групп встречаются гораздо чаще, чем другие. Упрощенно заменяя частоты вероятностями, получим для распределения вероятностей таблицу 4, * где в первой колонке 1 соответствует черным, а 0 — белым элементам в группах на рис. 27. Подсчитаем четвертое приближение к энтропии по формуле (36)
С4 = — 1,4 (0.43 log2 0.43 + 0.01 log2 0.01 + 0.01 log2 0.01 +... .. + 0.01 log2 0.01 + 0.43 log20.43)≈0.5.

Получилась величина, которая заметно меньше, чем первое приближение G1. Подсчитаем в этом приближении избыточность, подставляя вместо Н в формулу (34) приближенное значение G4. Так как в рассматриваемом случае Нмакс = 1, то R≈1—0.5. Следовательно, можно уменьшить информационную емкость, требующуюся в среднем для записи изображения рассматриваемого типа, по крайней мере на 50% по сравнению с обычным представлением изображения.

Метод группировки является, как показали исследования статистики изображений с помощью этого метода, недостаточно эффективным. Последовательно получаемые приближения G2, G3, G4 и так далее обычно медленно сходятся к своему пределу H. Причину этого легко понять. Метод группировки позволяет учесть статистические связи между соседними элементами внутри групп. Относительно малая вероятность переходов и мелких деталей сказывается в том, что группы с одинаковыми элементами (В1 и B16 в рассмотренном примере) встречаются значительно чаще, чем группы с большим числом переходов яркостей от элемента к элементу (например, В7, и В10). Однако статистические связи между соседними элементами, принадлежащими к разным группам, остаются неучтенными. Между тем при Малом числе элементов в группе эти связи могут быть столь же сильны, как и связи внутри группы. Вероятность изменения яркости при переходе от элемента одной группы к соседнему с ним элементу другой группы не должна отличаться от вероятности изменения яркости при переходе от одного элемента к соседнему с ним внутри группы.

Сообщение о яркости элемента данной группы будет содержать меньше информации, если прежде уже будет известна яркость соседнего с ним элемента другой группы.

Пока значение v невелико, большая часть элементов в группе непосредственно примыкает к элементам соседних групп, и то обстоятельство, что статистические связи между группами не учтены, сказывается особенно существенно. Например, при v=4, как в рассмотренном случае, каждый элемент в группе является граничным, и ряд соседних с ним элементов принадлежит соседним группам.

* Приведенные в таблице 4 значения вероятностей были подсчитаны по рис. 31, а в грубом приближении.