3

Я читаю документ сегментации изображения, в котором проблема приближается, используя парадигму «разделение сигнала», идея о том, что сигнал (в данном случае изображение) состоит из нескольких сигналов (объектов на изображении), а также как шум, и задача состоит в том, чтобы разделить сигналы (сегментировать изображение).Что означает энтропия в этом контексте?

Выходной сигнал алгоритма представляет собой матрицу, S \in R^{MxT}, которая представляет сегментирование изображения на M компонентов. T - общее количество пикселей в изображении, s_{ij} - это значение исходного компонента (/ сигнала/объекта) i в пикселе j

В статье, которую я читаю, авторы хотели бы выбрать компонент m для m \in [1,M], который соответствует определенным критериям гладкости и энтропии. Но я не понимаю, что такое энтропия в этом случае.

Энтропия определяется следующим образом:

H(s_m) = - \sum_{n=1}^{256} p_n (s_m) \cdot log_2 (p_n (s_m)), m= 1,..., M

и они говорят, что «» {p_n(s_m)}_​{n=1}^{256} являются вероятности, связанные с бункерах гистограммы s_m «»

целевой компонент представляет собой опухоль и в документе говорится: «Ожидается, что связанный с опухолью компонент s_m с« почти »постоянными значениями будет иметь наименьшее значение энтропии».

Но что означает низкая энтропия в этом контексте? Что представляет собой каждый бит? Как выглядит вектор с низкой энтропией?

link to paper

+0

Возможно, это была идея предоставить ссылку на бумагу. –

+0

@MarkSetchell Done – user7154564

ответ

1

Они говорят о Shannon's энтропию. Один из способов просмотра энтропии - связать ее с неопределенностью относительно события, связанного с данным распределением вероятности. Энтропия может служить мерой «беспорядка». По мере роста уровня беспорядка энтропия поднимается, и события становятся менее предсказуемыми.

Назад к определению энтропии в статье:

Definition of entropy in the paper

Н (S_m) является энтропия случайной величины S_m. Здесь Probability term - вероятность того, что результат s_m произойдет. m - все возможные результаты. Плотность вероятности p_n вычисляется с использованием гистограммы уровня серого, поэтому сумма исчисляется от 1 до 256. Буферы представляют возможные состояния.

Так что это значит? В области обработки изображений энтропия может использоваться для классификации текстур, определенная текстура может иметь определенную энтропию, поскольку определенные шаблоны повторяются примерно определенным образом. В контексте статьи низкая энтропия (H (s_m) означает низкий беспорядок, низкая дисперсия в компоненте m. Компонент с низкой энтропией более гомогенен, чем компонент с высокой энтропией, который они используют в сочетании с критерием гладкости для классификации Компоненты

Другой способ взглянуть на энтропию - рассматривать ее как меру информационного содержания. Вектор с относительно «низкой» энтропией - это вектор с относительно низким информационным содержимым. Это может быть [0 1 0 1 1 1 0]. Вектор с относительно высокой «энтропией» представляет собой вектор с относительно высоким информационным содержимым. Это может быть [0 242 124 222 149 13].

Это увлекательный и сложный предмет, который на самом деле нельзя суммировать в одном посте.

 Смежные вопросы

  • Нет связанных вопросов^_^