Я читаю о нечеткой логике, и я просто не понимаю, как это может улучшить алгоритмы машинного обучения в большинстве случаев (что, по-видимому, применяется относительно часто).Нечеткая логика действительно улучшает простые алгоритмы машинного обучения?
Возьмите, к примеру, k ближайших соседей. Если у вас есть куча таких атрибутов, как color: [red,blue,green,orange], temperature: [real number], shape: [round, square, triangle]
, вы не можете действительно fuzzify любой из них, кроме реального нумерованного атрибута (пожалуйста, поправьте меня, если я ошибаюсь), и я не вижу, как это может улучшить что-то еще чем балансировать вещи вместе.
Как можно использовать механическую нечеткую логику для улучшения машинного обучения? Примеры игрушек, которые вы найдете на большинстве веб-сайтов, похоже, не все, что применимо, в большинстве случаев.
Это вопрос семантики. Красный/синий/зеленый/оранжевый являются потенциально «нечеткими» терминами, если вы не говорите об их буквальных значениях RGB. Аналогично для терминов round/square/triangle. – Cerin 2011-01-03 19:05:10