3

Я читаю о нечеткой логике, и я просто не понимаю, как это может улучшить алгоритмы машинного обучения в большинстве случаев (что, по-видимому, применяется относительно часто).Нечеткая логика действительно улучшает простые алгоритмы машинного обучения?

Возьмите, к примеру, k ближайших соседей. Если у вас есть куча таких атрибутов, как color: [red,blue,green,orange], temperature: [real number], shape: [round, square, triangle], вы не можете действительно fuzzify любой из них, кроме реального нумерованного атрибута (пожалуйста, поправьте меня, если я ошибаюсь), и я не вижу, как это может улучшить что-то еще чем балансировать вещи вместе.

Как можно использовать механическую нечеткую логику для улучшения машинного обучения? Примеры игрушек, которые вы найдете на большинстве веб-сайтов, похоже, не все, что применимо, в большинстве случаев.

+3

Это вопрос семантики. Красный/синий/зеленый/оранжевый являются потенциально «нечеткими» терминами, если вы не говорите об их буквальных значениях RGB. Аналогично для терминов round/square/triangle. – Cerin 2011-01-03 19:05:10

ответ

6

Нечеткая логика целесообразна, если переменные имеют естественную интерпретацию формы. Например, [очень немногие, немногие, многие, очень многие] имеют приятную перекрывающуюся трапециевидную интерпретацию значений.

Переменные, такие как цвет, не могут. Нечеткие переменные обозначают степень членства, то есть когда они становятся полезными.

Что касается обучения машинам, это зависит от того, на какой стадии алгоритма вы хотите применить нечеткую логику. Было бы лучше использовать, на мой взгляд, после того, как кластеры будут найдены (используя традиционные методы обучения) для определения степени членства в определенной точке в пространстве поиска на каждом кластере, но это не улучшает обучение на вид, но классификация после обучение.

0

Непонятно, что вы пытаетесь выполнить в примере, который вы даете (формы, цвета и т. Д.). Нечеткая логика успешно использовалась для машинного обучения, но лично я считаю, что она, вероятно, чаще всего полезна при построении политик. Вместо того, чтобы идти об этом, я отсылаю вас к статье, опубликованной в Мар/апрель-2002 выпуск журнала «PC AI», который, мы надеемся, что делает идею разъясняя:

Putting Fuzzy Logic to Work: An Introduction to Fuzzy Rules

0

[круглый, квадратный , треугольник] являются в основном идеальными категориями, которые существуют прежде всего в геометрии (т.е. в теории). В реальном мире некоторые формы могут быть почти квадратными или более или менее круглыми (круглая форма). Есть много нюансов красного цвета, а некоторые цвета ближе к некоторым другим (попросите женщину объяснить бирюзу, например). Следовательно, абстрактные категории и некоторые конкретные значения полезны в качестве ссылок, в реальном мире объекты или ценности не обязательно равны этим.

Нечеткое членство позволяет измерять, насколько далеко от некоторых идеальных объектов находятся определенные объекты. Использование этой меры позволяет избежать «нет, это не круговой» (что может привести к потере информации) и использовать меру, данный объект (не) круглый.

0

На мой взгляд, нечеткая логика не является практически жизнеспособным подходом к чему-либо, если только вы не строите целенаправленный путаный контроллер или некоторую структуру, основанную на правилах, как для соблюдения/политики. Хотя, нечеткие подразумевают дело со всем между 0 и 1. Иными словами, я считаю, что это немного некорректно, когда вы приближаетесь к более сложным проблемам, когда вам нужно применять аспекты нечеткой логики в трехмерных пространствах. Вы все еще можете приближаться к многомерному, не глядя на нечеткую логику. К сожалению, для меня, изучая нечеткую логику, я обнаружил, что не согласен с принципами, приближающимися к нечетким множествам в больших размерных пространствах, кажется неосуществимым, непрактичным и не очень логически обоснованным. Естественная языковая база, которую вы будете применять в своем решении с нечетким множеством, также будет очень сложной, что именно [очень, немногие, многие] - это все, что вы определили в своем приложении. Кроме того, из аспектов машинного обучения вы обнаружите, что вам даже не нужно заходить так далеко, чтобы строить естественные языковые основы в вашей модели.Фактически, вы обнаружите, что сможете достичь еще лучших результатов без необходимости применять нечеткую логику в любом аспекте вашей модели.

0

просто слишком вас раздражает , принудительно добавляя нечеткость к этому. если вместо атрибута «shape» у вас был атрибут «количество сторон», который был бы далее разделен на «меньше», «средний», «много» и «несчетный». квадрат мог бы быть частью «меньше» и «средний», как с соответствующей функцией членства. вместо атрибута «color» , если у вас был «красный» атрибут, а затем с использованием кода RGB могла быть создана функция принадлежности. так как мой опыт в области интеллектуального анализа данных: каждый метод может применяться к каждому набору данных, что работает, работает.

0

Не удалось ли просто преобразовать дискретные множества в непрерывные и получить те же эффекты, что и размытость, будучи в состоянии использовать все методы теории вероятностей?

Для получения размера экземпляра [ 'небольшой', 'среды', 'большой'] ==> [0,1]