В проблеме регрессии машинного обучения, почему локальный минимум вычисляется для производной функции вместо фактической функции?Почему производная от функции используется для вычисления Local Minimum вместо фактической функции?
Пример: http://en.wikipedia.org/wiki/Gradient_descent
Алгоритм градиентного спуска применяется, чтобы найти локальный минимум функции $$
f(x)=x^4−3x^3+2, ----(A)
с производной
f'(x)=4x^3−9x^2. ----(B)
здесь, чтобы найти локальный минимум с помощью градиентного спуска для функции (A) они использовали производную функцию (A), которая является функцией (B).
Извините, у меня очень глупый вопрос. f '(x) = 4x^3-9x^2. Просто взглянув на функцию, мы можем найти локальный минимум, т. е. f' (x) = 0 будет иметь место при x = 0, то для чего нам нужен градиентный спуск. – user703555
Ну, это не совсем просто, глядя на него: вы можете решить для x, когда f '(x) = 0. Это простой пример: большую часть времени, когда вы используете методы оптимизации, вы не можете получить аналитическое решение , Взгляните на http://en.wikipedia.org/wiki/Convex_optimization для более подробной информации. –