0

Я пытаюсь реализовать простой алгоритм спуска градиента для линейной регрессии. Я использую библиотеку линейных алгебр Armadillo C++, и я также новичок в Armadillo. Это то, что я пытаюсь сделать:Градиентный спуск для линейной регрессии не работает

void linRegression(mat &features, mat &targets, double alpha,double error){ 
    mat theta = ones(features.n_cols+1); 
    mat temp = zeros(features.n_cols+1); 
    mat features_new = join_horiz(ones(features.n_rows),features); 
    mat predictions; 
    double con = alpha*(1.0/features.n_rows); 
    int j = 0; 
    while(j<1000){ 
     mat step_error = (features_new*theta - targets); 
     for(unsigned int i=0;i<theta.n_rows;i++){ 
      temp(i) = con*sum(step_error%features_new.col(i)); 
     } 
     theta = theta-temp; 
     mat pred = predict(theta,features_new); 
     cout<<theta<<endl; 
     j++; 
    } 
} 

но значения тета продолжают расти и в конечном итоге на бесконечности. Я не уверен, что я делаю неправильно.

+0

Пробовали ли вы меньше ставки обучения? Вы расширили свои возможности? Как выглядит функция соответствия в зависимости от номера итерации? – Anton

+0

да, я попробовал меньшую скорость обучения. Я не масштабировал свои данные, но данные были небольшими и линейными. я использовал квадрат ошибки для моей функции стоимости и увеличивается во время каждой итерации. – noshusan

ответ

4

Я думаю, что вычисления в цикле while неверны. По крайней мере, вы можете сделать это более привлекательным без цикла. Вот короткий код для задачи 1 особенность:

#include <iostream> 
#include <armadillo> 

using namespace std; 
using namespace arma; 

int main(int argc, char** argv) 
{ 
    mat features(10, 1); 

    features << 6.110100 << endr 
     << 5.527700 << endr 
     << 8.518600 << endr 
     << 7.003200 << endr 
     << 5.859800 << endr 
     << 8.382900 << endr 
     << 7.476400 << endr 
     << 8.578100 << endr 
     << 6.486200 << endr 
     << 5.054600 << endr; 

    mat targets(10, 1); 

    targets << 17.59200 << endr 
     << 9.130200 << endr 
     << 13.66200 << endr 
     << 11.85400 << endr 
     << 6.823300 << endr 
     << 11.88600 << endr 
     << 4.348300 << endr 
     << 12.00000 << endr 
     << 6.598700 << endr 
     << 3.816600 << endr; 

    mat theta = ones(features.n_cols + 1); 

    mat features_new = join_horiz(ones(features.n_rows), features); 

    double alpha = 0.01; 
    double con = alpha*(1.0/features.n_rows); 

    int j = 0; 

    while (j < 20000){ 
     mat step_error = (features_new*theta - targets); 
     theta = theta - con * (features_new.t() * step_error); 
     j++; 
    } 

    theta.print("theta:"); 

    system("pause"); 

    return 0; 
} 

Программа возвращает:

theta: 
    0.5083 
    1.3425 

В результате получили с помощью обычного метода уравнения является:

theta: 
    0.5071 
    1.3427 

EDIT

Ваш код действительно правильный! Проблема может заключаться в нормализации функции. Я расширил свой пример до 2 регрессий функций и добавил нормализацию. Без нормализации это тоже не работает.

#include <iostream> 
#include <armadillo> 

using namespace std; 
using namespace arma; 

int main(int argc, char** argv) 
{ 

    mat features(10, 2); 

    features << 2104 << 3 << endr 
     << 1600 << 3 << endr 
     << 2400 << 3 << endr 
     << 1416 << 2 << endr 
     << 3000 << 4 << endr 
     << 1985 << 4 << endr 
     << 1534 << 3 << endr 
     << 1427 << 3 << endr 
     << 1380 << 3 << endr 
     << 1494 << 3 << endr; 

    mat m = mean(features, 0); 
    mat s = stddev(features, 0, 0); 

    int i, j; 

    //normalization 
    for (i = 0; i < features.n_rows; i++) 
    { 
     for (j = 0; j < features.n_cols; j++) 
     { 
      features(i, j) = (features(i, j) - m(j))/s(j); 
     } 
    } 

    mat targets(10, 1); 

    targets << 399900 << endr 
     << 329900 << endr 
     << 369000 << endr 
     << 232000 << endr 
     << 539900 << endr 
     << 299900 << endr 
     << 314900 << endr 
     << 198999 << endr 
     << 212000 << endr 
     << 242500 << endr; 


    mat theta = ones(features.n_cols + 1); 

    mat features_new = join_horiz(ones(features.n_rows), features); 

    double alpha = 0.01; 
    double con = alpha*(1.0/features.n_rows); 

    while (j < 20000){ 
     mat step_error = (features_new*theta - targets); 
     theta = theta - con * (features_new.t() * step_error); 
     j++; 
    } 

    cout << theta << endl; 

    system("pause"); 

    return 0; 
} 

Результат:

тета:

3.1390e+005 
    9.9704e+004 
-5.6835e+003 
+0

нормальное уравнение будет отличным выбором для данных, которые я использую. но я пытаюсь понять градиентный достойный алгоритм. вы можете сказать мне, что я делаю неправильно внутри, чтобы wile loop – noshusan

+0

Я использовал градиент приличный в своем коде – Anton

+0

Извините, как-то мой браузер не загрузил весь код. но предоставленный вами код дает такие же результаты, что и мой. Я думаю, что это проблема нормализации функции. Может быть, шаги градиента превышают и никогда не достигают минимума. – noshusan