0

Я использую метод обучения (Decision Tree, NaiveBayes, Maxent). Чтобы сравнить их относительную производительность, чтобы узнать лучший из них? Как реализовать решение Дерево, чтобы получить его точность?Decision Tree nltk

import string 
from sklearn.tree import DecisionTreeClassifier 
from sklearn.metrics import confusion_matrix 
import nltk, nltk.classify.util, nltk.metrics 
from nltk.classify import MaxentClassifier 
from nltk.collocations import BigramCollocationFinder 
from nltk.metrics import BigramAssocMeasures 
from nltk.probability import FreqDist, ConditionalFreqDist 
from sklearn import cross_validation 
import nltk.classify.util 
from nltk.classify import NaiveBayesClassifier 
from nltk.corpus import movie_reviews 

from nltk.classify import MaxentClassifier 
from nltk.corpus import movie_reviews 
from nltk.corpus import movie_reviews as mr 

stop = stopwords.words('english') 
words = [([w for w in mr.words(i) if w.lower() not in stop and w.lower() not in string.punctuation], i.split('/')[0]) for i in mr.fileids()] 

def word_feats(words): 
return dict([(word, True) for word in words]) 

negids = movie_reviews.fileids('neg') 
posids = movie_reviews.fileids('pos') 

negfeats = [(word_feats(movie_reviews.words(fileids=[f])), 'neg') for f in negids] 
posfeats = [(word_feats(movie_reviews.words(fileids=[f])), 'pos') for f in posids] 

negcutoff = len(negfeats)*3/4 
poscutoff = len(posfeats)*3/4 

trainfeats = negfeats[:negcutoff] + posfeats[:poscutoff] 
DecisionTree_classifier = DecisionTreeClassifier.train(trainfeats, binary=True, depth_cutoff=20, support_cutoff=20, entropy_cutoff=0.01) 
print(accuracy(DecisionTree_classifier, testfeats)) 
+0

У вас есть посторонняя закрытая скобка в конце вашего заявления. – blacksite

ответ

0

В этом коде вы печатаете точность, поэтому какой у вас вопрос?

+0

Это не ответ. Пожалуйста, воздержитесь от ответов на вопросы. Если у вас недостаточно отзывов, чтобы оставлять комментарии, подождите, пока вы это сделаете –

0

Вам нужно будет посмотреть код (или строки документации) nltk3. Также есть вероятность, что примеры, приведенные в книге nltk, будут работать без каких-либо изменений. См http://www.nltk.org/book/ch06.html#DecisionTrees

Или вы можете просто запустить тестовый образец и подсчета ложных срабатываний и ложноотрицательных себя

Это ваша точность.