基于樸素貝葉斯自動過濾垃圾廣告
交叉訓練
交叉訓練簡單點說就是在同一份樣本中選擇部分作為測試樣本,剩余的作為訓練樣本。這里一共有5574條數(shù)據(jù),抽取1000條作為測試樣本(testdata)
trainset = [i for i in range(len(txt_class))]
testset = []
testclass = []
for i in range(1000):
number = int(random.choice(trainset))
testset.a(chǎn)ppend(words_vec(dataset[number], wordlist))
testclass.a(chǎn)ppend(txt_class[number])
trainset.remove(number)
trainMat = [];
trainclass = []
for i in trainset:
trainMat.a(chǎn)ppend(words_vec(dataset[i], wordlist))
trainclass.a(chǎn)ppend(txt_class[i])
在這段代碼中,trainset是訓練樣本的編號,testset是測試樣本的數(shù)據(jù)集,testclass表示測試樣本是否為垃圾廣告,trainmat是訓練樣本數(shù)據(jù)集,trainclass表示訓練樣本是否為垃圾廣告。
構造訓練器
現(xiàn)在來計算P(y1|x),P(y2|x)
def train(trainmatrix,traincategory):
numword=len(trainmatrix[0])
numtrain=len(trainmatrix)
pa=sum(traincategory)/float(len(trainmatrix))
p0num,p1num=ones(numword),ones(numword)
p0dem,p1dem=2.0,2.0
for i in range(numtrain):
if traincategory[i]==1:
p1num+=trainmatrix[i]
p1dem+=sum(trainmatrix[i])
else:
p0num+=trainmatrix[i]
p0dem+=sum(trainmatrix[i])
p1vect= log(p1num / p1dem)
p0vect = log(p0num / p0dem)
return p1vect,p0vect,pap0num,p1num表示在類別0和類別1下各個單詞出現(xiàn)的總數(shù);p1dem,p0dem表示類別0和類別1的單詞總數(shù);p0vect和p1vect代表P(xi|y0)以及P(xi|y1);這里進行Log變化避免下溢;同時進行了拉普拉斯平滑處理,即p0num,p1num的初始變量為ones()。p1dem,p0dem則為2(一共有兩種結果,垃圾廣告和有用廣告,所以為2)
構造分類器
def classify(vec,p0vec,p1vec,pclass1):
p1=sum(vec*p1vec)+log(pclass1)
p0=sum(vec*p0vec)+log(1.0-pclass1)
if p1>p0:
return 1
else:
return 0
驗證訓練模型精確度
由于在進行交叉訓練時測試樣本是隨機抽取的,所以訓練準確度一直都不一樣,為了讓結果具有代表性,再構造一個循環(huán),進行n次訓練,取誤差的平均值。
def mul(num):
totalerror = 0
for times in range(num):
#通過交叉訓練獲得訓練樣本和測試樣本
p1vect, p0vect, pa = train(trainMat, trainclass)
error=0
for i in range(len(testset)):
if classify(array(testset[i]), p0vect, p1vect, pa) 。 testclass[i]:
error += 1
print('the accurate is', 1 - error / float(len(testset)))
totalerror+=error / float(len(testset))
print('after %d times the accurate of bayes is %f'%(num,1-float(totalerror)/num))
這個模型的準確度還是非常高的,平均精確度達到93.64%。
詞袋模型
請大家思考一個問題,在垃圾廣告中有沒有一些詞會頻繁提到呢?如果頻繁的出現(xiàn)這個詞,是不是代表這則廣告為垃圾廣告的概率要增加?現(xiàn)在為止只是將某一個詞語是否出現(xiàn)當作一個特征,這被稱為詞集模型。如果一個詞出現(xiàn)次數(shù)不止一次,將它出現(xiàn)的次數(shù)作為一個特征就稱為詞袋模型。這兩個模型的不同點在于詞語出現(xiàn)與否和出現(xiàn)次數(shù),將函數(shù)word_vec稍稍修改即可:
def words_vec(txt,wordlist):
returnvec=[0]*len(wordlist)
for word in txt:
if word in wordlist:
returnvec[list(wordlist).index(word)]=1+returnvec[list(wordlist).index(word)]
return returnvec
基于詞袋模型的平均準確度高達93.63%;盡管比詞集模型小了0.01%;但是其中一個準確率達到了95.5%;兩個模型都是很不錯的呢。
如果是中文的話使用jieba就可以分詞噢。

最新活動更多
-
9 每日AI全球觀察
- 1 特斯拉工人被故障機器人打成重傷,索賠3.6億
- 2 【行業(yè)深度研究】退居幕后四年后,張一鳴終于把算法公司變成AI公司?
- 3 AI 時代,阿里云想當“安卓” ,那誰是“蘋果”?
- 4 拐點已至!匯川領跑工控、埃斯頓份額第一、新時達海爾賦能扭虧為盈
- 5 硬剛英偉達!華為發(fā)布全球最強算力超節(jié)點和集群
- 6 隱退4年后,張一鳴久違現(xiàn)身!互聯(lián)網(wǎng)大佬正集體殺回
- 7 00后華裔女生靠兩部AI電影狂賺7.8億人民幣,AI正式進軍好萊塢
- 8 谷歌“香蕉”爆火啟示:國產(chǎn)垂類AI的危機還是轉機?
- 9 機器人9月大事件|3家國產(chǎn)機器人沖刺IPO,行業(yè)交付與融資再創(chuàng)新高!
- 10 美光:AI Capex瘋投不止,終于要拉起存儲超級周期了?
- 生產(chǎn)部總監(jiān) 廣東省/廣州市
- 資深管理人員 廣東省/江門市
- Regional Sales Manager 廣東省/深圳市
- 銷售總監(jiān) 廣東省/深圳市
- 結構工程師 廣東省/深圳市
- 光器件研發(fā)工程師 福建省/福州市
- 自動化高級工程師 廣東省/深圳市
- 技術專家 廣東省/江門市
- 激光器高級銷售經(jīng)理 上海市/虹口區(qū)
- 封裝工程師 北京市/海淀區(qū)