新聞中心
這里有您想知道的互聯(lián)網(wǎng)營(yíng)銷解決方案
怎么樣掌握python中的AdaBoost算法-創(chuàng)新互聯(lián)
了解怎么樣掌握python中的AdaBoost算法?這個(gè)問題可能是我們?nèi)粘W(xué)習(xí)或工作經(jīng)常見到的。希望通過這個(gè)問題能讓你收獲頗深。下面是小編給大家?guī)淼膮⒖純?nèi)容,讓我們一起來看看吧!
Python實(shí)現(xiàn)AdaBoost算法
計(jì)算弱分類器誤差
pred_train = models[m].predict(x_train) miss = [int(x) for x in (pred_train != y_train)] error = np.dot(w, miss)
計(jì)算弱分類器的權(quán)重
theta[m] = 0.5 * np.log((1-error)/error)
更新數(shù)據(jù)權(quán)重
for i in n_train: w[i] = w[i]*np.exp(-theta[m]*y_train[i]*pred_train[i])
正規(guī)化權(quán)重
for i in n_train: w[i] /= np.sum(w[i])
最終的預(yù)測(cè)
predict = np.dot(theta, [model[m].predict(x_test) for m in range(M)])
感謝各位的閱讀!看完上述內(nèi)容,你們對(duì)怎么樣掌握python中的AdaBoost算法大概了解了嗎?希望文章內(nèi)容對(duì)大家有所幫助。如果想了解更多相關(guān)文章內(nèi)容,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道。
新聞名稱:怎么樣掌握python中的AdaBoost算法-創(chuàng)新互聯(lián)
網(wǎng)頁(yè)路徑:http://www.ef60e0e.cn/article/dhhhoc.html