发布于2024-11-11 阅读(0)
扫一扫,手机访问
随机森林算法是一种集成技术,能够使用多个决策树和一种称为Bootstrap和聚合的技术来执行回归和分类任务。这背后的基本思想是结合多个决策树来确定最终输出,而不是依赖于单个决策树。
随机森林产生大量分类树。将输入向量放在森林中的每棵树下,以根据输入向量对新对象进行分类。每棵树都分配了一个分类,我们可以将其称为“投票”,最终选择最高票数的分类。
以下阶段将帮助我们了解随机森林算法的工作原理。
第1步:首先从数据集中选择随机样本。
第2步:对于每个样本,该算法将创建一个决策树。然后将获得每个决策树的预测结果。
第3步:将对这一步中的每个预期结果进行投票。
第4步:最后选择得票最多的预测结果作为最终的预测结果。
以下是随机森林算法的主要特征:
随机森林有多个决策树作为基础学习模型。我们从数据集中随机执行行采样和特征采样,形成每个模型的样本数据集。这部分称为引导程序。
第1步:导入所需的库。
import numpy as np import matplotlib.pyplot as plt import pandas as pd
第2步:导入并打印数据集
ata=pd.read_csv('Salaries.csv') print(data)
第3步:从数据集中选择所有行和第1列到x,选择所有行和第2列作为y
x=df.iloc[:,:-1]#”:”表示将选择所有行,“:-1”表示将忽略最后一列
y=df.iloc[:,-1:]#”:”表示它将选择所有行,“-1:”表示它将忽略除最后一列之外的所有列
#“iloc()”函数使我们能够选择数据集的特定单元格,也就是说,它帮助我们从数据框或数据集的一组值中选择属于特定行或列的值。
第4步:将随机森林回归器拟合到数据集
from sklearn.ensemble import RandomForestRegressor regressor=RandomForestRegressor(n_estimators=100,random_state=0) regressor.fit(x,y)
第5步:预测新结果
Y_pred=regressor.predict(np.array([6.5]).reshape(1,1))
第6步:可视化结果
X_grid=np.arrange(min(x),max(x),0.01) X_grid=X_grid.reshape((len(X_grid),1)) plt.scatter(x,y,color='blue') plt.plot(X_grid,regressor.predict(X_grid), color='green') plt.title('Random Forest Regression') plt.xlabel('Position level') plt.ylabel('Salary') plt.show()
下一篇:常见的监督学习算法
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店
售后无忧
立即购买>office旗舰店