随机森林算法工作原理及重要性

更新时间:2019-03-08

1、随机森林算法的工作原理

说到机器学习,不得不提及一下随机森林算法,随机森林是一种灵活且易于利用的机器学习算法,即便不超参数调优,也可能在大多数情况下得到很好的结果。它也是最常用的算法之一,因为它很简易,既可用于分类也能用于回归任务。在此,IT培训网给大家谈谈随机森林算法的工作原理及重要性。

随机森林算法工作原理及主要性?

除了少数例外,随机森林分类器使用所有的决策树分类器以及bagging 分类器的超参数来操纵整体结构。 与其先构建bagging分类器,并将其传递给决策树分类器,你可以直接应用随机森林分类器类,这样对决策树而言,更加方便跟优化。要留心的是,回归问题同样有一个随机森林回归器与之相对应。

随机森林是一种有监督学习算法。 就像你所看到的它的名字一样,它创建了一个森林,并使它领有某种方式随机性。 所构建的“森林”是决定树的集成,大部分时候都是用“bagging”方法练习的。 bagging措施,即bootstrap aggregating,采用的是随机有放回的决定训练数据而后构造分类器,最后组合学习到的模型来增加整体的成果。

简而言之:随机森林建立了多个决议树,并将它们合并在一起以获得更准确跟牢固的猜想。随机森林的一大优势在于它既可用于分类,也可用于回归问题,这两类问题恰好构成了当前的大多数机器学习系统所需要面对的。 接下来,将探讨随机森林如何用于分类问题,由于分类有时被认为是机器学习的基石。 下图,你能够看到两棵树的随机森林是什么样子的:



友情链接:

Copyright 2018-2021 马报历史开奖记录 版权所有,未经授权,禁止转载。