3.
$ \ begingroup $

这个页面在解释 - ml书中本文分析vidhya,意味着知道ML模型内发生了什么,以获得结果/预测/结论。

在线性回归中,新数据将乘以权重,将添加偏差以进行预测。

在升压树模型中,可以绘制所有的决定作为导致预测的树木。

并且在前馈神经网络中,我们将具有类似线性回归的权重和偏见,我们只是在每层乘以重量并在各层添加偏差,在一定程度上使用各层的某种激活功能来限制值,最后在预测到达。

在CNNS中,可以在通过CNN块传递后看到输入的输入发生,并且池中后提取有哪些功能(REF:CNN看到什么?)。

就像我在上面所说的那样,一个人可以很容易地知道ML模型内部发生的事情以进行预测或结论。我不清楚是什么让他们无法解释!那么,究竟是什么制作算法或它的结果不可解释,或者为什么这些被称为黑色盒子型号?还是我错过了什么?

| 改善这个问题 | |
$ \ endgroup $
    1
    $ \ begingroup $

    在表单的简单线性模型中$ y = \ beta_0 + \ beta_1 x $我们可以看到增加$ x $由一个单位将增加预测$ y $通过$ \ beta_1 $。在这里,我们可以完全确定对模型预测的效果将是通过增加的$ x $。具有更复杂的模型,如神经网络,因此由于所有数据点所涉及的所有计算而言,更难以说明。例如,如果我提到的在CNN中,如果我更改了图像中的像素的值我们正在通过CNN,你真的能够告诉我这对预测的效果可以与线性模型一样。

    | 改善这个答案 | |
    $ \ endgroup $
    • $ \ begingroup $ 那么,这是否使基于树的模型不可解释?由于它不会完全显而易见,输入的变化会如何在模型中通过所有树木衡量后的最终输出? $ \ endgroup $-Naveen Kumar. 10月9日10:14
    • 2
      $ \ begingroup $ @NaveEnkumar决策树可以在每个节点上知道,在每个节点上都知道基于“/ else / else”语句的决策,因此您可以通过遵循通过树的路径来恢复预测的方式。从那种意义上讲,决策树是可解释的(即,你知道如果它被归类为“X”,那就是因为在节点$ Y $ y $ a teach的决定)。但是,我会说解释性取决于人类真正想知道的东西。 $ \ endgroup $-nbro. 10月9日10:19
    • 2
      $ \ begingroup $ @naveenkumar nbro几乎回答了你的问题,我同意这取决于人类真正想知道的东西。例如,我的背景是统计数据,我知道医疗统计学家将没有兴趣使用。神经网络,因为您无法判断哪些功能对模型有影响;在机器学习中经常如此,您没有得到模型的工作方式,只要它可以是如此,这就是为什么更复杂的模型很受欢迎。 $ \ endgroup $-大卫爱尔兰 10月9日10:55

    你的答案

    点击“发布答案”,您同意我们的同意服务条款隐私政策Cookie政策

    不是您要找的答案?浏览其他标记的问题必威英雄联盟要么必威电竞问你自己的问题