主页 > 深度 >

人类无法理解AI进行深度学习是有原因的

  -深度学习读取大量的“教师数据”,并找到输入变量和输出变量之间的关系。如果知道了这种关系,那么当输入新数据时,就可以预测输出结果,为什么人类不能理解这个过程呢?

  有两个主要因素。定性和定量。定量问题非常简单。参数此举在深度学习的内部:因为(参数信息,在系统内部移动)过大,就很难连接大量的和人的直觉数据的复杂性,故事讲述。如今,许多人预测超过1亿个参数的输出。好了,大约人类发言的东西可以1亿看出,我不知道。这基本上是发生的。

  到目前为止,即使有1000或2000个输入变量,统计分析的趋势仍然是选择许多对于预测确实必要的变量。由于我专门研究缩小范围,因此能够看到选择的变量,并得到诸如“此变量很重要”之类的解释。如果长期看一眼20十日30种变量,我们可以连接到人的直觉十日的认识。

  这似乎非常困难。由于深学习是参数和变量之间复杂的因果关系,这不是很容易确定应该缩小哪一个。实际上,例如,即使有1亿个参数,也可能存在一些对输出真正有效的参数。但是,似乎很难知道应该缩小哪个范围。

  如果仅使用有用的变量和参数,这非常容易,但是正如我所说,很难确定所需的内容。由于不可能进行这种先验缩小,因此深度学习将创建并运行一个包含不必要的变量和参数的冗余系统。至少在实验上已经表明,这样做可以提高预测的准确性。另一方面,什么样的数据从一开始就应该具有较少的变量仍然没有被完全理解,我认为这是一个有望进行未来研究的领域。

  简而言之,这就是“深层”,也就是说,它具有深层结构。更深的是,数据转换在数据输入层和输出层之间的“中间层”(*)中重复多次。正如我们再说一遍,我们摆脱了人类的直觉,走向了一个只有机器才知道的世界。

  *中间层(隐藏层):深度学习由输入数据的“输入层”,反复变换和组合输入数据的“中间层”以及输出数据的“输出层”组成。据说中间层越多,精度越高,但是计算将花费时间。

责任编辑:admin
本网登载的内容版权属淮北新闻网所有。未经事先协议授权,任何个人及单位不得转载、复制、播出或使用。
  • 微笑
  • 流汗
  • 难过
  • 羡慕
  • 愤怒
  • 流泪
0