我就从自己的专业角度来简单的说一说。
最近这几年,机器学习的风头无两,统计和计量有的时候都被认为是老学校(Old School)了,并且由此双方还划定了分水岭「计量重解释,机器学习重预测」。
诚然,强大的预测能力是机器学习得以流行的原因,但是只要有一天「解释」和「预测」依然在各自为战,那么「人工智能达到真人的水平」就始终遥不可及。
把真人看做一个无比复杂的,带各种随机效应的反应函数 ,其中 是输入, 是输出而 是机制。但是因为输入、输出和机制都不可观测,机器学习的做法是,搜集海量的数据 和 来尽量的代理 和 (因为很多其实是不可观测,比如能力等等),然后从数据中一点一点的拟合出来一个F,所以就是 。尽量让它从目前的数据来看,输入X预测Y的误差最小。
这个问题在于,F完全是数据驱动的,也就是数据说东就是东,数据说西就是西。至于为什么是这样,不知道。数据驱动出来的函数可以高度的非线性,可以在人类无法解释的情况下,捕捉到变量之间的微妙互动和联系——这也是为什么其被称之为黑箱的原因。但是问题在于,数据的驱动局限也在于数据,比如一个人一直不喝酒,我们根据其行为大数据就无法判断她的酒量如何。但是如果我们如果能深入的检测其肝脏酒精分解酶的水平,我们就可以无视其行为而得出更精确的判断。
这也是人工智能的问题,数据体现的只是一个均衡态——「人们这么做只不过因为他当时当地最好的选择是这样」故而仅仅只是人类复杂机制的冰山一角。
计量则是另外一个极端,为了能够创造出「人类能够看懂的因果推断」,大大的牺牲了预测性。但是无论是简约回归的因果推断,还是结构回归的模型拟合,都是在试图探索事物之间的因果关系。
机器学习在短短的几年就在业界取得了对计量的优势,原因也非常显然——对业界来说:我并不太想知道我为什么失业,为什么破产;我需要对未来更精确的预测,来让我赚更多的钱!大多数情况下,预测比解释在实业上更「有用」,而对机制的探究,本身就带有更多的书卷气。这也是为什么说机器学习更「工程化」。
但是研究因果毫无疑问是有价值的,它的价值就是背后的机制和逻辑。当一个前所未有的税制改革要实行的时候,机器学习如何告诉我会有什么影响?没有数据,或者数据有限的时候,机器学习能做的是有限的。但是经济学的模型就可以在这种时候依然提供洞见。让人们理解改革中的种种权衡来提供指导。
@半吊子码农 的答案中举得蓝翔的例子就很明显。大多数情况下「挖掘机技术哪家强?」
对应的回答是『山东蓝翔』。但是如果接下来跟着问一句「我说真的呢?我想学」,让电脑能够继续判断这个对话是玩笑还是真的询问,就是需要真正的逻辑思维才能解决的问题了,而不是一个靠堆语料和上下文关联就能够判断的。
一个理想的模型,是应该预测和解释都非常优秀的。一方面能够理清楚里面变量之间的种种影响的渠道,给出逻辑的解释;另一方面因为事无巨细的捕捉到了变量之间的关联渠道,所以能够很好的进行预测。显然,现在的情况是分化依然非常严重,无论是哪一边,都还有很长的路要走。
而如果我们做不到这一点,就很难说自己实现了「人工智能人类」,而只是「在某些情况下不容易被人发现是人工智能的机器」。
@司马懿 汪老师已经说的很清楚了。我也凑凑热闹。
首先是定义:真正的人工智能是什么?我理解就是能够真正实现“像人类一样思考”的“机器逻辑”。那么接下来,就是“像人类一样思考”指的是什么?我体会,主要就是汪老师说的,解释和预测。说到这的话,有汪老师珠玉在前,我似乎不太需要再多絮叨。所以,分歧点是:怎么做到解释和预测?
中学我们大家就都学过:归纳法。从观测到的现象推论一般规律,然后去做验证。机器同样是通过对数据的学习(归纳),获得一个“模型”(theory),经过验证(verification)和检验(cross validation),得到一个可用的框架。之后就可以拿来预测了。如果看这个过程,其实跟人类的过程很相似。
汪老师说的意思是,我体会,第一,这个学习过程不关心“内在机制”和“potential theory”。第二,既然没有机制和theory,那么当没有数据的时候,就没有办法进行处理。
我觉得,这个说法既对也不对。首先,什么叫theory或者model?其实不过就是通过对过去的观测(实际的观测或者“虚拟或者脑海”中的观测)总结出来的一个映射。这个映射可以解释某些out of sample的东西,那么就可以成为一个candidate theory,直到它被推翻。那么,既然如此,机器去通过各种“学习方法”得到某一个可以经过检验和验证的model,然后用这个去理解out of sample的未知事物,应该就是智能了。
我的个人看法是,逻辑推导什么的,只要定义好框架和体系,都是有办法被机器学习的。
那么人类是否就这一种学习方式呢?我觉得还有一个叫想象力,或者“举一反三”、“泛化”的能力。这个,我觉得可能是差距。毕竟,就我自己的经验来说,从一个事情联想到另外一个事情,是“灵机一动”,这个灵机一动能解决掉很多在未知时刻的新问题。我觉得,可能在这个角度,机器学习或者人工智能还有需要进步的地方。
理论上讲,强人工智能绝对是可以实现的,但绝不会是靠深度学习这种炼丹式的方法来实现,
你可以骑自行车环法一周,但是你绝不可能用自行车破音速,或者用自行车登火星。
要实现真正的人工智能,一条路是仿生学的路,也就是先将智能的机制弄清楚(如果能将意识的机制弄清就更好了),然后在实验室模拟一个智能。
openworm就是这样一个计划,科学家们用计算机来模拟秀丽隐杆线虫,因为这种线虫结构相对简单,却也具有趋利避害、觅食、繁殖等功能,第一阶段他们使用计算机来模拟秀丽隐杆线虫的302个神经元和95个肌肉细胞,最终的目标是希望模拟它的全部959个细胞,但是结果却并不乐观:
These early attempts of simulation have been criticized for not being biologically realistic. Although we have the complete structural connectome, we do not know thesynaptic weightsat each of the known synapses. We do not even know whether the synapses are inhibitory or excitatory. To compensate for this the Hiroshima group used machine learning to find some weights of the synapses which would generate the desired behaviour. It is therefore no surprise that the model displayed the behaviour, and it may not represent true understanding of the system.
虽然模拟了线虫的神经元,却连神经元上的突触是抑制性的还是兴奋性的都搞不清楚,一些突触的权重还是通过机器学习来生成的,以达到想要的效果,结果自然是没有得到什么有价值的结论。可见在智能机制的研究上,我们还处于非常初级的阶段。
第二条路是使用算法来得到结果就行了,不必模拟现有的智慧生命,类似于中文屋。毕竟自然进化而来的机制不一定是最有效的机制,汽车不需要用四条机械臂狂奔,飞机也不需要拍翅膀提供升力,人工智能也不一定需要有几亿个神经元才能开始工作。任何问题都是算法问题,音视频的分析是模式识别,自动驾驶是决策树,扫地机器人是一个寻路和避障的问题。但是现在大量的问题甚至无法被良好定义,一张人脸图片要检测它是男还是女,你如何在数学上定义这个问题呢?没有良好的定义,自然无法建出有效的模型,也无法评估模型的有效性,所以大量依赖于深度学习这种黑箱来解决问题。
现在这个阶段定义最完善的当然是自动驾驶,和棋类,电子竞技类的问题,所以这些相对较早被解决。越是没有完善定义的问题,越是离被解决遥遥无期,比如语义分析和机器翻译,相对而言就要困难得多。
所以不必太兴奋,在人工智能方面我们还是处于前科学的状态,就是那个热素说,以太说大行其道的时代。未来能发生什么谁也不知道,截至2019年,强人工智能的理论基础没有出现,也没有出现的迹象。弱人工智能有一定成效,但是多半也是算力,和数据的堆砌,技术上进展不显著。当前现状是对人工智能越了解的越悲观,越不了解的越乐观。
上次facebook AI跑出bug,媒体记者居然报道称AI发明了人类不懂的语言在自主交流,人工智能可能反噬人类云云,就是一个例子。按照越外行越乐观的规律推断,不久就会有意识上传锅,人工智能算命这种骗局出现了,大爷大妈们肯定信这个。