首先,显然,我们人类就拥有相当不错的智能,强智能。
第二,我们的思维器官结构是客观物质的,是有限可观测的:
有限个数的神经元细胞以可被观测的手段传递信息,这一切自然是可被分析的。
那么只要生物学神经学脑神经学足够优秀,我们就可以强行绘制出全•脑神经结构、功能图;
只要计算机运算能力足够,我们就可以基于人脑神经元功能结构图(在哪怕不明白其产生智能的真正原理的情况下)配合各个神经元的信息交换规律,用海量的计算资源强行模拟一个人脑。
哦,然后我们就得到了一个刚出生的婴儿的大脑。当然,它的信息输入速度会更快更高效。
它的运算资源增长速度也会更快。
在发现深度学习、人工神经网络仍然是以自下而上解决问题时,有些人开始自上而下尝试了:
欧盟的 Human Brain Project http://www.nanerbang.com/article/25/
美国的BRAIN 计划
http://human.brain-map.org/
IBM的“Compass”项目
http://www.guokr.com/article/392664/
http://www.modha.org/blog/SC12/RJ10502.pdf
然而,我还是觉得,在有生之年,没有领域顶级科学家层次的你我,还是专心自下而上地做ML比较有搞头。
嗯DL大法好
是这样的,这个思维实验只能证明:可以存在“无法真正理解工作内容,只能机械地完成工作的伪人工智能”。(并不理解中文的查字典翻译者)
却不能证明以下不存在:
它并没有证明,“一个可以真正理解其工作意义并依照其理解来工作的真•人工智能”不能存在。(一个精通双语的真•翻译者)
说实话,大自然花几十亿年造出了一堆“星工智能”……
首先要定义什么叫「支持强人工智能」。姑且认为,是用自然进化以外的方式创造出智能。当然用人工选择或者其它促进的方式让类人猿或者其它有一定智能的生物演化为智能生物,并不能叫做强「人工」智能。我们希望这个智能的载体是从无意识的物质而来。但是在创造过程中,并不排除采用类似生物培育的方式,比如模拟神经网络的训练,虚拟环境中的物种淘汰等等。
支持强人工智能的最核心理由就是科学的基本信念,这个世界是可以被不断认识的,不存在任何特殊的过程。所谓特殊的,就是说不能提炼出任何可以被忽略的元素,而在另一个环境下被重现。比如说,牛顿三定律让那个时代的人兴奋不已,就是因为揭示了天体和地上的物质遵从同一种定律。虽然存在质量和空间尺度的巨大差异,但是其行为是严格按比例等同的。而人类追求的受控核聚变,也是相信抛开恒星的巨大引力,持续核聚变这个过程仍然可以在地球表面被重现。
所以说,放弃「强人工智能」,就是放弃了科学的基本信念。就是认为智能是一种无法从人类自然繁衍中分离的特殊现象。从这个角度说,如果你能证明强人工智能无法实现,那才是超越现代科学体系的成就。例如热力学三定律这样的体系,预言了没有永动机存在,但是这个体系没有任何「特殊性」。因为它仍然假定宇宙中哪里都没有永动机。如果你的体系能让你对着镜子说,「除了这个个体和他的同类一样的自然进化,宇宙中没有智能」,这才是超越现有科学体系的理论。
回到问题本身。人类「支持」什么,反对什么,并不能 100% 靠证明,而是很大程度上根据过去的经验进行合理的假设。比如你现在得到了一笔奖金,你支持不支持把它存起来一部分?为什么「支持」存钱,因为你假设自己至少还能活几年,因为你假设人民币几年之内都不会作废,因为你假设银行几年之内都能随意提现。如果你不「坚信」这些无数的微小信念,那么你就不会「支持」存钱这个举动。对于任何受过教育的人来说,科学体系中「不存在任何特殊的过程」这个信念,应该比我们每一个人明天还能活着的信念更强烈。