现在谈论科技失控还为时尚早。
虽然最近人工智能,机器学习之类的概念很热,但是如果你了解一些原理就会发现,其实这些所谓的人工智能,只是一些人工弱智,人工智障。
对于一个很简单的智力问题,人类只需要少量样本很少的学习时间就能掌握规律,而机器需要非常多训练样本很长的训练时间,期间还需要人类去不断修正模型调整参数反复测试。
如果你做过智商测试,很多题目就是给3-4个样本让你推测下一个是什么,就是说人类大脑这个神经网络只需要3-4个样本进行无监督训练就可以生成一个模型,可以准确进行预测了,这就是人类的智商水平。而人类在做题过程中还用了自然语言理解,图像识别,特征提取。
即使给目前的机器学习系统输入标注好的样本训练,只有3-4个样本是远远不够的。
之所以目前发展机器学习,只是因为机器很听话,很乖,不需要休息,不会闹情绪,不会生病,而且要多少有多少,所以可以把一些低智商的重复劳动交给它们,来降低成本。
不要觉得AlphaGo能战胜人类就觉得机器比人聪明,围棋是因为规则把人类死死束缚住了,而这规则是完全有利于机器的,想要战胜Alphago很简单,稍微改下规则即可,比如把棋盘扩大一倍。面对38*38的棋盘,人类完全不需要重新学习,直接就可以下棋,而AlpahGo彻底懵逼了,能适应38*38的棋盘的AlphaGo不知道啥时候才能训练出来。
人类智力的优势就是面对新事务新问题的时候,只需要很少的训练时间很少的样本就可以掌握解决方案,也许人工智能的神经网络复杂度接近人脑的时候也可以达到,但还很遥远。
目前人类只是把一些已经有明确解决方案的旧问题交给机器去解决,释放人类的时间和精力去解决新问题。
我认为在比较长的一个可预见的未来里面,对人类整体的威胁里面,生化危机都是比人工智能更大的。
失控?现在人类的科技顶天了是一辆时速15公里的碰碰车,再失控能失控到什么水平?
什么时候造出需要一坨聚变堆供电的,一飞车半个澳大利亚都能炸没了的跃迁发动机,然后这帮科学家要在地球上做初步点火试验那才叫失控。
什么时候造出完美虚拟的世界,结果这帮科学家因为party没人请情绪失控决定把所有进去体验的人类都意识上传到服务器然后现实躯体毁掉再拉服务器电闸那才叫失控。
与其担心科技失控,倒不如担心精力分散和内斗太严重,这也干不出来那也干不出来,最后活活困死在太阳系第三行星上。
人类被机器人取代?那我们自己变成电子生化人就是了。
连他妈自己的基因都不敢动,不敢和自己的造物融合的种族,有什么资格迈向宇宙?还是死在这个鸟不拉屎的星球上不要出去丢人现眼的好。