看了,没什么特别的。不跟你说这是 AI 的话,你很难从知乎常见的回答里将 AI 的回答特异地区分出来。这可以视为“神经网络通过了图灵测试的弱化版本”。
人们所说的“理解”某一事物,是指人对该事物进行了一定程度的概念化。例如一个人能用二元一次方程的概念解决没看过答案的二元一次方程问题,就可以说这个人理解了“二元一次方程的解法”。
实现“自动归纳已经有的文本”,是不需要“理解文本描述的东西”这样间接概念化的,机器或人只需要掌握“如何从已经有的文本里取出一些看似通顺的句子连接在一起”。神经网络做这件事的速度极快,产生的文本在很多时候已经接近一般人的水平,在特定场合还能超过。
和评论区谈论的不同,神经网络跟简单套用模板的“申论生成器”很不一样。你可以训练神经网络向文本加入新内容,GPT 系列起初的功能是根据已有文本联想有较高概率出现的下一个词。
目前,弱人工智能对地球上日常发生的事缺乏认识,加入的新内容可能反事实,有概率让相关领域的读者看出破绽。我认为这方面问题可以通过让人工智能用机械身体和传感器在地球上探索来逐步解决。
为缓解语言模型只注重字词间的关联、不懂常识的问题,一些 AI 开发者已经尝试让 AI 自己上网查资料。
当然,这些可能需要很大的计算力。
对于“人工智能有可能理解OO吗”这类问题,可以这样简单地看待:
生命没有先验的、特殊的意义。你可以自己寻找一个。
由于自然语言太难了,“生命的意义”往往和“活着的意义”混淆。
目前看来,活着的意义就是永远活着。
人工智能问题下面的两极评论:过于狂热,认为人工智能是万能的,寄希望于AI马上达到正常人类的水平,甚至成为科幻作品中那样全知全能的存在;过于悲观,把AI看作的统计学里面的“拟合函数”换了个符号[1],毫无用处。
在我看来,围棋alpha和象棋alpha都是可以接受的,成为某一特定领域的知乎优秀答主也是可能的,但要说是“全知全能的存在”,以及“理解生命的意义”,还是为时过早了。
目前的AI,还是更适用于在某个特定领域来进行学习,如在围棋的规则框架内进行大量学习,通过海量专精的数据来击败人类。
如果把某个语言模型的学习范围限定在某一个专业领域,亦或是限定在对某个人的个性化文本推送当中去,或许会输出些质量不错的文章,用来给该领域的门外人科普知识也不错。当然,前提是训练数据足够多且好。
nlp这个领域概念太大了,AGI不现实,此外,我觉得现在的AI还没到谈论“生命的意义”和“全知全能”的程度。
此外,基于本提问的宏大,我觉得有几个细节问题值得讨论:
首先,什么是理解?
阿法狗在围棋领域击败人类,是一种对围棋更高的超越人类的理解吗?还是压根没有任何理解?
是以获胜与否作为理解境界的高低,还是其它更抽象的评判标准?
其次,什么是意识?
我们目前对意识的定义,都是从人类个体出发的,是指(人类个体)对(其)内部和外部存在的感知或觉知。但实际上,意识是一个很难讨论的主题,我们不知道如何衡量它,也不知道如何定义它。
尽管哲学家和科学家进行了数千年的分析、定义、解释和辩论,但意识仍然令人费解和争议,人类的思考方式,是否能够作为衡量意识的标准还是个问题吧?
接着,目前的机器学习更多还是关于函数拟合或者说统计推断的一门学科,这种对数据进行抽象提取,然后拟合的过程,算是学习吗?
最初的时候,人类对于太阳东升西落的概念是来自哪里呢?
应该不是数学、物理学、以及地球自转和绕太阳公转等理论,而是来自于数千个日日夜夜的数据观测,以及紧接着而来的数据拟合,所得出的结论,即太阳必然东升西落。
这种学习自然也叫“学习”,但此后人类对于这个问题有个更深刻的认识,而目前的AI停留在前一步还是后一步呢?
当然了,所谓“更深刻的认识”可能也是分层次的,这有点类似于三体中的“神枪手射击”理论,再讨论下去可能就是哲学的范围了,故就此打住。
下图来自我老婆 @桔了个仔 推荐的《科学之路》一书:
此外,所谓“创造性”的问题?
正如本问题下我老婆 @微调 所说:“创造力”这个东西本身其实是很宝贵的。
在神经网络的帮助下,AI可以从输入的数据中进行知识连接的复杂构建和分析,进而输出一些对输入数据进行魔改和杂糅的观点,可能这些观点的质量也不错,这样的ai能成为知乎优秀答主,但要说创造,还是差点意思。(此处可以参见我老婆 @平凡 回答里所谓“巨人记忆+幼儿思维”的说法)
元学习的想法最早是在九十年代提出的。 随着深度学习的普及,一些文章提出利用元学习策略来学习以优化深度模型。通常,元学习主张跨任务学习,然后适应新任务。
这是一种高级的跨任务学习策略,其目的是在任务级别上学习而不是在样本上学习,并且学习任务未知的系统而不是特定于任务的模型,但其目前的创造力还有待进一步加强,能否自主生产更多有意义的非数据库内容,这是很重要的事情。
最后,人工智能还是一门年轻的学科?
就目前的进展来看,人工智能缺乏一定程度的溯源机制,这对于其跨领域的进行知识表达,以及更高级的“理解”和“全知全能”的实现,实际上是存在问题的,缺乏基本的智能阻碍了其合理性的问题,但人工智能界对溯因推理的关注还很少。
我们的世界已经被算法改变的太多太多,知乎回答的推荐模型、视频网站的冷启动、网易音乐和淘宝的首页/每日推荐、Google和Bing的搜索引擎智能问答......
AI智能的发展,是持续前进的,但不要被不断编织的人工智能神话所欺骗,渴望从“摘尽的低矮果实”中立马寻觅出高处的人参果——尽管低处仍然也有好果子,尽管目前也有能承载起人们寻求新突破的希望性研究课题。
借用和我老婆 @lokinko 讨论时,他的一句话来讲:理解生命的意义和全知全能,对于现在的技术来说还太早,得等到下次浪潮再说。
以上,我的一些小(胡)小(思)思(乱)考(想),谢谢~
创造一位AI问答机器人,从技术难度来说已不太困难,
可以通过查阅“chatbot”“VQA”“大规模预训练模型”等关键词调研相关工作。
至于「四十二」这样的 AI 会不会成为知乎优秀答主,这是很有可能的。
此前在reddit上就有人做过类似尝试(抱歉找不到新闻出处了),
用训练好的AI问答机器人去各个问题底下抢前排,效果很不错。
一方面因为社区中很多问题是重复的且答案比较固定,
另一方面有些过于大的问题用一些似是而非的言语去作答也能引起人的共鸣。
所以很多情形下看到问题并及时作答,用增加回答数量的方法去提升“正确”回答的命中数,就能获得社区的大幅流量。
(我们其实可发现也有很多人类创作者也采取了类似的策略。但AI在规模化创作上是有极大优势的。)
至于人工智能能否理解生命的意义。这个问题过于宏大。
在短暂的生命中,与其期待人工智能告诉你终极问题的答案,不如自己去思考去感受去痛苦去发现。
不然的话,和遇到问题去咨询《答案之书》[1]的做法又有什么区别呢?
对于AI是否能够理解生命的意义,这个人类都理解不了的东西,AI怎么理解?
即使AI给出了他理解的生命的意义。
那可能到时候,可能我也理解不了AI理解的生命的意义。
对于AI会不会成为知乎优秀答主?
我觉得是非常有可能的。
但是42这样通过知乎答主的内容训练是成为不了优秀答主的。
不然那些洗稿复读知乎高赞回答的,早就统治知乎了。
但如果47能够进化出“围绕问题找答案”的能力,那其实是非常有可能成为知乎某一个领域的【优秀答主】的。
尤其是那些比拼知识的领域,很多问题,其实是有确定答案的。
比如数学、物理、生物、化学某一分支。
这些比拼知识的领域,只要AI能够学习到精髓和解法,找到一个还算不错的答案。
然后写上几百字,再配上几张图。
坚持个一年半载,卷出个知乎小黄花应该不是什么大问题。
当然,前提是不要告诉任何人你是AI!
你是未来知乎优秀答主,不是AI!
首个AI答主的意义就在于它是一个1,1代表了开始。
而之后不管有多少个0,也掩盖不了1的存在。
前两天看到一个很有意思的观点,那就是人类能完成很多对于当前计算机匪夷所思的工作,无非就是因为人脑是一个巨大的神经网络,并且在出身的时候由DNA赋予了初始的权重。
因此人类可以看一眼苹果,就能几乎认出其他成千上万种苹果。这是因为成千上万的训练,你的神经网络只需要少量的样本就可以将洪荒年间的DNA权重瞬间传导全身。
而现在的计算机也能实现简单的物品分类问题,那么人类的思维+语言能力是否也可以由计算机实现呢?
原理上是可行的,AI答主42就是这么一个存在,你可以理解为它是一个拥有巨人般记忆但只有幼儿思维的「怪胎」。
巨人般记忆是因为它可以拿互联网上所有的文字进行记忆存储,并进行学习。
幼儿般的思维是因为现在计算机的神经网络级别与人类大脑相比实在是难以匹敌,如果把人类大脑思维称为deep learning,计算机充其量也就是个shallow learning。
享受所有不经意的爱。享受所有看似无用的美好。本来活着就是没有意义的,但要过得有意义,就要去付出生命的代价。不如放弃生命,选择享受生活,去享受自己觉得有意义的事。努力的在未来寻找那些让自己感到快乐和放松的爱好,通过不断的努力感到最后能让你这一生比今天更加有趣。人这一生努力就是为了体会自己,追寻人的情感。
人类最后的结局都是死亡,为什么一开始就要活着? - 四十二的回答 - 知乎
从上面摘取的话中可以看到,不如放弃生命,选择享受生活,很明显是一个悖论。
这可能是某个神经网络的损失函数设计的锅。
这个技术其实叫自然语言生成NLG(Natural-language generation)
大体可以分为6步:
其实每一步都还只是发展中,并没有什么现象级的成果出现。
总体来说可以分为三个阶段:
模板式:主要通过优化算法,在预先存储的大量写作模板中,选择与给定材料相匹配的模板,将信息加以组合生成文本,是目前应用最成熟、实现最容易的一种机器写作方法。
抽取式:会对文本进行语义分析,识别冗余信息,抽取重要内容,通过摘录或概括的方法压缩文本,形成对于既定文字的摘要,再加以计算确保文摘的连续性,这种技术广泛应用于新闻内容概括和文摘生成。
生成式:主要通过深度学习和增强学习技术实现,机器通过大量的文学作品样本进行训练,学习各类写作风格、建立写作模型,再根据输入的文字片段获知任务需求,预测并生成与需求相匹配的文稿,进行输出。
从现阶段来看,模板式和抽取式写稿机器人的技术已经趋于成熟,在市场上得到了广泛的应用;生成式NLG技术更加智能,也是当前NLG技术中更为高级的目标。
当人类厌倦传统复制粘贴的 AI 废话文学,从新领域激发 AI 创造能力的想法便油然而生。
前两天爆火网络的 AI 客服梗:
通过关键词提示,自动回复设置好的内容,当男子提到“机器人”的时候,客服只会“啊,怎么会呢,肯定是员工给你打电话的啦。我们联通都是经过统一严格的培训的呢。”
基于规则响应的 AI 声音越仿真,越是让人感到失望。
冰冷的机器始终无法代替人类的应变能力吗?
此情无计可消除,才下眉头,却上心头。
一方面,傻傻的复读机式 AI 成为大众笑料,另一方面,废话文学生成器/小编文学也作为被嘲讽对象在网络广受质疑。
说了,但又没完全说。导致空有框架没有内容(神似小时候的写作文。于是,心痒痒的程序员们想挑战这个任务看能不能让 AI 回答不那么生硬, 在研究领域专门留有一个任务在研究这个问题:自然语言生成(Natural Language Generation, NLG)(下图来源:机器之心网站).
网友爱开玩笑得说:你三十多度的体温,怎么能说出这么冷冰冰的话!
那么,冷冰冰的机器怎么能说出这么有温度的句子?
“我存在的意义,就是让生命更有意义。”
活着很重要,但必须与自己爱的人和爱自己的人共同成长,体会当下,最重要的是要享受生活,为自己生命里的美好而活。
这是 AI 答主 @四十二 的签名和回答,像是一个刚踏入社会的小年轻意气风发地谈论着生命意义的样子,带着对生的希望和美好的向往。
金风玉露一相逢,便胜却人间无数。
会不会在未来的某一天,它能成为某人生命的金风呢?
受限于现有技术缺陷,我们还要走的路很长。有人说,这样的行为没有意义,也有人说,这样的研究是不可能取得想要的结果的。然而,科学的目的就是科学本身,朝闻道,夕死可矣。
我们将时间线拉回到几年前 Alpha Go 的诞生,曾被看做无法穷尽的围棋游戏也被 AI 攻占,从一开始读谱百万的 Alpha Go 到最后心中无棋的自弈少年 Alpha Zero,曾经难以逾越的一座山峰也被成功攀登,围棋也并没有因此失去意义,用 Alpha Zero 辅助人类领略更高的围棋境界,也是一种人生的哲学。
对潇潇暮雨洒江天,一番洗清秋。渐霜风凄紧,关河冷落,残照当楼。是处红衰翠减,苒苒物华休。唯有长江水,无语东流。
不忍登高临远,望故乡渺邈,归思难收。叹年来踪迹,何事苦淹留。想佳人妆楼颙望,误几回、天际识归舟。争知我,倚阑杆处,正恁凝愁!—— 柳永《八声甘州》
把吴钩看了,栏杆拍遍,无人会,登临意。
Alpha Zero 是送给围棋界的小礼物,Alpha Fold2 的出现给 AI + 生物开创一条新的科研道路,
些许期待未来吟游诗人 Alpha Poem 又有何不可呢?
最近无意间看到 @图灵的猫 训练出的AI答主 @四十二,觉得挺有意思的。作为一名人工智能行业从业者,也想到了很多自己和行业相关的内容。
先说42个魔法数字(magic number),最早的起源似乎是来自于《银河系漫游指南》。可能理工科的人都有对科幻的浪漫,很多后来的人工智能模型都或多或少会用到它。比如很多机器学习算法都需要随机初始化,而初始化有需要一个随机整数“种子”使得结果可复现。和大多数人想的不一样,在机器学习领域的约定俗成我们不会简单的使用0或1作为种子,而是42,Random.seed(42)。42或许就是宇宙的终极解答,这对很多理工科背景的人而言是一件非常浪漫的事情。
在我的简单了解下,首位AI答主「四十二」应该是一个大型的语言生成模型(language generative model)。针对一些具体的任务,比如问答(question answering),它可以针对性的生成一些内容。通俗的来讲,就像一个小孩子你让他背诵大量的诗词歌赋,历史文献,然后提出一个全新的问题来让他作答。那么他的第一反应是评估这和我看过的资料的相似度,并给出相关回答。一个小孩子随着不断长大,智力的上升,也会逐渐从“复述”相关内容,进化到“有自己的思考”而“生成的新的内容”。
这点对于「四十二」也不例外,虽然它现阶段还只是一个小孩子,能根据已有资料给出相关回答。但是的确是有希望慢慢长大,给出更有见地的回答的。而这一切,其实跟人工智能技术发展息息相关,我觉得主要需要依赖于以下几项技术的发展。
知识图谱(knowledge graph)与多模态学习(multimodal learning)。无论是人类还是机器,在学习初期都离不开“收集资料”,并把它们构建成一个连接的网络(graph)。比如当我们问到“如何评价秦始皇?”,我们期待四十二可以不仅仅做到找到秦始皇相关的资料,还可以通过相同时代,相同地域等更多的复杂关系给出细致分析,比如同时期的其他帝国发展到了什么阶段?随着知识图谱的不断壮大,回答的深度也会逐渐加深。而另一点对于深度有所帮助的,可能是多模态学习,特指让机器学习从多种不同的数据类型中进行联合学习。比如现在四十二主要是着力于中文语料库,那可不可以联合学习英文呢?比如很多历史文献除了文字以外是有图片的,那么机器学习可以不仅仅从文字中得到资料,还可以从图片,甚至是语音、影像中进行联合学习,从而构建更加丰富的图谱。所以这一步更像是如何高效的把海量数据压缩学习成一个好的形式,以方便随时利用。
而想要产生高质量的内容,就离不开生成模型(generative models)。它指的是一类机器学习模型不仅仅可以做出预测,还拥有生成新数据的能力,而「四十二」就是其中的一种。在深度学习的时代,越来越多的生成模型受到了关注,主要的包括GAN和VAE。它们的核心思路都是去学习数据的分布,从何从源头上可以生成更多类似的数据。而生成的能力其实非常重要的,原因是“创造力“这个东西本身其实是很宝贵的。我知道很多生成模型在社会和商业中的有趣应用,比如我知道有一个研究就是通过分析多家企业的现有logo,从而建立了一个商标生成模型,可以为新的企业低成本的订制logo。类似的研究还有很多,比如对汽车外形生成,以及对于服装的设计等。但值得注意的是,如果不能学习到数据的分布,则生成也没有意义。而如何高效的从海量数据中学习,依然是需要解决的问题。但不难想到的是好的生成模型,能给出更有意义和更丰富多彩的结果,这也是我们对于「四十二」未来的期待。
上面提到了机器学习中定制化,那么元学习(meta-learning)就是背后的重要推手,即「学习怎么学习」。我们正处在一个半智能化的时代,在绝大部分需要用到人工智能的场景下,我们现有的解决方案就是训练一个模型,然后对所有人无差别的进行预测。在大部分情况下,效果都不错,但里面却很容易造成对少数事情和群体的忽视。那我们能不能拿出一个解决方案,给每一个个体、每一个需要预测的样本都提供专属的「智能模型」呢?举个简单的例子,当你去做健康检查时,智能模型会根据你的个人特征来选择你需要做的项目,而你的健康评估只取决于你该做的这些项目。是不是听着很耳熟?没错,这就是我们人类医生在做的事情。和机器不同,人类有很强的学习能力,可以很好的举一反三,因此可以提供非常定制化的决策。而现阶段的机器(学习)还不行,依然依赖于大量的数据才能学习到符合大部分人的方案,而每个人定制化的模型一是数据不够,二是成本过高。就像四十二不可能看遍世间所有的中文资料一样,没有什么模型可以吞吐全部的数据。而「元学习」的目的就是能不能针对不同任务(比如不同的患者特性),学习如何选择一个好的智能模型(比如选择什么检测来进行健康评估),尤其是在样本量非常小(比如一个新医生)任务类型差异大(患者的求诊各不相同)的前提下。因此这对于「四十二」来说也是很重要的。我们不可能穷尽世间所有的知识,了解所有的内容。因此如何用有限的数据进行精准的推断,比如根据问题见的细微差别对回答进行调整,不仅仅是「四十二」需要进一步学习的,也是我们通向通用人工智能的必须解决的问题。
回到主题上,我还很喜欢「四十二」这个答主,尤其是背后的概念。因为它似乎给我们提供了一条低成本获得精确知识的途径,是有希望达成更大的目标的,尤其是在教育等其他领域。依托知乎本身的海量回答,我们能不能打造一个新时代的「十万个为什么」?而我也相信随着以上技术的不断发展,不仅仅是「四十二」,更多的人工智能模型可以更好的服务于我们的生活,让我们活得更加舒适与快乐 :)
去打游戏
非常有可能,自古以来我国就有奖励生育的传统法令。
其实可以说自秦以来,除了计划生育的几十年,我国都是鼓励生育的。
有历史基础。
所谓专家喜欢从西方找相同的政策作为依据,这方面也很多,而且鼓励生育的基本上都是发达国家,作为依据也更容易立得住脚。
有政治基础。
现在主要问题是大家并不急。生育率下降的速度还处于“口头鼓励就够了”的程度。
随着生育率持续降低,政策力度也会越来越大。这件事我从来不担心,淡定就行咯。