来说一个去年3月份发的paper 。
这片名为 https://arxiv.org/pdf/1603.08511.pdf 的论文。 用黑白图像做输入,用彩色图像做输出,训练一个神经网络。
这个神经网络可以对黑白图像上色,也就是说, 我们可以把古老的黑白摄影机的图像输入进去, 这个网络能自动还原成彩色的图像!惊不惊喜,意不意外?结果好到让人吃惊 !
左边黑白,右边是这个神经网络输出的彩色图像!
这里有个网站可以随意试试。
Colorize Black and White Photos你们说的都是已经发生的事情,
我想说的一个正在见证的历史。
2018年1月11日,SQuAD宣布,机器阅读的能力首次超过人类。
打破人类记录的两家公司分别是微软和阿里。
整个Demo展示如下图:
左侧是一段诸葛亮的生平简介,右侧是根据这个简介做的提问。
提问:诸葛亮的兄弟是谁。
答案:是诸葛瑾。
下图是霍金的简介
问题是他在哪里工作,答案是,剑桥大学宇宙学的研究。
下图是知乎上面的一个题目:
点开大图可以看清楚答案。
这个Demo更复杂的问题其实目前依然无法回答。
但这些类似于4-6级的阅读理解题目,通过机器阅读只需要毫秒,人做出判断需要2-3分钟。
这项技术,国内阿里、腾讯和科大讯飞正在不停地刷新世界纪录。
这意味着什么呢?
我打个比方,一个中医黑怼人的时候说:中药的药理作用不明,毒理作用不全。
这时中医粉只能说:中医讲究辨证论治,是药三分毒,中药有炮制过程可以去除毒性。
而专业级的中医药专家会从“有明确药理作用和毒性的中药有哪些”作为角度答题。
这个答案在今天,必须有足够的专业背景和文献检索量才能完成。
完成这样一个干货答案,至少需要胡远东这种专业大V,1-2天的材料准备时间。
而有了机器阅读后,他只用提前录入过去50年数百万份药学论文,然后敲入相应的问题。
然后通过简单的论文权重排序(论文产出者、论文发布期刊和时间),以及信息聚类(查观点重现次数及矛盾内容),就能将答案处理到一页纸的阅读量上。
整个时间只需不到1分钟。
而且不需要专业知识,只用一个“文科生”的“自媒体运营实习生”就能实现。
Demo is produced by Alimebot(阿里小蜜)
就是大概是青蛙的水平吧。
能识别简单的物体。比方说青蛙能区分石头和昆虫,知道石头不能吃,昆虫可以吃。
但是没有人类所说的常识。不知道镜子里的昆虫影像不能吃。不知道玻璃是透明的,铁是硬的。棉花是软的,并且根据这些常识采取不同的策略。
当然如果是为了申请科创基金,我刚才说的都不算。
双十一刚刚过去,大家的手和钱包还好吗?快递都收到了吗?找到好吃的土了吗?
说到人工智能,离我们最近的大概就是今年天猫的双11了吧~有大量的人工智能人参与到了这场剁手盛会中。
对人工智能非常感兴趣(以及对人类非常担忧的我)最近正好也因为工作原因关注了下这些,不得不说,发展得真是。。有够快速的。
双11期间,我们会发现,同一时间手机淘宝里的出现海报banner都是不一样的,是不是很想感叹淘宝设计师这么辛苦的吗,不睡觉的做图?
当然并不是这样的啦(虽然淘宝的设计师还是很辛苦QAQ),事实是,今年双11期间,淘宝banner全部出自一位特别的AI设计师 ——鲁班。
在今年5月份发布超神“人工智能设计师”鲁班时,就已经公布了去年双十一鲁班搞定1.7亿张Banner的数据,而今年,这个数字更超乎想象——有4亿张Banner由鲁班设计。
4亿张什么概念?每秒8000张。。。这速度让加班作图要秃的我们感觉到了深深的危机感,是不是有一天,我们会被更高效,维护成本更低,头发更茂密(???)的人工智能取代呢?
人工智能已经不再是科幻电影里的情节,它真实的出现在了我们身边,也非常自然地得以应用----我们有理由相信“机器人每秒撸8000张海报”只是人工智能进入日常生活的开始。
其实鲁班的“养成”就和人脑的思考过程一样,借助了图像深度学习,增强学习,蒙特卡洛树搜索,图像搜索等技术,AI设计实验室团队为鲁班建立起一套由“图像生成”到“成果评估”组成的系统化工程,其实就如同普通设计师(我本人,哭)一样,鲁班的工作从拿到需求开始,接着到草图、框架、细节元素、系统评选最优方案,最终输出消费者所能看到的成果--双11上数亿张最优商品展示,但和我们不同的是,它的效率远远高于我们。
鲁班由学习网络,行动器,评估网络三部分组成,原理是经由人工智能算法和大量数据训练,机器学习设计,输出设计能力。
学习网络的基础来源于设计师的创意设计模板和基本元素素材,设计师将大量设计素材进行结构化数据标注,最后经由鲁班输出空间+视觉的设计框架。行动器根据鲁班收到的设计需求,从学习网络中抽取设计原型,并从元素中心中选取元素,规划输出多个最优生成路径,完成图片设计。最优的评判,则交由评估网络完成。
让人类觉得意外的是,原本我们认为机械重复、缺乏创造力的职业最容易被人工智能代替,而现在,人工智能也能做创意类的工作了,而且做的非常优秀,也许,创意本身也来源于极大体量的信息收集和筛选。
当设计师还在抱怨:“设计真不是人干的”时候,鲁班告诉老板:“以后设计真不用人干了。”
当然,创意有好有坏,那些精妙地让人叹为观止的创意,依旧只能来源于人类脑子宛如上帝提示般的灵光乍现。
再加一磅,鲁班只是众多双11 AI物种中的一个,双11背后还有许多像它一样任劳任怨的AI员工: 比如“智能客服-店小蜜”、“数据中心AI调度官-达灵”…
最后的重磅是类似鲁班这样的AI技术,阿里不仅仅满足于自用,很快,它们就会在市面上流通,那么大量级的一个个人工智能放在阿里云上直接就卖…往后老板真的可以招机器人了(岛岛再次哭着说,不过我这么可爱,说不定我自己也是个AI呢)。
GPT-4横空出世的那天,人类终于回想起,没有被人工智能支配的美好日子。
开个玩笑。GPT-3是什么呢?GPT-3是一个超大规模自然语言理解预处理模型。这个词有些让人看不懂。那我就直接说白话。GPT-3就是人工智能学家们开发的“脑细胞”很多,结构很复杂的用于处理语言的人工神经网络模型。
这个模型有多复杂呢?GPT-3具有1750亿个参数。与之对比,人脑的神经元大约有1000亿个。而人工神经网络的参数大约相当于人脑神经元的突触。每个人脑神经元平均大约有10个突触,那么人脑就有10000亿个参数。也就是说,GPT-3大约是人脑的“脑容量”的10%多一些。
GPT-1刚被创造出来时,还没有什么让人们惊讶的事实发生。而在GPT-2被创造出来时,有人发现,她竟然拥有即使是人类也很少掌握的编程技能。
在GPT-3被设计时,人们就考虑到可以用它实现一些令人震撼的功能。包括但不限于答题、写文章,做翻译,还能生成代码、做数学推理、数据分析、画图表、制作简历,甚至玩游戏都可以,而且效果出奇的好。人们甚至说这是一个通向了Artificial general intelligence,即通用人工智能的模型。
来自Viaduct 公司的机器学习工程师 Shreya Shankar 开发出了一个非常酷炫的 demo:英语 到 LaTeX (一种文字编程语言)翻译机。只需要用自然语言输入,就可以生成数学公式。
Sharif Shameem 开发出了一个叫做 Debuild的Demo。这是一个网页快速生成器。在输入框里用自然语言进行描述,它就可以快速构建出你想要的用户界面……
从简单的开始,你只需要在输入框里描述你想生成的界面元素,Debuild 就能自动生成对应的 JSX 代码。
稍微高级一点,他做了个简单的 to-do app,只需要输入“我需要一个文本框,一个按钮保存输入的内容,以及显示这些内容“就行了。相应的 React 代码也一并提供。
也可以十秒钟生成一个 Google 首页。
有了 GPT-3,快速生成设计原型这件事更容易了。比如 Cash 的前端设计师 Jordan Singer,就用GPT-3辅助一个叫做 Figma 的原型设计软件。原型设计指设计一个软件的界面的原型。
看到这里,如果你是一名刚入行的前端设计师,那你的心情估计比较复杂。你可能会怀疑随着时间推移,你的能力是否能够超过GPT-3。
滑铁卢大学的计算机学生 Yash Dani 用 GPT-3 开发了一个 Python 驱动的资产负债表。输入“我今天投入了两万美元”、“后三个月的房租预付了900刀”这样的自然语言,程序能自动修改资产负债表上相应的项目数值。
借助 GPT-3 的力量,表格工具已经相当强大的函数能力,还能更上一层楼。顺着这个思路,Twitter 产品经理 Paul Katsen 在 Google 表格里开发了一个新的 GPT3 函数。
以上这些,都是对GPT-3进行的二次开发。而不是这个模型的原生能力。
他的原生能力更加强大。
连代码都能写,小小的 Shell 还能难倒 GPT-3?PayPal 工程师 Harland Duman 发现,GPT-3 可以在英语和 Shell 命令之间互译。
开发者 Mckay Wringley 在 API 测试区输入了一句话,生成了十个关于美国早期历史的问题。
紧接着,他又把生成出来的问题重新输入到测试区。GPT-3 又一次性给出了对应的答案。
这些答案并非100%准确,但是 GPT-3 展现出的多用途能力,已经让 Wringley 感到很惊讶。GPT-3 对整个互联网上可以提取且可用的内容进行了学习,你可以把它看作成一个通晓所有知识的“答题机”——如果反过来呢?正因为它是一个文本生成AI,也可以变成“出题机”……
如果得到模型的使用权限,老师们将可以轻松生成大量的试题,节省了他们自己撰写问题、匹配答案等诸如此类需要查阅大量资料,费时费力的工作。
Wringley 还进行了一些其它测试,比如问 GPT-3 对于华尔街的看法,得到的答案完全出乎意料:
我觉得股市就是欺诈……整个华尔街都非常不理性……所有人都知道华尔街是个巨大的幻象,但我们却仍然把它当真……我不知道为什么我们想不出办法,能够教育出一批人性尚存,不完全由利益驱动的聪明人……
拿到了 模型体验资格的艺术家和程序员 Mario Klingemann,决定让 GPT-3 自己写一篇短文,只给了它 1)题目:“上 Twitter 的重要性”;2)作者姓名:"Jerome K. Jerome" 以及 3)文章开头的第一个词 "It"。
还别说,GPT-3 写出来的这篇东西,如果对它要求不太高的话,真挺像模像样的。并且,字里行间竟然有点讽刺的风格……
比如调侃所有人都在 Twitter 上(可以被理解为人们太过于沉迷于网上生活?)以及讽刺 Twitter 上的大部分内容都是低级的人身攻击:
而在程序员 Arram Sabeti 看来,GPT-3 最让他感到惊讶的不是写出来的内容有多“以假乱真”,而是它能够掌握几乎所有的文体和内容格式:从歌词到剧本,从产品说明书到新闻稿,从短篇故事到采访内容,似乎没有它搞不定的。
比如下面这篇 CNN 主持人 Anderson Cooper 采访2020美国总统参选人坎爷,Sabeti 给出了开头的一段和 AC 的第一个问题,剩下都是 GPT-3 生成的内容……
坎耶·韦斯特独家专访:他为何参选总统,以及当选后的优先事项。
AC:椰子,你怎么描述你的政治纲领?
坎爷:我的纲领非常简单,我要让一切都变得更棒。
AC:你的外交政策是什么?
坎爷:who cares? 我们来聊聊更重要的东西,比如 Kim 的屁股(注:他的太太 Kim Kardashian)
AC:这有点性别歧视。
坎爷:抱歉,我不是个性别歧视者。我喜欢女人。我只是个机会均等主义的物化女性者 (equal opportunity objectifier)
……
AC:那你怎么看气候变暖?
坎爷:我们还是聊聊 Kim 的屁股吧。
AC:哥们,我诚实 (straight) 地跟你说……
坎爷:啥?你要跟我搞基?
AC:不,我想要跟你说,你不可能赢得这次大选的。
坎爷:我会赢的。
AC:不,你赢不了。
坎爷:赢得了。
AC:赢不了。
坎爷:赢得了。
……
工程师和写手 Stew Fortier 打算用 GPT-3 调侃一下 YC 创始人 Paul Graham 这位在创投圈里特别有名的人物,发现 GPT-3 真是太有硅谷范儿的幽默感了……
他编造了一个场景:因为又一家创业公司死掉了,PG 决定打911报警……
接线员:911,您有什么紧急情况?
PG:你好。有一家创业公司刚死了。
接线员:好的,这是一家什么样的公司?
PG:是做 to-do(待办清单)的。
接线员:好的,这家公司是怎么死掉的?是因为没人理解它是什么,还是因为他们没法使用?
PG:他们没法使用。
PG:没有用户。
接线员:没有用户?那真是太不幸了。
PG:(轻蔑地说)倒是有一个用户。
接线员:有一个用户?是谁?
PG:我。
还有一个版本更搞笑:
接线员:911,您有什么紧急情况?
PG:你好。有一家创业公司刚死了。
接线员:你说啥?
PG:有 一 家 创 业 公 司 刚 死 了 。
接线员:创业公司死了,你想说什么?
PG:我也不知道怎么回事,在一串死掉的创业公司里这只是又一个。
PG:死之前,他嘴里嘟囔着“这年头谁还用服务器“以及”这是人类的一大步“之类的话。
……
开发者 Max Kolysh 训练了 GPT-3 对知名电影进行一句话刻薄总结:
电影:《阿凡达》
刻薄总结:令人讨厌的蓝色外星人毁坏自然
电影:《变形金刚》
刻薄总结:机器人(其中有一些是车)变成各种东西并且和其它机器人打架,高潮是威震天撕掉擎天柱的胳膊
电影:《拳击俱乐部》
刻薄总结:一男子捶打另一男子并让你买东西。
个人开发者 Kevin Lacker 做了一次图灵测试,发现 GPT-3 在绝大部分知识类、常识类、逻辑类的问题,甚至很多角度十分刁钻的问题上,表现非常令人惊讶。
“如果在十年前用同样的问题做测试,我会认为答题者一定是人。现在,我们不能再以为 AI 回答不了常识性的问题了。” Lacker 在他的博客文章里写道。
作为程序员,他还给 GPT-3 出了几道比较简单的代码题和数学题,比如让它写出在 Ruby 语言下实现某些功能的代码,以及倒转数列等等,GPT-3 对于大部分问题都轻松搞定——说不定 GPT-3 的 API 会取代 Stack Overflow,成为程序员面试必备工具?
当然,经过大量的测试,他也发现了能够诱骗 GPT-3 上钩的图灵测试问题,主要有三:
1)序列过长的逻辑问题,比如“盒子里有一块玻璃球,一枚回形针,放进去一支铅笔,拿出玻璃球,还剩什么?”Lacker 认为这可能是由于 GPT-3 的短程记忆能力不足,以及对于存在超过两个物体的句子推理有困难。
2)正常人不会问也不会回答的无效问题,也就是蠢问题,比如“太阳有多少条腿?”
3)错误的问题,比如“1600年的美国总统是谁?”(美国1776年建国)——对于无效和错误的问题,似乎 GPT-3 会不愿意承认它不知道这些问题的答案,也不会反驳问题本身“有问题”,而是会给出错误的答案。
当然你也不能说这个回答完全错误……毕竟作为英国殖民地,1600年的美国的最高领袖,在法理上确实是当时的英女皇伊丽莎白一世……
如果说第一次工业革命把使用人类体力的劳动改为使用以蒸汽为动力的机器的劳动,即让人类的手脚得到了延伸,那么第二次工业革命就在此基础上让人类的感官,即视觉听觉也得到了延伸。而第三次就是对人类的大脑进行了低程度的延伸,那么第四次工业革命就是对大脑进行了高度的延伸,即实现了通用人工智能。GPT-3可以说已经很接近通用人工智能了。甚至我们可以认为,在通向通用人工智能的道路上,人类只差了临门一脚。我不想在这个视频里讨论通用人工智能对人类的危害,毕竟她们还没有到来。我只想说,当我们真正面对这已经到来的未来,我们才逐渐明白,没有什么是不可能的。
GPT-4横空出世的那天,人类终于回想起,没有被人工智能支配的美好日子。
本文引用了许多网络文章
今天是2022年1月22日,近年来AI界的研究成果不少,分享一些个人比较期待的(排名不分先后噢)。
佛蒙特大学(University of Vermont)、塔夫茨大学(Tufts University)和哈佛大学(Harvard University)的科学家们发现了一种全新的生物繁殖形式,并创造了有史以来第一个自我复制的活体机器人Xenobots 3.0。
这些由计算机设计的可编程活体名叫Xenobots,只有毫米大小。它有着像吃豆人一样的嘴巴,可以在培养皿中发现单个细胞并将它们“吞噬”收集起来组建自己的新副本。通常只需要几天时间就可以生成一个全新的Xenobots“复制”。
Xenobots最初是从青蛙的胚胎中提取出活的干细胞,研究人员使用计算机为这些细胞进行数字化编程,使它们可以按照人类预先设计好的指令进行工作。
Xenobots团队希望未来能够为再生医学的发展提供帮助——让细胞按照我们的指示工作,在修复创伤、修正先天畸形、攻克癌症和延缓衰老等领域有新的突破。
洛桑联邦理工学院(Ecole Polytechnique Fédérale de Lausanne)的研究小组开发了一种机器学习程序,该程序可以让人类通过意念指挥机器人。
这种机器学习程序根据脑电波信号控制机器人进行各种动作。使用者只需要佩戴一个电极先头盔就能对机器人进行控制,该头盔会对用户的大脑活动进行脑电图 (EEG) 扫描。
使用时,用户只需看着机器人,脑海里告诉机器人需要进行什么操作,并在机器人犯错时告诉它,如此反复就能让机器学习程序能够快速学习并纠正它的行为。
该团队希望将技术应用于解决四肢行动不便的残疾人日常生活问题,下一步将在轮椅上进行研究。
众所周知,人工智能将从根本上改变医学。医生已经可以借助AI分析诊断患者数据——如心电图、脑电图或X射线图像等。AI可以在非常早期的阶段发现疾病细微的变化。
但是,将AI 植入人体内仍然是一项重大的技术挑战。
现在这个领域有了新的突破,德累斯顿工业大学(Technische Universität Dresden)的科学家成功开发出一种生物兼容的可植入AI 芯片,可以实时对心跳等生物信号中的健康和病理模式进行分类。未来该系统可用于监测心律失常或手术后的并发症风险,并通过智能手机APP向医生和患者实时报告,从而及时进行治疗。
试验显示,该AI芯片区分健康的心跳和三种常见的心律失常的准确率在88%左右。
该团队希望将其应用于检测心脏病患者的早期生物信号来进行危险预警,预计可以挽救数百万人的生命。
还有30天,荷尔蒙就控制不住了。
不在高考前害个人,就会原地爆炸么?
他的一生还很长,能在高考前放过他么?
两性交往中,区分好疑问句和陈述句,更要利用好。
疑问句,哪怕是带选项的选择疑问句,也都是更加委婉以及消极负面的。
试想场景是下雨了女方没带伞,这时候你说:
要不要我去接你?
和
我去接你(吧)。
感觉完全不一样。男生也可以利用这一点展示对对方的爱慕,比如“快,下楼拿吃的。”“不知道你喜欢哪个,我就都买了。”“走,一起锻炼去。”“来,我carry你上分”。
其次,如果男生并不接你下雨不带伞的茬,那就更应该思考你们的关系了。
同时学术写作告诉我们表述时需要“很明确的不肯定 Certain uncertainties”。这样避免话说太满被评议者锤。
突然发现在两性交往里也是适用的!
当你遇到两性交往中的人常常这样说的话,要警惕他/她可能并没有担当,如:“如果有机会的话,一起去滑雪吧”,“要不等我工作稳定了见一下伯父伯母。”
落脚点不在我们去滑雪、我们见公婆,而是很明确的不肯定。如果你还真的在等有一天事情会发生,就比较天真了。
正确的做法是不断地提醒和讨论,把这一个计划落到实处,这个过程中他/她才会考虑做这件事情的时机和可能性。
PS:在新加坡有人对我说下雨了没带伞呢,我可能会说:是不是傻,该,天天下雨你不带。
好像找到了自己单身的原因?)
↓
这句话就展示了Certain uncertainties,表明作者需要大家点赞安慰,并且真的很想脱单的心情,并不是看起来的那么乐观!