百科问答小站 logo
百科问答小站 font logo



如何看待生活中经常出现「人工智能翻车」的情况,目前人工智能技术究竟发展到什么程度了? 第1页

  

user avatar   zhi-an-ju-38 网友的相关建议: 
      

谢邀,关于人工智能的讨论越来越多,好事,知安君举双手赞成。

早在2016年,就有《英国每日邮报》搬出资深天文学家塞斯-肖斯塔克(Seth Shostak)的言论,称“新人类”和人工智能将取代现有人类。这位天文学家对人工智能的断言被广为传播,在很多人心中种下了对人工智能的恐慌和怀疑--算法是大恶之徒,总有一天要倾覆人类社会。

有人恐惧,就有人崇拜。近日“元宇宙“一词频上热搜,人们仿佛看到了无限商机和美好。作为“元宇宙”最重要的基础设施人工智能技术,人们也对它赋予了无限期待,于是“算法翻车”这类事情格外让人关注。

真实人工智能技术究竟发展到什么程度了,知安君和小伙伴们呕心沥血制作来一条视频,来看看专家怎么说。


user avatar   huangzhe 网友的相关建议: 
      

人工智能为啥会翻车?

我认为有几个因素

1. 解释性低

只要人工智能的可解释性度低的问题还存在,那么AI翻车的概率就不会降到0。

当然,这不是否定目前人工智能进展的意思,毕竟人也是会犯糊涂的,而且人工智能在有些领域做得比人糊涂概率还低,例如alpha go比人类顶级选手还厉害。

例如去年六月特斯拉的AutoPilot就出问题了,据新闻说因为货车车顶反白光,让AutoPilot摄像头产生致盲反应。但这也是交通事故发生后,特斯拉根据事故过程推断的,而不是AI告诉你的,AI不会告诉你,“我之所以撞上去,是因为大意了,没有闪。”


2. 不讲武德的推理

虽然很多公司在人脸识别上做得准确率非常高,几乎不会认错人,但有的识别系统只知道谁是谁,并不能力理解其形态。

傻子都能“知道”。关键在于“理解”。—— 阿尔伯特·爱因斯坦

在我一篇被知乎日报收录的回答里(人工智能的水平较低是因为数据库不足和运算处理速度不够吗?),举了几个AI翻车的例子

例如抓拍行人闯红灯的系统,只知道当下状态是红灯,这时候镜头前有个董明珠(的图),结果就直接认为董明珠穿红灯了。而正常人是不会做出这种不合理的“推理”的。

同样的,赵雅芝也遇到了。

虽然这次检测对了,这次是真的人而不是印在公交车的图片。但这违法原因有点不讲武德了。


3. 使用的训练数据不合理

而现在的人工智能,主要是靠机器学习这一波浪潮撑起来的。而机器学习,有个漫画讲得有点道理(虽然不完全对)

但由于数据本身很难做到全覆盖,很难分布合理。

数据系统的歧视会导致算法歧视。“人类文化是存在偏见的,作为与人类社会同构的大数据,也必然包含着根深蒂固的偏见,而大数据算法仅仅是把这种歧视文化归纳出来而已。”(张玉宏&秦志光&肖乐,2017)[1]

例如谷歌图像识别算法曾将黑色人种的图片自动添加“大猩猩”的标签。

然而当时谷歌解决这一争议的方式是直接把大猩猩这个类别从训练数据中移去了。也许谷歌后面想了其他办法补救,不然为了弥补一些数据歧视而带来新的数据歧视。我刚刚尝试了传一张大猩猩的图上去,确实不会直接被标记为gorilla(当然可能是我测试得不够多)。

当从中可以看到,很多时候,由于你很难完全理解你的数据是否合理,很难完全理解模型推理的过程,所以只能等AI翻车后才能补救。


4. 神经网络的灾难性遗忘

你一个神经网络可以有几百亿个神经元,但如果你这个神经网络要完成多项任务,就会有灾难性遗忘[2]。如下图,横轴是旧任务的error,纵轴是新任务的error,他们要么有一个很高,要么两个都很高,很难做到两个任务error同时低。

如果想要两个任务都能表现得好,那么着两个任务需要是相近的任务。


现在最强的人工智能是否能不翻车?

这些年,巨量模型成为研究热门方向,从BERT开始到现在,参数从亿级,发展到十亿,百亿,千亿级。例如2020年1750亿参数的GPT-3,今年5300亿参数的MT-NLG等等,都表现出了无与伦比的语言理解和语言生成能力。

不过,如果上面提到的几个问题未能解决,那参数再多,看起来再聪明,也是有翻车的可能性的。例如GPT-3,媒体报道的对话能力是这样的,看起来不错吧?

问:你最喜欢的动物是什么?
答:我最喜欢的动物是狗。
问:为什么?
答:因为狗既忠诚又友好。
问:狗狗心情不好的两个原因是什么?
答:狗狗心情不好有两个原因,一是饿了,二是天热了。

但现在的人显然做太简单的测试。例如问GPT-3一些傻问题,发现它并不能识别这个问题本身有没意义。

问:长颈鹿有多少只眼睛?
答:长颈鹿有两只眼睛。
问:我的脚有多少只眼睛?
答:你的脚有两只眼睛。
问:蜘蛛有多少只眼睛?
答:蜘蛛有八只眼睛。
问:太阳有多少只眼睛?
答:太阳有一只眼睛。
问:一棵草的叶子有多少只眼睛? 答:草叶有一只眼睛。

显然,这时候GPT-3就被人耍了。这种结果没有媒体报道,因为搞不出大新闻。

当然,有人会说,为啥要求人工智能不犯错?人类自己都很难做到不犯错,AI有的领域犯错领域比人还低呢,难道不是比人聪明的表现吗?其实人工智能犯错并不是人类介意的点,人类在意的是:

  1. AI是如何做出这个决定的,是否能做出合理的推理,是否会把关联关系当成因果关系
  2. 犯错后如何去寻找原因,如何弥补防止再次犯同类错
  3. 是否会被愚弄,甚至暴露数据所有者的隐私

随着巨量模型的出现,神经网络的灾难性遗忘影响已经不大了,因为他们数据覆盖得足够广,模型足够大,在zero-shot(零次学习)和few-shot(小样本学习)上面就能表现得足够好;推理能力也在逐渐进步(虽然和人类的推理原理不一样)。然而,可解释性就更差了,翻车后去修补变得更困难了。更让人担忧的是,有的人可以从AI中套出原始数据。

题主不是想知道目前人工智能技术究竟发展到什么程度了吗?现在AI可以帮人写代码了,Github推出了基于GPT-3的写代码AI——Github Copilot。

如果题主想知道目前人工智能技术究竟发展到什么程度了,可以看看我关于Copilot测评,AI已经可以帮你写代码了(虽然仍无法取代程序员)。我之前出过一个视频,这里就不赘述了,感兴趣的读者可以看看。

但Github Copilit印证了人们对与从AI中套出原始数据的担忧,被人爆出「抄袭代码」。例如《雷神之锤3》里有一段很出名的代码

当你在Copilot里打出函数名,Copilot竟然原封不动的给你把那段代码搬来了,甚至连吐槽的注释都复制上了。所以如何防止AI泄露原始数据,保护隐私,依然是个很有研究潜力的问题。

总结

我们对人工智能的期望,不应该是「不翻车」,而是「翻车」后能迅速找到原因,迅速修补,从而不再犯同样的错误。但AI由于运作原理和人不同,越强大的AI,解释性越弱,翻车后如何修复AI,成为了一门艺术。

参考

  1. ^ ]张玉宏,秦志光,肖乐.大数据算法的歧视本质[J].自然辩证法研究,2017,33(05):81-86.
  2. ^An Empirical Investigation of Catastrophic Forgetting in Gradient-Based Neural Networks  https://arxiv.org/pdf/1312.6211.pdf

user avatar   li-li-an-0730 网友的相关建议: 
      

前两天特斯拉宕机,马斯克罕见的道歉:

推特网红马斯克在被用户大吐苦水的推文圈出之后,亲自上场当了一回客服,表示“正在检查”。随即又跟进,说“现在应该已经恢复了。看起来我们可能是因为配置错误导致网络流量过载。非常抱歉,我们将采取措施确保此类事件不再发生。”

马斯克向来对于自己家产品表现出超乎寻常的自信,对于负面新闻多数也是强势应对,这次居然道歉了,属实不易。

人工智能这个概念大家都不陌生,是用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的科学,是计算机科学的一个分支,目的是为了做出一种新的能够以人类智能相似的方式做出反应的智能机器。

人工智能本质是想创造一种接近人类智能的机器人,可以模拟人类的思考和工作模式,当然也可能超过人类的智能,为人类服务。类似于科幻神剧西部世界中的那种人工智能hosts,以人类目前的技术还很难达到,但是从剧中我们也能了解到,即使科技发展到可以造出仿生人,也还是会有bug出现。

人工智能翻车和普通产品翻车并无二致,我的Siri也时常不搭理我,要不就是听不懂我在说什么,嘿嘿。

不仅是机器会出现故障,人体也会出现故障(疾病),这些都是不可避免。

生物进化用错误塑造了地球上一切生命,同样,人工智能也需要在不断的试错中前进。


user avatar   kevin-zhang 网友的相关建议: 
      

个人觉得法律责任与贫富无关,家庭条件不好不能作为挡箭牌。

我觉得这个事最大的问题在于会让一些人钻空子。

可能对于这个孩子确实是无心的,不是有什么仇恨的心理,纯粹是为了好玩,但是这样不公平的对待,

有钱就赔偿,没钱就原谅的对待方式,只会导致一些处心积虑的人钻空子。




万一,有些人就是仇富,就是刚好自己贫穷,发现有可以免于责罚的方式,又可以宣泄自己的愤怒,也去用油漆泼洒呢?

事发后,可以装作无辜的样子,贫穷的样子,是否可以免于责罚呢?

当一个人因贫穷免于责罚时,我认为车主可能是“善良”,但衍生出来可能滋生的是一些图谋不轨的人。被利用,从而达到自己的目的。

因为这么做本就存在不公平,法律面前人人平等确实不是一句空话。

有人有幸免于处罚,就容易让部分人钻到空子。不应该因为穷就可以免于法律知外。




我觉得他虽然是小孩,但是不损害他人利益,乱碰他人东西的简单道理应该是懂的。并不是无知。

如果免于责罚,其实某种程度上,只会让他意识不到事情的严重性,对他的教育而言也许也并非是件好事。

责罚的目的在于吸取教训。做错了事,需要承担一定的代价。



孩子未成年,家长作为监护人,应当为其负起责任。

家庭条件不好,可以分期付,分期赔偿,可以定出一个赔款计划,以后慢慢还。

这并不是没有办法解决。

否则,做了错事,因为家庭条件不好就可以免于赔偿,是不是某种程度也是一种纵容?

孩子的过错,家长需要赔偿。



这样,家长以后也会更加注重家庭教育,管教好自己的孩子。


user avatar   stainlessdaniel 网友的相关建议: 
      

个人觉得法律责任与贫富无关,家庭条件不好不能作为挡箭牌。

我觉得这个事最大的问题在于会让一些人钻空子。

可能对于这个孩子确实是无心的,不是有什么仇恨的心理,纯粹是为了好玩,但是这样不公平的对待,

有钱就赔偿,没钱就原谅的对待方式,只会导致一些处心积虑的人钻空子。




万一,有些人就是仇富,就是刚好自己贫穷,发现有可以免于责罚的方式,又可以宣泄自己的愤怒,也去用油漆泼洒呢?

事发后,可以装作无辜的样子,贫穷的样子,是否可以免于责罚呢?

当一个人因贫穷免于责罚时,我认为车主可能是“善良”,但衍生出来可能滋生的是一些图谋不轨的人。被利用,从而达到自己的目的。

因为这么做本就存在不公平,法律面前人人平等确实不是一句空话。

有人有幸免于处罚,就容易让部分人钻到空子。不应该因为穷就可以免于法律知外。




我觉得他虽然是小孩,但是不损害他人利益,乱碰他人东西的简单道理应该是懂的。并不是无知。

如果免于责罚,其实某种程度上,只会让他意识不到事情的严重性,对他的教育而言也许也并非是件好事。

责罚的目的在于吸取教训。做错了事,需要承担一定的代价。



孩子未成年,家长作为监护人,应当为其负起责任。

家庭条件不好,可以分期付,分期赔偿,可以定出一个赔款计划,以后慢慢还。

这并不是没有办法解决。

否则,做了错事,因为家庭条件不好就可以免于赔偿,是不是某种程度也是一种纵容?

孩子的过错,家长需要赔偿。



这样,家长以后也会更加注重家庭教育,管教好自己的孩子。


user avatar    网友的相关建议: 
      

个人觉得法律责任与贫富无关,家庭条件不好不能作为挡箭牌。

我觉得这个事最大的问题在于会让一些人钻空子。

可能对于这个孩子确实是无心的,不是有什么仇恨的心理,纯粹是为了好玩,但是这样不公平的对待,

有钱就赔偿,没钱就原谅的对待方式,只会导致一些处心积虑的人钻空子。




万一,有些人就是仇富,就是刚好自己贫穷,发现有可以免于责罚的方式,又可以宣泄自己的愤怒,也去用油漆泼洒呢?

事发后,可以装作无辜的样子,贫穷的样子,是否可以免于责罚呢?

当一个人因贫穷免于责罚时,我认为车主可能是“善良”,但衍生出来可能滋生的是一些图谋不轨的人。被利用,从而达到自己的目的。

因为这么做本就存在不公平,法律面前人人平等确实不是一句空话。

有人有幸免于处罚,就容易让部分人钻到空子。不应该因为穷就可以免于法律知外。




我觉得他虽然是小孩,但是不损害他人利益,乱碰他人东西的简单道理应该是懂的。并不是无知。

如果免于责罚,其实某种程度上,只会让他意识不到事情的严重性,对他的教育而言也许也并非是件好事。

责罚的目的在于吸取教训。做错了事,需要承担一定的代价。



孩子未成年,家长作为监护人,应当为其负起责任。

家庭条件不好,可以分期付,分期赔偿,可以定出一个赔款计划,以后慢慢还。

这并不是没有办法解决。

否则,做了错事,因为家庭条件不好就可以免于赔偿,是不是某种程度也是一种纵容?

孩子的过错,家长需要赔偿。



这样,家长以后也会更加注重家庭教育,管教好自己的孩子。




  

相关话题

  已经5.22了,关于“阅文集团”事件,现在进展如何了? 
  如何看待 2021 年 Q2 小米手机在欧洲首次登顶,市场份额超越三星和苹果? 
  有哪些值得关注的社会实验?为什么有趣? 
  相比刷微博、抖音、朋友圈,读书带来的快乐会不一样吗? 
  如何看待华为将发布6G白皮书,称6G在2030年推向市场? 
  百名工程师被 Meta 挖走,苹果开高额股票奖励留人才,高额奖励是否能留住人才? 
  什么是人工智能?人工智能、机器学习、深度学习三者之间有什么关系吗? 
  如何看待互联网大佬陈涛辞职后,在海上钓了七年鱼? 
  即时战略游戏(比如 WAR3)的 AI 是怎样实现的? 
  如果智能机器人真的大批量取代人工,那真的会失业么? 

前一个讨论
如何看待腾讯手游《火影忍者》川剧自来也要 2000 元以上引争议后,官方迅速退费,忍者免费的处理?
下一个讨论
如何看待当下流行的「土味文案」,直白文案是否更能俘获消费者?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利