GeoffHinton:AI无法解释的理由-亚博app首页

本文摘要:最近人类对AI的应用是带妈妈去外面的餐厅睡觉,妈妈们不仅不吃,还想弄清楚这些食物是怎么做的。

亚博app官网

最近人类对AI的应用是带妈妈去外面的餐厅睡觉,妈妈们不仅不吃,还想弄清楚这些食物是怎么做的。神经网络越有效率,我们就会越奇怪黑匣子里再次发生什么。(约翰肯尼迪,电脑名言)我们对AI解释性的执着仍然可以分为两层。一是从技术角度探讨神经网络黑匣子的工作机制。

二是从社会角度更好地向各行各业说明AI技术原理。电脑科学家们仍然没有停止对神经网络黑匣子突破的探索,但也有很多具体反应,认为执着于AI的解释不太好。

去年年底,谷歌大脑负责人Geoff Hinton在拒绝媒体采访时曾说过一些“AI无法解释的理由”。其中最重要的一点是,大多数人不太能说明自己做出决定的原因。

如果强迫人类解释自己的不道德,结果很有可能是让人类说违背心灵的谎言。(威廉莎士比亚、奥赛罗、艾伊也是如此。似乎可以擅自重新解释AI算法。

结论的结果只是“说明市场需求的回答”,很有可能不能充分发挥人们想要的东西。Geoff Hinton可以说是忠诚的“AI不可知论”支持者。在AI模型让人说话的前几天,格鲁吉亚理工大学推出了AI可以用人类语言说明自己不道德的模型。

整个模型的训练过程是在“小青蛙过马路”旧游戏中制作的。在游戏中,玩家要操纵小青蛙,前后左右逃离来往车辆,顺利到达马路对面。(约翰肯尼迪,Northern Exposure(美国电视),)格鲁吉亚理工大学趁此机会收集了大量人类样本,给人类实验者玩了一次游戏,然后追溯了整个游戏过程,表明了自己每个阶段的意图。(大卫亚设,Northern Exposure(美国电视连续剧),)例如,向左走是想往后方跑进来,向前冲是因为漂浮的荷叶刚好回到自己面前。

这样就可以把自然语言和游戏控制结合起来,形成同构。将该模型转移到AI的教育中,AI每移动一步,就用自然语言说明自己的意图。实验者可以根据“信任(表明AI的这一阶段是正确的)”、“人性化(表明这是人类采取的行动)”、“充分的理由(涉及语言说明和不道德的动作)”、“可以解释的四个维度对AI的不道德和说明进行评分”。

由此可以对AI的游戏能力和自我说明能力进行联合训练。乔治亚理工大学开发的这种模式为AI的解释性带来了许多新角度的突破。当AI做出错误的决定时,我们可以清楚地看到AI到底错在哪里。例如,在游戏中,中小青蛙撞上路过的汽车,游戏结束,通过自然语言说明,可以知道AI是在未能逃离汽车的情况下结束的,还是已经“记住”了,但因为没有顺利地给予想法和不道德而结束。

(威廉莎士比亚、哈姆雷特、)在调整后期展开参数时,可以射出更多的箭,具体地找到问题。更重要的是,这个过程几乎是用人类的自然语言传达的,普通人也能看到和解释问题再次发生的全过程。技术的解释力仍然不被信息技术知识的基础所允许,甚至可以让更多的人参与AI训练课程。

AI由此可见,是进入技术的方向灯吗?但是“小青蛙模型”不能解决问题Geoff Hinton提到的“AI不可知论”的很多问题。第一,不要让人类叙述自己的不道德性,然后限制语言和不道德的对应关系的创造方法。约翰肯尼迪,语言)在小青蛙过马路这么简单的游戏中,人类可以清楚地说明自己的不道德性。但是,如果改变场景,就像Geoff Hinton所说的那样,我们自己往往也不知道自己做出决定的原因。

(太棒了)。特别是在一些场景中,例如,在行驶时遇到路上的动物或其他车辆时,人们自己的自由选择往往处于道德困境,无法统一,AI的决策模式和自然差异。不能形成语言说明和不道德之间的同构。另一个重点是,AI所谓的“自我说明”是不道德的,投入和产出的比例究竟如何?(阿尔伯特爱因斯坦,Sameter)自然语言处置表示,AI领域是非常不可撕裂的硬骨头,如果“AI说人话”的模式沦落为标准,那么让所有领域的AI模式进行相关训练就是结果。

(威廉莎士比亚,Northern Exposure(美国电视连续剧),自然语言处理名言)也就是说,制造未来智能客户服务产品的企业,为了AI的可解释性,需要招聘NLP领域的人才。今后,制造面部识别产品的企业为了AI的可解释性,必须招聘NLP领域的人才。仅次于NLP专业学生或赢家。

这样给AI产业带来的巨大费用如何覆盖面积?当世界等待AI X在Geoff Hinton公开发表其“AI不可知论”时,许多社会学专家展开了反驳。其中剑桥智能未来中心的研究人员明确表示,AI对事物效率的提高和对社会的影响的争论是不可分割的。

Geoff Hinton等科学家指出,自己瓦解了社会和政策背景,那么研究过程一开始就有可能转向。但是AI的这个不可知论和不可知论之间最重要的问题是“AI经常出现问题怎么办?”是。

不可知论者指出,如果AI经常出现问题,就应该像算法训练过程一样,在找到问题后立即开始有针对性的训练和矫正。但是,可以知道的理论家指出,如果AI在现实场景中经常出现问题,然后再改善一次,一切都已经晚了。

(威廉莎士比亚、奥赛罗、德高望重)()今天的优先事项是让更多的社会角色参与AI的研发过程。需要在普遍的现实应用程序之间从多个角度寻找问题。

因此,像乔治亚理工大学这样的“让AI说话”项目不常出现。在AI学会说人的话之前,AI和人、AI专家、其他专家之间仍然没有出现相当严重的交流断层。在非常广泛的时间里,AI X的跨领域人才都将是热门。

本文关键词:亚博app,亚博app首页,亚博app官网

本文来源:亚博app-www.mdr-1rbt.com