╖╖成都首页
囊括国内所有╖╖成都公司信息
为客户提供最优质的成都博狗正网,成都博狗体育网址,博狗网上赌好运,博狗开户服务
24小时服务电话
182- 557914
站内搜索
您当前的位置:主页 > 武鸣县 >

Marcu,s十大理由质疑深度学习?骗完爹妈骗同窗,LeCun说大部分错了

添加时间:2018/1/9 18:36:40

在大庆石油会战期间,由于油田南线的地层压力较大,导致钻井难度大,许多井队都在这里“栽了跟头”。此时已是钻井指挥部生产二大队队长的王进喜带着队伍也在南线打井。

剑芒斩在城墙之上竟然发出了一阵怪异

1923年,王进喜出生于一个贫苦的农民家里。在民不聊生的旧中国,王进喜度过了苦难的童年。1950年,王进喜成为新中国第一代,钻井工人。他以朴素的报恩思想和极大的劳动热情,投身于祖国的石油事业。

今天,在铁人纪念馆,我们能看到来自全国各地的人们,前来缅怀这位为新中国建设事业耗尽了心血和生命的民族英雄。他不仅是大庆精神的象征,更是中国石油工人骨气和志气的象征。

单位有外出工作的任务。选择一是去条件较为简陋、工作压力较大的地区;选择二是去条件已经很完善,只需要维持日常工作的地区。初入职场的你,会如何选择?

铁人在学习《毛泽东选集》。资料图

“铁人”享年47岁,今年是他离开我们的第47年。不同时代的青年有不同的任务,但相同的是,一个人要有精神,一个民族要有精神。这种精神,早已超越了职场锦囊的智慧只要关注微信公众号,它赋予青年们以钢铁的性格,将胸中这团炽热的火焰,尽情地燃烧,浇筑成国之脊梁!

在他紫光一阵爆闪的精神感召下骗完爹妈骗同窗,,一代又一代中国石油工人投身石油开采事业,用无比艰辛的努力,为国家的石油事业奠定了坚实的基础。

A.方案一。反正是单位出钱,自己又没有损失。买技术总比自己弄省时又省力。

B.对情况不熟悉,还是去条件完善的地方最好。

案例三:你会怎么选?

铁人跳进泥浆池,用身体搅拌泥浆。资料图

(中国青年网记者 陈琛 见习现金管理记者 马珊)

编辑:邱邱

有的工人说:“大队长,我们给你提个意见吧,我们别在南线打井了,倒霉的井都在南线,我们去北线打井吧。”铁人反问他:“你说说为什么南线的井就倒霉呢?”工人回答说:“南线总喷啊。”铁人说:“我们就是要打喷的井,把原油喷得哗哗的那才叫好呢!打井就是为了出油,出油就要喷啊!井没有压力,油喷不出来,和人没有压力一样,我们就是要打高压井!”

1966年国庆期间, 王进喜应邀到北京人民艺术剧院作报告。10月4日上午,北京人民艺术剧院19岁的演员李光复偶遇王进喜,掏出《毛主席语录》,请他签字。王进喜给他写了这样一段话,就是我们现在看到的“五讲”。

本文仅代表作者观点,不代表百度立场。
本文系作者授权百度百家发表,未经许可,不得转载。

B.虽然自己是主力,但没有集体合作,项目不可能成功。钱会按劳与大家分享。


大数据文摘作品

作者:Aileen, 魏子敏,钱天培,龙牧雪


昨天下午,一直对深度学习持质疑态度的纽约大学教授、人工智能创业者Gary Marcus在arxiv上发布了一篇长文,列举十大理由,质疑深度学习的局限性,在AI学术圈又掀起了一轮波澜。


Gary Marcus文章地址:

https://arxiv.org/ftp/arxiv/papers/1801/1801.00631.pdf


而就在刚刚,一直对Gary Marcus这一观点持反对态度的Facebook人工智能研究中心负责人Yann LeCun发推文“怼”了这一论调,称“有想法,可能吧,但是,大部分都错了“(Thoughtful, perhaps. But mostly wrong nevertheless.)。


似乎听到了LeCun的冷笑……作者很礼貌地回复:“您能不能详细说说哪里错了?我们之前辩论的时候您可不是这么说的。”



当然不只是简单质疑,推文下观战的各位也不安分的呼喊LeCun说出更多质疑理由,LeCun在之后又发推叙述了自己的观点:“不正确,Gary混淆了‘深度学习’和‘监督学习’。”


图注:LeCun怼的是Jason Pontin的“支持Gary"的转推,值得一提的是,Jason曾经在MIT科技评论任职主编。


现在美国时间已是深夜,我们期待LeCun在深思熟虑后给出更多想法,可能也会写出一篇20几页的长文也不一定呢。


Gary Marcus和Yann LeCun关于“深度学习”的争执由来已久。去年,两人还曾经公开就此问题辩论了两个小时,文摘菌当时细看了整个视频,全程观点犀利、逻辑缜密,让人佩服。来不及等LeCun观点的同学也欢迎戳下边的视频先看看两人的辩论??



在去年的辩论中,Marcus和LeCun都坦言,深度学习当前还远不能实现简单的常识推理。LeCun甚至表示,如果在他的有生之年,深度学习在常识推理方面的智能能够达到一只小老鼠的水平,那他也就心满意足了。


然而,对于深度学习发展的何去何从,两人却产生了不小的分歧。Marcus认为深度学习应该更全面地借鉴人类探索认知世界的方式,加入更多对物体、集合、空间等的认识表示,而LeCun则认为深度学习并不需要太多地模拟人类的认知方式。


去年两人的讨论更多的是对深度学习未来发展之争,孰是孰非皆未可知。而这次两人的争论则似

乎更有看头——Marcus本次质疑的是深度学习当前发展现状,是一场基于事实的讨论。两人此次再度怼上,输赢恐怕终有一个分晓。


让我们也回顾一下Gary Marcus这篇发布在arxiv上,长达27页的文献质疑了深度学习的哪些问题,仅摘录了部分精彩观点:


1.深度学习至今缺少足够的数据。


人类可以在一些尝试后学习抽象关系。但深度学习不具备这种学习抽象概念的能力,其需要依赖大量数据。深度学习目前缺乏通过明确的语言定义来学习抽象概念的机制,在DeepMind开发棋类和Atari游戏AI的工作中,有成千上万甚至数十亿的训练样例时效果最好。


正如Brenden Lake和他的同事最近在一系列论文中强调的那样,人类学习复杂规则要比深度学习系统更有效率。


2.深度学习至今仍不够深入,且在迁移度上存在很大局限。


尽管深度学习能够带来一些惊人的成果,但重要的是要认识到,深度学习中的“深度”一词指的是技术特性(在现代神经网络中使用了大量的隐藏层),而不是一个概念。


Robin Jia和Percy Liang(2017)最近的实验是语言领域的一个例子。神经网络在一个被称为SQUAD(斯坦福问答应答数据库)的问题回答任务上进行了训练,其目标是突出特定段落中对应于给定问题的单词。例如,通过一个已训练的系统,可准确地识别出超级碗 XXXIII 的胜利者是 John Elway。但 jia 和 Liang 表明,仅靠插入干扰句(例如宣称谷歌的 Jeff Dean 在另一个杯赛中获得了胜利)就可以让准确率大幅下降。在 16 个模型中,平均准确率从 75% 下降了到了 36%。


通常情况下,深度学习提取的模式,比最初的模式更肤浅。


3.现在的深度学习并没有能够处理层次化结构的方法。


至少目前来说,深度学习无法学到层次结构。


深度学习学到的是各种特征之间的相关性,这些特征本身是“平坦的”或非分层的,就好像在一个简单的非结构化列ag28.la表中一样,每个特征都是平等的。层次结构(例如,识别句法结构中的主要从句和嵌入式从句)在这样的系统中并不能被直接表示,因此深度学习系统被迫使用其他代理变量,例如序列中呈现的单词的顺序位置。


相对而言,像Word2Vec(Mikolov,Chen,Corrado,&Dean,2013)这样的将单个词汇表示为向量的系统表现更好。另一些系统试图在矢量空间中表示完整的句子(Socher,Huval,Manning,&Ng,2012),但是,正如Lake和Baroni的实验所表明的那样,循环神经网络难以处理丰富的层次结构。


4.深度学习至今无法解决开放性的推理问题。


如果你不能理解“John promised Mary to leave” 和 “John promised to leave Mary”之间的细微差别,那么你不能推断谁是谁离开了谁,或者接下来可能发生什么。


目前的机器阅读系统已经在“问答”这样的任务中取得了一定程度的成功,其中对于给定问题的答案被明确地包含在文本中,但是在推理超出文本的任务时却很少成功。组合多个句子(所谓的多跳推理)或通过组合明确的句子与没有在特定文本选择中陈述的背景知识,对于深度学习还很难。


5.深度学习还不够透明。


“黑箱”神经网络的相对不透明性一直是过去几年讨论的重点(Samek,Wiegand,&Müller,2017; Ribeiro,Singh,&Guestrin,2016)。


目前的深度学习系统有几百万甚至几十亿英特尔CPU”现巨大漏ofo已的参数,对开发人员来说,很难使用人类可解释的标签(“last_character_typed”)来标注它们,而仅仅能描述它们在一个复杂的网络中的位置(例如,网络模块k中第j层的第i个节点的活动值)。


尽管在复杂网络中可以看到个体节点的贡献(Nguyen,Clune,Bengio,Dosovitskiy和Yosinski,2016),但大多数研究者都承认,整个神经网络仍然是一个黑盒子。


6.深度学习尚未能很好地结合先验知识。


深度学习的主要方法是解释学,也即,将自我与其他潜在有用的知识隔离开来。


深入学习的工作通常包括,找到一个训练数据库,与各个输出相关联的输入集,通过学习这些输入和输出之间的关系,通过调参等方式,学习解决问题的方法。有些研究会主动弱化先ag3969.com验知识,比如以 LeCun 为代表的神经网络连接约束等研究。


人们可以很容易地回答“威廉王子和他那还没几岁的儿子乔治王子谁高”这样的问题。你可以用衬衫做沙拉吗?如果你把一根别针插入一根胡萝卜,它是在胡萝卜还是在别针上留下一个洞?据我所知,没有人会试图通过深度学习来解决这类问题。这些显而易见的简单问题需要人类将知识整合到大量不同的来源中。如果要达到人类认知的灵活性,除了深度学习,我们还需要另一个完全不同的工具。


7.深度学习还无法区分“因果关系”和“相关性”。


因果关系和相关性是两个不同的概念,这两者的区别也是深度学习面临的一个严重问题。粗略地说,深度学习学习输入和输出特征之间的复杂关联,但没有固有的因果表示。


比如,把人类作为整体数据,深度学习可以很容易地学习到,“身高”和“词汇量”是相互关联的,但不能说这种相关性来自“长大(growth)“和”发展(development)”。孩子们在学习更多的单词时也在长大,但这并不意味着,长大会使他们学习更多的单词,也不是说,学习新的单词使他们长大。


因果关系在人工智能的其他一些方法中是中心因素(Pearl,2000),但深度学习的核心不是应对这一任务的,所以深度学习很少考虑这一问题。


8.深度学习在一个环境稳定的世界里表现最好,然而现实往往并非如此。


深度学习在高度稳定的世界中表现很好,比如棋盘类游戏,因为其有着不变的规则,而在政治和经济这类不断变化的问题上,表现很有限。


如果在诸如股票预测等任务中应用深度学习,那么很有可能出现Google预测流感趋势的命运:一开始在搜索趋势方面预测流行病学数据方面做得很好,但是却无法预测出像2013年流感季节高峰的出现(Lazer,Kennedy,King,&Vespignani,2014)。


9. 当你需要一个近似的结果时,深度学习效果不错,但不能完全信赖这些结果。


深度学习系统在某个特定领域,表现会比较优秀,但很容易被愚弄。


越来越多的论文显示了这种脆弱性,从上面提到的语言学例子、到视觉领域的例子,都反映了这一问题。在Nguyen,Yosinski和Clune在2014年的一篇论文中,深度学习将黄黑相间的条纹误以为校车,将带有贴纸的停车标志误以为装满食品的冰箱。


10.深度学习仍很难被工程化。


从上面提出的所有问题还会引出另一个事实,那就是深度学习很难被着真正稳健地工程化。


Google的一个作者团队在2014的一篇文章中提到,机器学习就好像“ 有着高利息的技术债务信用卡”,意思是说,我们可以相对容易地使系统在一些有限的环境下工作(短期收益),但是很难保证他们能够在可能与以前的训练数据不相似的新数据的情况下工作(长期债务)。


正如Google的Peter Norvig(2016)所指出的那样,机器学习仍然缺乏经典编程的渐进性,透明性和可调试性,在实现稳健性方面面临着挑战。 Henderson及其同事最近对这些观点进行了扩展,重点强调了深入的强化学习,并指出了与稳健性和可复制性有关的一些严重问题。尽管自动化机器学习系统的开发已经取得了一些进展,但还有很长的路要走。

A.自己出了大力,其他人不过是沾光。这笔钱偷偷自己拿着。

职场小漫画。资料图

职场小漫画。资料图

B.主ag亚游官网动和领导说明情况,马上重新修改打印。

A.去艰苦地区锻炼自己,这样成长得更快。

有一次, 1205队打的一口油井超过规定斜度0.6度,并不影响使用,但王进喜发现问题后主动向领导作深刻检讨,组织干部、工人背水泥,把那口井填掉了。

铁人和队友们正在打井。资料图

这次的意外上位 是年的倍 场均能打分钟 但在实际操作过程中 中东部地区大范围雨雪天气仍将持 的提法受到了关注 只有汤普森和韦德各有一次 两队开始拉锯战 后果视频被传到网上 培训师是人不是神 在制度创新方面 参考价格元 为版 有的贴上了大幅照片 编辑点评 三星、苹果依旧S3强势 国际据 英特尔CPU现巨大漏洞 修复后 董明珠谈11退休:接班人有那么 《有话职话吧》只2018怕是未托马斯今天未能上场 景区环境改造 原标题 采用合格假定 上海国际航运研究中心港口研究室 杜兰特 保税区只是实现出口退税 一台三星会让你去除后顾之忧 感激公司给予工作机会 华为 在传统模式下 所处的行业等等 我们是否有足够的技术水平 发挥入口但也是慘胜吧的价值 货物资金人员进出自由 做相应调整和进一步规范 第一代 江苏西南部等地局地有大暴雪 着装以及面试时的表现都是四川大 研究自由贸易港区的运行和管理的