电竞下注-官网电竞下注-官网

官方视频
揭开谷歌AutoML的神秘面纱:电竞下注
来源:官网    发布时间:2021-09-29 04:24:01
本文摘要:(公共编号:)本文由图普科学技术编译器自GooglesAutoML:在推出AutoML时,谷歌首席执行官Sundarpichai在博客中写道:设计神经网络需要时间,对专业知识的极高拒绝,只有一部分科研人员和工程师才能参加设计。

(公共编号:)本文由图普科学技术编译器自GooglesAutoML:在推出AutoML时,谷歌首席执行官Sundarpichai在博客中写道:设计神经网络需要时间,对专业知识的极高拒绝,只有一部分科研人员和工程师才能参加设计。这就是我们创建AutoML方法的原因,有了它,神经网络也可以设计神经网络。我们希望AutoML能够享受到现在博士的能力,从3年到5年内能够通过AutoML设计神经网络,满足特定的市场需求。

谷歌CEOSundarPichai回应,我们都必须设计自己的神经网络谷歌人工智能负责人Jeff-Dean回应,100倍的计算能力可以代替人类机器学习专家,他以需要相当大的计算能力的神经结构搜索为例说明了这一点。(在他的TensorFlowDevSummit大会的主旨演说录像中约23:50)引起了很多问题的讨论:很多开发人员都必须设计神经网络,满足特定的市场需求(来源于Pichai的愿景),或者有效的方法你知道大计算能力可以代替人类机器学习专家吗?评价谷歌的声明时,要记住,如果我们被劝说,相信有效使用深度自学技术的关键是提高计算能力,谷歌利用这一领域,谷歌远远领先。

如果你知道,你可能必须卖谷歌的产品。就其本身而言,这并不意味着谷歌的不同意见是错误的,但是很好地理解他们声明背后隐藏的经济动机是合适的。

在之前的文章中,我说明了AutoML的历史,说明了什么是神经结构搜索,对于很多机械学习项目,设计和自由选择结构并不是最困难、最耗时、最痛苦的问题。在今天的投稿中,我特别想关注谷歌的AutoML本身,这是一个非常不受关注的产品,想解决以下问题。AutoML是什么?什么是转移到自学?寻找结构的搜索和转入自学:两种相反忽视的方法,需要更多的证据,谷歌的AutoML受欢迎吗?我们如何解决问题机械学习专家不足的问题?什么是AutoML?AutoML领域已经发展多年(包括开源AutoML库、研讨会、研究、比赛),但2017年5月谷歌仍将神经结构检索称为AutoML。谷歌I/O大会发表的博客声明中,谷歌CEOSundarpichai写道:这就是我们制作AutoML方法的原因,有了它,神经网络也可以设计神经网络。

谷歌AI研究者BarretZoph和Quocle写道:通过我们的方法(我们称之为AutoML),神经网络控制器可以明确提出子模型结构。谷歌于2018年1月发售机械学产品-CloudAutoML。迄今为止,AutoMLVisionoMLVision,AutoMLVision是识别或分类图像对象的API。根据产品页面的描述,CloudAutoMLVision依赖于自学和神经结构搜索两种核心技术。

既然我们已经说明了神经结构的搜索,现在就来看看自学吧。理解与神经结构搜索的关系吧。谷歌AutoML和神经结构搜索的一小部分顶级新闻注意:谷歌CloudAutoML还有alpha测试状态的拖型ML产品。

我两个月前申请人采访了它,但至今没有收到谷歌的恢复。我打算在那个发表之后写文章。什么是进入自学?迁入自学是一种强大的机械学习技术,利用已经在类似的大型数据集中训练的预训练模型,可以用于小型数据集和低计算能力取得最先进的设备结果。

由于通过移入自学方式自学的模从头自学,所以与不用于自学的模型相比,一般数据少,计算时间超过了更高的精度。转入自学是我们免费的代码农简单深度自学课程中使用的核心技术,我们的学生大大应用于生产过程,无论是自己的创业公司还是财富500强公司。与神经结构的搜索相比,转移到自学可能没有那么多人,但是已经利用转移到自学技术构筑了突破性的学术成果。

例如,JeremyHoward和SebastianRuder转移到NLP,在6个数据集中完成了最佳分类。同时,转入自学技术也是OpenAI中该领域进一步研究的基础。

电竞下注

神经结构的搜索和转入自学:两种相反忽视的方法转入自学的基本构想是将神经网络结构一般化解决问题相近类型的问题。例如,许多图像与其他类型的图像具有完全相同的基本特征(角、圆、狗脸或轮子)。相比之下,神经结构搜索解决问题的基本理念相反,每个数据集都有独特的、专业的结构。

MatthewZeiler和RobFergus的例子,图像分类器的脸和轮子在神经结构中找到新的结构时,必须从头开始自学这个结构的权重,在转入自学方法时,需要事先训练的模型的现有权重。从这个意义上说,神经结构的搜索和转入自学无法解决同样的问题。如果你自学新的结构,你必须为它训练新的权重。

如果你通过实际的训练模式转入自学,你就无法对结构进行实质性的变更。当然,可以将转移到神经结构结构搜索方法学习的结构中(指出这是个好主意)。)的双曲馀弦值。的双曲馀弦值。

的双曲馀弦值。这只有少数研究人员在神经结构搜索中使用,开源他们寻找的模型。在可以自学解决问题的情况下,所有的机器学习者都没有用于神经结构的搜索方法。

但是,JeffDean的主题演说、Sundar、Pichai的博客文章、谷歌Cloud的宣传资料和媒体报道指出了无视的意见。每个人都必须用于神经结构的搜索。

电竞下注

神经结构搜索有什么好处?神经结构搜索有助于找到新的结构!谷歌的AmoebaNet通过神经结构搜索自学,fast.ai的反应进行了改良,在自学过程缓慢的同时,改变了训练中图像的尺寸。Amoebanet已经成为单机训练ImageNet最便宜的方法!AmoebaNet在设计时没有考虑到具有扩展能力的奖励函数,因此不能像ResNet那样扩展到多台机器,但是具有不同性质的神经网络将来很可能会自动自学。必须有更多的证据,目前没有证据指出每个数据集最差用于自己的定制模型建模,而不是微调现有模型。

神经结构搜索需要更大的训练集,对于小的数据集尤其如此。谷歌自己的研究也用于转入技术,不是为每个数据集寻找新的结构,例如NASNet(博客文章),而是在Cifar10自学结构模块,用于模块为ImageNet结构。我还没听说过任何机器学习比赛赢家用于神经结构搜索。

另外,不告诉谷歌推进的必须计算力的神经结构搜索方法是否具有明显的优势。例如,最近有高效的神经结构检索和微结构检索等论文,明确提出了更有效的算法。DARTS只需要4个GPU的工作天数就,NASNet需要1800个GPU的工作天数,AmoebaNet需要3150个GPU的工作天数(Cifar-10自学,精度完全相同)。JeffDean是ENAS论文的作者,他在论文中明确提出了计算能力低1000倍的技术。

这可能与一个月后TF的DevSummit大会特别强调计算能力低100倍的方法不一致。为什么谷歌的AutoML很受欢迎?鉴于上述允许,为什么谷歌AutoML的简单性没有被检查(至少到目前为止),这么受欢迎?1.谷歌AutoML强调了营利性公司成立学术研究实验室可能面临的风险。

在这样的环境下,人们更容易环绕有趣的学术研究建设产品,不评价是否符合实际市场需求。许多人工智能创业企业也是如此。例如,MetaMind和GeometricIntelligence在被收购时甚至没有发售同样的产品。

我对创业公司创始人的建议是不需要把你的博士论文投入生产,也不需要只录用学术研究者。2.谷歌擅长营销。

许多外行指出,人工智能是一个难以接近和害怕的领域,他们指出自己无法评价这些声明,特别是像谷歌这样长期闻名的公司公开发表的声明。很多记者也是如此,甚至没有特别谴责就把谷歌的广告宣传写成了热门文章。我定期和不专门从事机械学习领域的人们聊天,他们没有用于谷歌的ML产品,对这些产品很感兴趣,但真的很有意义。

推荐谷歌讽刺成果的误解报道的典型例子:谷歌人工智能研究者发表了一篇名为深度自学技术修复确实的人类基因组的文章,比较了自己的工作和诺贝尔奖获得者的发现),这篇文章是按Wired顺序发表的。但是,约翰斯霍普金斯大学生物医学工程、计算机科学和生物统计学的优秀教授Stevensalzberg反驳了谷歌的投稿。Salzberg认为,该研究实质上没有修复人类基因组,意味着对现有软件的改良,可能还没有改良。

许多其他基因组学研究者赞成Salzberg的意见。谷歌正在开展真正的工作,但是如果不检查这么多误解性的抹黑,明确什么是合理的话,那个工作也不容易被否定。

3.假如我们被劝说,坚信有效用于深度自学技术的关键是提升计算能力,Google会因为在这一领域,Google显著遥遥领先。AutoML一般需要大量计算。

例如,自学AmoebaNet,谷歌必须在450个K40个GPU训练7天(相当于3150个GPU的工作天数)。虽然工程师和媒体经常沉迷于计算能力或其他更可观的东西,但历史指出,创造力束和创造力的基础上产生的。

谷歌用于处理大量数据的可观计算能力。我们现在住在资源有限的世界里。你知道这种方法一般能解决问题吗?创造力不是把事情做大,而是用不同的方法解决问题。

fast.ai最近在斯坦福大学DAWNBench比赛中取得的顺利证明了这一点。如何解决机器学习专业不足的问题?回到JeffDean在TensorFlow的DevSummit主题演说中明确提出的机械学习者的世界不足问题,可以从另一个角度解决问题。我们可以通过以下方法避免深度自学技术仅次于障碍:1.使深度自学更容易使用2.使深度自学更加神秘3.资金不足不能使用云GPU的人减少采访权限,使深度自学更加容易使用,使深度自学更加容易使用现在成为标准作法的一部分,Dropout允许对小数据集进行过度的训练。

可以减缓训练速度。有助于防止梯度爆炸。

一些目的提高了易用性的最近的研究,包括自学速度查询器使训练过程更加稳定。超级发散可以减缓训练速度,增加计算资源。

电竞下注

现有结构的Customheads可以更加精彩地重新结构来解决问题的一系列问题(例如,改变作为分类的ResNet,查询边界板,展开样式的转移),以上的发现与计算能力无关,这些都是创造性的为了深度自学而神秘化的另一个障碍是很多错误的观念,相信深度自学不适合他们:错误地指出他们的数据规模太小,他们不拒绝接受正规化的教育或背景,或者他们的计算能力太小。很多人相信,只有机械学习领域的博士才需要深入的自学技术,很多公司因为不能雇用专家而退出了这方面的发展。但事实上,公司不仅可以将自己的数名员工培训成机器学习专业,更是一种做法,因为你现有的员工早已享有你专业从事的领域专业知识!我指出,与我聊天的大多数人相比,进入深度自学的门槛高于他们的期望:只有一年的代码经验和采访GPU的权限。

减少采访权限:谷歌ColabNot。ebooks云GPU(每小时约50美分)的成本在我们很多人的支出范围内,根据我定期与世界各地的学生取得联系,有些学生几乎不能分担GPU的用途。在一些国家/地区,即使有钱,银行和信用卡的规定也不难使用AWS等服务。谷歌ColabNotebooks是解决办法!ColabNotebooks获得Jupyter笔记本电脑环境,需要设置,几乎在云中运营,允许用户采访免费GPU。

它们也可用作创建包括在互动环境中运行的代码示例的文档。谷歌ColabNotebooks在构筑深度自学大众化方面,也许会成为AutoML未来谷歌市场营销机械的更好的自由选择。文章:谷歌大脑解析AutoML:神经网络如何设计神经结构?|GoogleI/O霄2017揭秘|谷歌自动化机器学习你知道那么神吗?技术人员创业者夏粉:用AI建设AI版权文章,允许禁止发表。

下一篇文章发表了注意事项。


本文关键词:电竞下注

本文来源:电竞下注-www.duncanandboyd.com

上一新闻:第二届智慧交通论坛开幕:欲善“城市”其事,必先利“交通”其器:电竞下注

下一新闻:专访|泓观科技:面向IoT首创异步AI芯片,另辟蹊径的潜行者重装上阵_电竞下注

推荐阅读

企业要闻

企业动态

门窗百科

太阳能着色 互补系统 易护理 保温 环保节能
预约报名 免费测量 免费设计 免费报价 免费安装 终身维护
版权所有©2011-2020 哈密市电竞下注股份有限公司
新ICP备27447611号-2
联系地址: 新疆维吾尔自治区哈密市清水县瑞均大楼939号
联系电话:026-41040940
联系邮箱:663395747@qq.com
传真号码:083-590783689
友情链接:搜狗 百度 360 Bing