加入收藏 | 设为首页 | 会员中心 | 我要投稿 辽源站长网 (https://www.0437zz.com/)- 云专线、云连接、智能数据、边缘计算、数据安全!
当前位置: 首页 > 站长资讯 > 评论 > 正文

2017vs2019,AI三年浮沉记

发布时间:2019-12-03 19:45:05 所属栏目:评论 来源:站长网
导读:副标题#e# 据Gartner发布的2017年《技术成熟度报告》显示,其中出现了8项新增技术成果,其中包括5G、人工通用智能、深度学习、深度强化学习、数字孪生、边缘计算、无服务器PaaS以及认知计算。 时移世易,2019年技术的创新和发展已经超出了我们的想象,据人
副标题[/!--empirenews.page--]

process-business-ideas-technology-development-factory-1458907-pxhere.com.jpg

据Gartner发布的2017年《技术成熟度报告》显示,其中出现了8项新增技术成果,其中包括5G、人工通用智能、深度学习、深度强化学习、数字孪生、边缘计算、无服务器PaaS以及认知计算。

时移世易,2019年技术的创新和发展已经超出了我们的想象,据人工智能行业分析机构CBInsights发布的 《2019年AI趋势报告》 来看,人工智能正在以可见的速度渗透到各行各业中。

深度学习热度过后的“冷思考”

2017年,人们对深度学习的发展寄予了厚望,认为它将会产生最多的利润,众多资本涌入人工智能的各个领域,最好的例子就是AlphaGo的胜利。2017年5月,在中国乌镇围棋峰会上,AlphaGo与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。

到2017年底,超强版AlphaGo Zero完全不依赖于人类数据,在只知道比赛规则的情况下自我对弈,3天训练后就以100比0战胜了AlphaGo。

2017vs2019,AI三年浮沉记

在棋类游戏中,围棋所包含的巨大的搜索空间(其状态数远远超过整个宇宙中的原子数)一直是机器学习未能攻克的难题,甚至一度被认为在近期内是不可能被AI解决的。AlphaGo的成功不仅让人们看到了强化学习和随机模拟技术(也称“蒙特卡罗”技术)的魅力,也让深度学习变得更加炙手可热。

冷静之余,人们认识到AlphaGo的算法更适用于大规模概率空间的智能搜索,其环境和状态都是可模拟的。DeepMind的创始人德米斯·哈萨比斯表示,对于那些环境难以模拟的决策问题(如自动驾驶),这些算法也无能为力。

NLP完成从量到质的跃迁

2017年是自然语言处理领域的重要一年,这一年的种种实践(Word2vec和 GloVe)证明:预训练词嵌入模型已经成为解决NLP问题的一类关键性工具。

举例来说,来自Facebook AI Research(简称 FAIR)实验室的fastText即提供包含294种语言的预训练向量,这无疑给整个技术社区带来了巨大的贡献与推动作用。尽管已经实现了一定进展,但这方面仍有大量工作需要完成,这个领域需要更好的预训练模型的出现。

2018年,谷歌发布了BERT,因其在问题答复到语言推理等不同任务上的卓越表现而引发关注。BERT是近期NLP(GPT、GPT2、ULMFiT 和 roBERTa)等模型中的一部分,这些模型的系统性能较之前有了很大改进,因此一些研究人员会称NLP正处于它的“高光时刻”。

谷歌充分利用了BERT的优越性并且将其加入到了 搜索引擎 中,这也从侧面说明了这些技术兼具了研究和商业价值。2018年11月24日,谷歌正式放出BERT官方代码和预训练模型,包括模型的TensorFlow实现、BERT-Base和BERT-Large预训练模型和TensorFlow代码。

同样,2018年6月,OpenAI发表论文首次介绍了自己的语言模型GPT。2019年年初,OpenAI宣布开发出了一个大型语言模型,可以生成合成文本,名为GPT-2。出于谨慎考虑,公司并没有公开GPT-2的所有代码,同时也是担心它可能被误用。

5月,OpenAI发布了一个3.5亿参数的版本,并宣布将与有限的合作伙伴共享7.62亿参数和15亿参数,同时他们也在研究针对恶意使用GPT-2的对策。这款被业内传为“最强假新闻生成器”的GPT-2 AI模型,从诞生开始就引起大量关注。

时隔半年,GPT-2的阶段性开放终于进入尾声。11月6日,OpenAI正式放出 GPT-2最后一个部分的完整代码——包含15亿参数的最大版本。

这两个预训练模型的开放解决了标注数据缺乏的问题,帮助NLP完成了从量的积累到质的飞跃的转变。

联邦学习的征途是星辰大海

2016年,谷歌提出了联邦学习,原本是用来解决安卓手机终端用户在本地更新模型的问题,其可使用的机器学习算法不局限于神经网络,还包括随机森林等重要算法。联邦学习本质上是一种分布式机器学习技术,或机器学习框架,目标是在保证数据隐私安全及合法合规的基础上,实现共同建模,提升AI模型的效果。

过去几年,这一技术的标准在不断完善。IEEE联邦学习国际标准项目应运而生,这一项目由 微众银行 发起,于去年12月获批,是国际上首个针对人工智能协同技术框架订立标准的项目,目前已经召开了四次工作组会议。联邦学习标准草案预计将于 2020年2月推出,正式标准预计将于2020年上半年出台。联邦学习正在从“点到点的发展阶段”转向“应用落地、积累案例阶段”。

在框架方面,2019年取得了重要进展,诞生了首个工业级开源框架FATE,这是微众银行AI团队自主研发的开源框架。

FATE在今年2月份首发了0.1版本,3月份的时候有了第一位外部Contributor,同时GitHubStar突破100,5月份发布了0.2版本,支持了联邦特征工程和在线推理,6月份发布了0.3版本,把主要的合作伙伴迁移到了FATE,并把FATE捐献给了Linux Fundation,8月份发布了1.0版本,支持FATE-Flow和FATE-Board。

10 月 31 日,FATE v1.1 版本正式发布,联合VMware中国研发开放创新中心云原生实验室团队发布了 KubeFATE 项目,通过把 FATE 的所有组件用容器的形式封装,实现了使用 Docker Compose 或 Kubernetes(Helm Charts)来部署。

不到三年的时间,联邦学习已经快速地发展了起来,而且在业界也得到回应,京东、腾讯云、平安科技 等等企业也已经加入到联邦学习的队伍中来。

在推广联邦学习的过程中,建立一致的标准是目前面临的一大挑战。就在近期,IEEE P3652.1(联邦学习基础架构与应用)标准工作组第四次会议于北京成功召开。

北京大学、IEEE、微众银行、创新工场、京东、中国电信、腾讯、小米、阿里巴巴、依图、星云Clustar、第四范式、华为终端、VMWare、LogiOcean、SensesGlobal、Swiss Re、Intel、CETC BigData、蚂蚁金服、华夏基金、富数科技共 22 家头部企业与研究机构参与。

会议聚焦于联邦学习的场景分类与需求分类,着重对联邦学习的安全测评与评级进行规划,进一步探讨联邦学习标准制定,这可谓是联邦学习发展的奠基性的贡献。虽然目前联邦学习还没有迎来爆发式发展阶段,但好在,未来可期。

自动驾驶既不是天使,也不是魔鬼

2017年中是自动驾驶新闻疯狂爆涨的一年,几乎每隔一个月就会爆出一条自动驾驶领域大事件。6月13日,通用宣布首批130辆搭载公司最新一代自动驾驶技术的测试版雪佛兰Bolt纯电动车在密歇根州的奥莱恩工厂下线。

算上当时由50辆雪佛Bolt纯电动车组成的测试车队,通用已经拥有了一个由180辆Bolt组成的自动驾驶车队,在旧金山、亚利桑那州斯科茨代尔以及底特律开展公共道路测试。

7月11日,奥迪新款A8发布,其号称是全球首款具备L3级自动驾驶功能的量产车型,可以实现60km/h以下的低速条件下,在拥堵路况中实现自动驾驶。

(编辑:辽源站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读