当前位置: 上海时时乐走势图 > 股票金融 > 正文

角落市镇2018寒暑攻略,转向人工智能为先

时间:2019-09-17 03:59来源:股票金融
基于净资产收益率的基本面研究是遴选优质港股的有效指标 谷歌和百度纷纷转向人工智能为先,软硬两个层面突飞猛进 本文节选自《深度学习21天实战Caffe》By 赵永科    人民币中期贬

基于净资产收益率的基本面研究是遴选优质港股的有效指标

谷歌和百度纷纷转向人工智能为先,软硬两个层面突飞猛进

本文节选自《深度学习21天实战Caffe》By 赵永科

    人民币中期贬值的大背景下,中国投资者资金大量流入香港和美国市场。港股通的开通推高了港股估值中枢,这一趋势在2018年仍将持续。净资产收益率是海外市场评判公司投资价值的最有效指标之一。我们相信企业的增长是建立在ROE这个内生性上的,认为forwad PE/ROE估值方法更能判断当前价位是否适合买入股票和持有股票,这个估值方法的核心思想是以ROE作为企业内生增长力的主要考核指标,当PE小于ROE时候,公司市盈率低于内生增长力,股价被低估,考虑买入或者持有。

    本篇半年度策略软硬结合,先讲述软的人工智能的模型、策略、算法层面,再讲述各大巨头的硬件产品层面。我们认为,硬件层面的参数是容易观察的,而软层面的大模型、大算法的演进更需要进行长期深入分析。2017年6月8日,百度集团总裁兼COO陆奇表示百度不再是互联网公司,而是人工智能公司。早在2016年,谷歌CEO桑德尔·皮蔡就表示,谷歌已经从一家移动为先的公司,成为了一家人工智能为先的公司。基于对AI的理论和应用的内在认识,我们长期看好人工智能行业及相关公司。

深度学习一度备受冷落,真正的燎原之势始于2012年多伦多大学Geoffrey Hinton的学生Alex Krizhesky在ILSVRC(ImageNet LargeScale Visual Recognition Challenge, ImageNet大规模视觉识别竞赛,

    真实经济向虚拟经济迁移,是宏观干预失效后解决危机新方式

    真实经济向虚拟经济迁移,是宏观干预失效后解决危机新方式

如图1.2所示为Alex在比赛中使用的深度学习模型AlexNet结构。注意到网络分成上下两部分,分别运行在两块GPU(GRaphics Processing Unit)上,其中虚线表示两块GPU之间的数据通信。事实上,该模型已成为深度学习的模板结构,一些新模型(VGG/GoogleNet)均在AlexNet基础上改进得到。

    解决经济危机的教科书方式有战争自然灾害,以及凯恩斯主义的宏观调控。但是从2008年开始的这一轮经济危机,却是以货币膨胀为代表的宏观调控的失效而告终。在美联储缩表,中国实行中性货币政策的背景下,真实经济复苏动力不足,而新兴的信息虚拟经济却在2017年显示出强大的增长力。我们在游戏行业一季度综述中已经指出:全球经济正在从真实经济向信息虚拟经济迁移,消费主力正从货币幻觉过渡到智能幻觉。我们明显看到美国科技公司R&D费用的增长中位数约26.4%,远远超过中国科技公司。我们认为以科技创新为核心的经济内生增长力才是未来重要看点。

上海时时乐全天计划,    解决经济危机的教科书方式有战争自然灾害,以及凯恩斯主义的宏观调控。但是从2008年开始的这一轮经济危机,却是以货币膨胀为代表的宏观调控的失效而告终。在美联储缩表,中国实行中性货币政策的背景下,真实经济复苏动力不足,而新兴的信息虚拟经济却在2017年显示出强大的增长力。我们在游戏行业一季度综述中已经指出:全球经济正在从真实经济向信息虚拟经济迁移,消费主力正从货币幻觉过渡到智能幻觉。我们明显看到美国科技公司R&D费用的增长中位数约26.4%,远远超过中国科技公司。我们认为以科技创新为核心的经济内生增长力才是未来重要看点。

上海时时乐全天计划 1

    大模型、大计算、大数据是深度学习三大支柱,需要多维度更新

    大模型、大计算、大数据是深度学习三大支柱,需要多维度更新

为什么深度学习在2012年而不是其它时间爆发?主要有3个有利因素:

    深度学习的成功主要归功于三大因素--大数据、大模型、大计算。模型技术的发展使得训练大模型成为了可能,例如上千层的深度神经网络都已经发展成为现实。同时硬件的提升可以实现大计算,从CPU到GPU,可获取的计算资源越来越丰富。人工智能的模型算法可以分为两个方向:以统计方法为主的机器学习,和以神经网络架构为主的深度学习。近十年来深度学习有了长足的发展,神经网络被应用到图像识别、语音识别、自然语言处理、无人驾驶等许多细分领域。伴随着CPU、GPU、FPGA、ASIC等硬件的更迭,深度学习的平台和系统也逐步建立完善。预计未来硬件和软件的结合将会更加紧密。

    深度学习的成功主要归功于三大因素--大数据、大模型、大计算。模型技术的发展使得训练大模型成为了可能,例如上千层的深度神经网络都已经发展成为现实。同时硬件的提升可以实现大计算,从CPU到GPU,可获取的计算资源越来越丰富。人工智能的模型算法可以分为两个方向:以统计方法为主的机器学习,和以神经网络架构为主的深度学习。近十年来深度学习有了长足的发展,神经网络被应用到图像识别、语音识别、自然语言处理、无人驾驶等许多细分领域。伴随着CPU、GPU、FPGA、ASIC等硬件的更迭,深度学习的平台和系统也逐步建立完善。预计未来硬件和软件的结合将会更加紧密。

(1)更大的数据集,如ImageNet

    谷歌等软技术公司引领AI主流,电商和社交巨头耕耘垂直领域

    谷歌等软技术公司引领AI主流,电商和社交巨头耕耘垂直领域

(2)新的深度学习技术,如ReLU,Dropout等

    谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱机器学习,新产品进军家庭智能音箱并打造工作站级别Mac。另外,腾讯的深度学习平台Mariana已支持了微信语音识别的语音输入法、语音开放平台、长按语音消息转文本等产品,在微信图像识别中开始应用。通过Mariana,识别准确率获得了极大的提升,目前识别能力已经跻身业界一流水平。从上述全球前十大科技公司对人工智能的投入程度和应用的实现,人工智能已经成为2017年行业的风向标,是移动互联网之后的科技高地所在。

    谷歌的人工智能位于全球前列,在图像识别、语音识别、无人驾驶等技术上都已经落地。而百度实质意义上扛起了国内的人工智能的大旗,覆盖无人驾驶、智能助手、图像识别等许多层面。苹果业已开始全面拥抱机器学习,新产品进军家庭智能音箱并打造工作站级别Mac。另外,腾讯的深度学习平台Mariana已支持了微信语音识别的语音输入法、语音开放平台、长按语音消息转文本等产品,在微信图像识别中开始应用。通过Mariana,识别准确率获得了极大的提升,目前识别能力已经跻身业界一流水平。从上述全球前十大科技公司对人工智能的投入程度和应用的实现,人工智能已经成为2017年行业的风向标,是移动互联网之后的科技高地所在。

(3)新的计算硬件,如GPU

我们先看看国外的深度学习有哪些进展。

谷歌与微软

Google在Geoffrey Hinton等大牛的带领下,在理论与技术方面一直保持世界领先地位。利用GoogleNet,在2014年ILSVRC中其分类错误率低至6.66%。

基础平台包括早期基于大规模集群的DistDebief(由16000个计算节点组成)和近期开放的支持GPU加速的TensorFlow。2016年朋友圈刷屏的“阿尔法狗”(AlphaGo)也是Google强大深度学习的具体案例之一。

Microsoft在2015年ILSVRC目标检测任务中使用深度参与学习框架(Deep Residual Learning Framework)取得绝对优势,赢得200个类目中194个最佳检出率,平均检出概率高达62%(2014年同一任务最好结果为37%)。基于Caffe实现的Fast-RCNN(作者为Ross Girshick)在目标识别领域占有重要地位。

Microsoft在基础平台方面也势头强劲,2015年推出的Azure Machine Learning Studio有大量的机器学习算法,适合用来构建预测分析解决方案。这些算法可用于一般的机器学习,如回归分析、分类、聚类和异常检测,且每一个都可以解决不同类型的机器学习问题。为其做支撑的不仅有高可扩展性、支持CPU/GPU计算的Minerva及分布式深度学习训练系统Adam、CNTK,还有利用Catapult加速深度卷积神经网络(DCNN)的项目也在进行中。

Facebook,亚马逊与NVIDIA

Facebook于2013年成立了人工智能实验室,在Yann LeCun的带领下Facebook同纽约大学数据科学中心在数据科学、机器学习、人工智能领域展开合作,代表性工作有最著名的开源深度学习项目Torch(

Amazon本身是做IaaS平台的,看到机器学习如火如荼地发展,也迅速融入并推出了云上的机器学习服务( Machine Learning提供可视化的工具和向导,无须学习复杂的机器学习算法和技术,使用简单的API即可让用户应用程序轻松获得预测能力,而无须实现自定义预测生成码或管理任何基础设施。采用Amazon内部使用的机器学习方法,非常容易扩展。而且,使用Amazon MachineLearning不需要对硬件或软件事先投入资金,秩序按使用量付费。

另外,不得不提NVIDIA,这家老牌显卡制造商也将未来方向瞄准了深度学习,于GTC2015、2016连续发布多款面向深度学习的GPU加速器硬件(Tian X、Tesla P100)、加速库(cuDNN)和解决方案(DIGITS DevBox、DGX-1),为深度学习的普及和更大模型的支持起到推波助澜的作用。

以上为国外情况,国内情况又如何呢?

BAT在路上

百度是国内较早开展深度学习研究的企业,于2013年年初创立了百度深度学习实验室(Institute of Deep Learning, IDL,http://idl.baidu.com/),斯坦福大学教授、Google大脑创始人AndrewNg随后加入。IDL研究方向包括深度学习&机器学习、机器人、人机交互、3D视觉、图像识别、语音识别等,同时开展了一系列深度学习相关的创新项目,如无人机、智能自行车DuBike、自动驾驶汽车、智能眼镜BaiduEye等。

百度在深度学习计算平台基础设施建设方面一直走在国内互联网公司的前列,百度在ImageNet挑战中取得的成绩得益于其超级计算机Minwa(36个服务器节点,每个节点2个六核Xeon E5-2620和4个NVEDIA Tesla K40m

GPU)。为了提高深度学习算法的计算速度,百度在GPU和CPU上做了很多优化,发表了一些深度学习算法GPU加速的论文(虽然中间有点小插曲)。经过这些工作,百度也意识到GPU、CPU在深度学习应用中的成本效率、能耗效率和目标间的差距。在充分考量各种芯片的特性后,可编程、低功耗并拥有超强并行计算能力的FPGA走进了百度工程师们的视野。百度开始尝试用FPGA打造AI专有芯片,并成就了第一本AI专有芯片版百度大脑

FPGA版百度大脑。这使得百度成为了全球最早将GPGA规模应用在人工智能领域的公司。

阿里巴巴作为电子商务巨头,很早就看到了深度学习在商品检索方面的应用价值,在阿里巴巴图像搜索的领军人物、阿里巴巴搜索事业部研究员华先胜的带领下迅速将深度学习技术成功应用到手机淘宝图像搜索业务

拍立淘中。2015年“双11”当天,上千万消费者使用了拍立淘功能,引导了数千万元的销售额。拍立淘上线一年以来,所覆盖的类目范畴已经从最开始的女装,发展到目前的男女装、鞋包、配饰、食品、数码、家居、日用百货、内衣、瓶饮等十余个类目。与通用搜索主要依靠字节不同,图像搜索备注要定义为“以图搜图”。据华先胜介绍,图像搜索的第一步是训练计算机进行图像理解,也就是通过计算机将图片中的要素,包括人像、颜色、纹理等具体特征以及深度学习产生的图像描述,转换为类似于文字的“视觉词”,编成索引之后,才能再进行第二步

图像搜索。图像搜索仍有很多未知领域有待探索。在华先生看来,能推动图像搜索下一步突破的关键有三点:深度学习、大数据分析和大量用户使用反馈。环顾国内外,似乎只有阿里巴巴能够同时具备这三个条件。对于“拍立淘”的未来,华先胜表示,拍立淘将会拓展到更多领域,力争成为人们获取信息(包括购物、教育、娱乐、新闻、知识等)的一个快捷、有趣、有效的入口,而不仅仅是搜寻商品的入口。

阿里巴巴在基础平台建设方面起步虽晚,但发展迅速,利用装备NVIDIA Tesla GPU的高性能计算机群,不尽完美之城拍立淘、搜索、OCR、绿网、神马语音、iDST等内部业务,还进一步在2015年10月14日云栖大会上正式宣布通过阿里云对外提供公共云上的HPC服务( M40作为加速器,可大大提高深度学习应用的运行效率,基于Docker的快速环境部署大幅降低了客户使用深度学习框架的门槛,可谓开箱即用。

腾讯拥有海量的社交关系数据,在深度学习应用方面潜力巨大,目前主要应用为语音识别、图像识别和广告推荐。腾讯优图(BestImage,

腾讯在深度学习基础平台方面经历多次升级逐步完善,在Mariana DNN、Mariana CNN、Mariana Cluster等基础框架,在微信语音识别、微信图像识别方面均已成功落地,在图文类效果广告点击率提升方面也取得初步的应用。

星光闪耀

中国科学院计算所计算机体系结构国家重点实验室未来计算组陈云霁研究员领导的团队提出了国际上首个深度神经网络处理器寒武纪1号(DianNao),通过高效的分块处理和访存优化,能高效处理任意规模、任意深度人工神经网络,以不到通用处理器1/10的面积和功耗达到了100倍以上的神经网络处理速度,性能功耗比提升了1000倍。该项工作意味着,处理器结构设计的创新,有望在未来时的手机移动终端具备谷歌大脑级别的认知处理能力。2014年12月,新推出的寒武纪2号神经网络处理器(DaDianNao)荣获年度Micro最佳论文。“DaDianNao”又有多项突破,性能继续大幅度提升,与通用芯片和GPU相比,计算速度提高几十倍,功耗只有十分之一,整体能效提高450倍。陈云霁透漏,这种芯片将用在国产手机上。“寒武纪”芯片执行的是一种与通用计算完全不同的指令集

电脑语“DianNaoYu”。所谓指令集就是电脑“语言”,其直接面对大规模神经元和突触的处理,一条指令即可完成一组神经元的处理。模拟实验表明,“寒武纪”相对于传统的执行x86指令集的芯片,有两个数量级的性能提升。与传统的通用计算指令集相比,“电脑语”显然更类似于人类大脑的学习方式,因此有人将其称为“下一代人工智能技术”。“电脑语”被计算机体系结构领域顶级国际会议IS-CA

2016接收,其评分在近300篇投稿中排名第一。陈天石研究员表示,“寒武纪”不是代替中央处理器的颠覆式革命。从目前的情况来看,它更像是一款针对智能认知等应用的专用芯片

“我们的优势主要集中在人脸识别、声音识别等人工智能方面。比如,传统的手机或个人电脑主板上嵌入‘寒武纪’芯片后,将极大地提高处理这类任务的速度,并且降低能耗”。

科大讯飞股份有限公司(

企业热是风向标

近两年国内利用深度学习技术的创业公司如雨后春笋般涌现。

商汤科技

Face++(

涂鸦(

格灵深瞳(

Dress+(

Linkface(

编辑:股票金融 本文来源:角落市镇2018寒暑攻略,转向人工智能为先

关键词:

  • 上一篇:没有了
  • 下一篇:没有了