人工智能三大要素有哪些?

  智能音箱的家庭普及率已经和PC、智能电视等产品相当,2019年第一季度智能音箱市场出货量达1122万台,同比增长787.2%。

  8月28日,中国工程院主办的“AICC2019中国人工智能计算大会”在北京召开,上述数据来自会上IDC和浪潮集团联合发布的《2019中国人工智能计算力发展评估报告》,它只是人工智能走入千家万户、百行千业的一个小场景。

  5G、物联网等多种技术的发展及融合加速了数据井喷,并以前所未有的速度和方式被存储和计算。类型丰富、场景各异的数据资源为人工智能系统自主学习并建立预测模型提供了丰沃的土壤。有赖于此,生物识别、欺诈分析、智能客服、公共安全及预警等AI场景在国内加速成熟应用。

  中国工程院院士、浪潮集团首席科学家王恩东说:“数据爆发的增长,算法创新加速,和计算能力的快速提升,让人工智能在全球范围内迅速从学术热点变成投资热点、产业热点。AI产业正在快速上规模,市场需求开始井喷。”

  人们将算法、数据和算力称为人工智能的三大要素,如果没有算力的支撑,人工智能难以走向应用。或许正是因此,将数据和算法协调起来的芯片尤为引人关注。

  IDC预测,GPU依然是数据中心加速的首选,随着边缘、端侧需求的快速增长,人工智能芯片市场将迎来多元化发展。但是,推理类芯片将成为未来最大的潜在市场和人工智能芯片市场的重要决胜点。

  据浪潮技术人员介绍,目前的AI芯片中,GPU芯片主要处理图像领域的运算加速。FPGA芯片适用于多指令、单数据流的分析。ASIC芯片为特定场景应用定制,在低功耗的移动设备端或边缘侧尤其具有优势,我国的寒武纪、地平线、华为等厂商常与这类芯片扯上关系。人工智能芯片又分为训练芯片和推理芯片,训练是指在已有数据中学习并获得某些能力的过程。推理过程则指对新的数据使用计算能力完成特定任务(比如分类、识别等)。

  从2012年到现在,每三个半月用于AI计算的计算量翻一倍,从2012年到现在,AI计算的能力增长了30万倍,同时期的芯片性能提高了30倍左右,远远超过了摩尔定律。

  “相比云计算和大数据等应用,人工智能对计算力的需求几乎无止境。”王恩东说,“计算力的提升,对体系结构提出了挑战。在半导体技术逐步接近极限的情况下,计算机发展迎来了体系结构创新的黄金期,计算力的提升将更多通过体系结构创新来满足。”

  IDC认为,人工智能基础架构产品在中国未来五年的复合增长率超过33%,这个增长速度是普通的IT基础设施投资的三倍多,随着计算需求的增长,会有越来越多的新的架构、芯片和其他技术出现。

  虽然看起来不是很快,但“AI产业化”向“产业AI化”转变的现象正在发生。据IDC数据,互联网依然是中国人工智能算力投资最大的行业,62.4%的钱是他们扎堆儿花出去的,从2018年起,金融、传统企业和政府用户,在人工智能基础架构领域的采购量超过了互联网,这个趋势还将保持下去。

  王恩东说:“中国的AI投资已经和美国相当,但在核心技术的投入和面向应用的深度研究上还有差距。应用是AI产业发展的瓶颈也是最大的机会,要从根本上解决问题,必须建立开放融合的人工智能生态。”

  国内很多人工智能企业锁定的都是单点单技术的应用,如人脸识别、考勤打卡,交通监控管理等。美国则流行用AI改变某些行业的业务流程和应用模式,比如,金融业的风险管理、证券业的高频交易等。

  IDC也强调,人工智能时代的用户需求越来越复杂,任何企业都无法提供所有的解决方案,生态系统将变得和知识产权一样重要。(记者 刘艳)

医学人工智能原理及实践 2019年04月19日 目 录 01 02 03 02 医学人工智能基础 医学人工智能应用 医学人工智能实践 目标 目标 目标 人工智能原理及课题合作方向 医学临床问题解决方案 基于平台的可视化操作 一、医学人工智能基础 什么是人工智能-新技术热点 最近几年新技术热点变化 人工 大数据 云计算 无人机 机器人 VR/AR 智能 区块链 新技术热点词汇 人工智能 机器人 区块链 人脸识别 CV NLP 工业机器人 协作机器人 VR/AR VR/AR 智能音箱 智能客服 AI芯片 机械外骨骼 并联机器人 VR游戏 VR电影 VR社交 无线充电 氢燃料电池 AI+金融 语音助理 AI+医疗 服务机器人 SLAM 体验 AR眼睛 VR头显 动力电池 分布式电网 店 无人店 AI+安防 自动驾驶 定位导航 图像检测 全息投影 三维重建 VR行业应用 柔性电池 太阳能光伏 航空航天 智能制造 物联网IOT 光机电 新材料 民营火箭 行业无人机 工业物联网 智能机器人 智慧城市 智慧交通 激光雷达 微波雷达 石墨烯 高分子 载人飞行器 消费无人机 工业大数据 故障预测 边缘计算 智慧家居 深度摄像头 芯片 复合材料 柔性材料 民营卫 消费无人机 先进机床 3D打印 智能建筑 车联网 高精度定 传感器 海洋装备 星 位 军民融合 信息安全 传感检测 云计算 大数据 半导体 无人船 ROV 什么是人工智能-人工智能定义 人工智能 (Artificial Intelligence)简称AI,主要研究如何用人工的方法和技术,使用各种自动化机器或智能机器 (主 要指计算机)模仿、延伸和扩展人的智能,实现某些机器思维或脑力劳动自动化 人工智能是一个很宽泛的概念,大体来说是对人的意识、思维信息过程的模拟。它企图了解“智能”的实质,并且生产出一种能像 人类一样在不同环境下,能做出相应反应的“智能机器”。人类对自身

人工智能(AI)主要包括三大要素,分别是数据、算法和算力。其中数据是基础,正是因为在实际应用当中的数据量越来越大,使得传统计算方式和硬件难以满足要求,才催生了AI应用的落地。而算法是连接软件、数据、应用和硬件的重要桥梁,非常关键。算力方面,主要靠硬件实现,也就是各种实现AI功能的处理器,而随着应用和技术的发展,能实现各种算力、满足不同应用的AI处理器陆续登场,经过不同的发展阶段,发挥着各自的作用。
在比较成熟的AI平台方面,在2012年出现了AlexNet,一直到最近,2018年出现了AlphaGo Zero,在短短的6年内,算力提高了20多万倍,这完全不同于传统计算硬件(如CPU、MCU等)的演进轨迹,速度之惊人令我们难以预测。
来自OpenAI的分析显示,近几年,AI训练所需的算力每3个多月就会翻倍,这比著名的摩尔定律(每18~24个月,芯片的性能翻倍)演进速度快多了。而提升算力的关键是芯片设计,特别是底层的架构设计,目前来看,传统的芯片架构已经难以满足AI应用的需要。包括IC厂商和互联网企业在内,越来越多的厂商开始投入研发或已经推出AI专用芯片。根据Gartner统计,AI芯片在2017年的市场规模约为46亿美元,而到2020年,预计将会达到148亿美元,年均复合增长率为47%。而据麦肯锡预测,未来10年,人工智能和深度学习将成为提升硅片需求的主要因素,2025年,在AI的推动下,全球硅片营收将超过600亿美元,接近全球半导体销售额的20%。
从AI芯片的应用场景类别来看,主要分为云端和终端。目前,AI在云端应用的更多,相对成熟,而其在云端应用又可分为训练和推理两种,其中训练的市场规模占比较高。另外,训练需要的数据量和计算量较大,所用的处理器主要是GPU。至于推理,也以GPU为主,此外,还有FPGA,以及专用的AI芯片(ASIC),其中,ASIC还不是很成熟,量产的产品也不多,因此用量有限,还处于发展初期,如果能实现大规模量产,其性能和成本是最优的,主要推进厂商是Google,其标志性产品就是TPU。
综上,目前,行业为实现AI计算,主要采用的芯片有三种,分别是通用型的GPU,可定制的FPGA,以及专用的ASIC。
在计算层面,芯片的晶体管数量和芯片面积决定了算力,面积越大算力越强,但功耗也将随之增加。过去几年,在AI处理器的选择上,可用于通用基础计算且运算速率更快的GPU迅速成为实现AI计算的主流芯片,英伟达也因此占据着数据中心AI芯片的主要市场份额。
FPGA是典型的半定制化芯片,其功能可以通过编程来修改,并行计算能力很强,但是延迟和功耗远低于GPU,而与ASIC相比,FPGA的一次性成本要低很多,但其量产成本很高。因此,在实际应用需求还未成规模,且算法需要不断迭代、改进的情况下,利用FPGA的可重构特性来实现半定制的AI芯片是最佳选择。
AI专用芯片ASIC是面向特定应用需求而定制的芯片,一旦流片,其功能无法更改,因此,必须要有量的保证,且应用需求稳定,不会发生大的变化。专用ASIC芯片的性能高于FPGA,如果出货量可观,其单颗成本可做到远低于FPGA和GPU。
目前来看,由于GPU具备强大的并行计算能力和完善的生态系统,现在云端AI应用方面处于主导地位。FPGA方面,由于是半定制化的,可以通过编程来实现不同的功能电路,因此,其在通用性和性能之间取得了比较好的平衡,但是较高的开发门槛和量产成本,对其应用是个限制。
图:在实现AI功能方面,GPU、FPGA和ASIC的优缺点对比(来源:长城证券研究所)
专用的AI芯片应该是未来的发展趋势,无论是在云端还是在边缘侧,随着应用的逐渐落地,应用场景和各种专用功能会愈加清晰,市场需求也会越来越多。另外,与GPU和FPGA相比,ASIC的专利壁垒要小得多,而且其设计难度也是最小的。随着AI应用场景的落地,专用的ASIC芯片量产成本低、性能高、功耗低的优势会逐渐凸显出来。
目前,在AI应用方面,全球数据中心用GPU市场基本被英伟达垄断,这里用到的都是高性能GPU,其门槛很高,又是用于AI,因此,还没有什么竞争对手。
除了GPU芯片本身之外,英伟达还有一个优势,那就是其在AI计算方面,有CUDA软件生态系统的配合。CUDA编程工具包让开发者可以对每一个像素轻松编程,在这之前,对程序员来说,GPU编程是一件很痛苦的事,CUDA成功将Java、C++等高级语言开放给了GPU编程,从而让GPU编程变得简单了许多,研究者也可以更低的成本快速开发他们的深度学习模型。以图形处理器加速卡Tesla V100 PCIe/SXM2为例,其芯片采用台积电的12nm制程工艺,通过与CUDA软件和NVLink快速通道的配合,能达到近125兆次深度学习的浮点运算训练速度,而以16bit的半精度浮点性能来看,可达到31Tera FLOPS。
FPGA方面,Altera被英特尔收购之后,赛灵思是目前的霸主,作为传统的CPU厂商,英特尔近几年正在AI领域大力布局,收购相关公司自然是一个重要手段,通过收购全面布局 FPGA和ASIC,除了Altera的FPGA之外,还通过收购Mobileye和视觉处理器公司Movidius,布局无人驾驶和计算机视觉,这也是将来AI大有可为的两个应用领域。
在收购Altera之后,英特尔的技术发展路线就出现了调整,例如,其原来的产品策略是做分立的CPU+FPGA加速器,而两家公司整合后,由简单的分立器件叠加改为了封装集成,即将CPU和FPGA芯片封装在一起,这还不算完,英特尔下一步还要将CPU和FPGA集成在同一芯片内,做成SoC。
赛灵思方面,该公司于2018年底推出了以低成本、低延迟、高能效深度神经网络(DNN)算法为基础的Alveo加速卡,基于该公司的UltraScale架构,采用了台积电的16nm制程工艺,目标市场就是数据中心和云端的AI推理市场。
AI专用ASIC方面,国内外已经有多家企业投入了研发,例如国内的寒武纪(正在开发NPU)、地平线(BPU系列),还有华为海思和比特大陆,也在专用AI芯片方面投入了不少资源。国外最为知名的就是谷歌的TPU了,这也是到目前为止,最为成熟的高性能AI专用芯片了。做ASIC需要对应用场景有深刻和精确到位的了解,而这方面却是传统芯片设计企业和IDM的短板,因此,目前做AI专用ASIC的,大多是系统产商,互联网巨头,或者以算法起家的公司。
在中国,比特大陆的算丰 (SOPHON) BM1680和BM1682云端安防及大数据AI推理系列产品已经上市,此外,还有其它几家没有量产的芯片,如华为海思的昇腾Ascend 910系列,据悉会采用台积电的7nm制程工艺,预计会在今年年底量产。此外,百度的昆仑芯片(采用三星的14nm制程),以及阿里平头哥的Ali-NPU等,也处在研发阶段,距离量产还有一段时日。
以上谈的主要是用于云端的AI芯片,包括GPU、FPGA和ASIC,这也是目前AI的主要应用领域,而在终端和边缘侧,更多的要依靠不断成熟的ASIC,因为ASIC与应用场景有着非常紧密的关系,而这里说的应用场景,主要是在终端和边缘侧。
AI发展正处于强劲的上升阶段,此时,各种AI芯片实现方案都有其发挥的空间,可以说是处于最佳时期,这也给众多厂商占领各自擅长之应用市场提供了更多的机会。而随着应用场景的完全落地,以及AI专用芯片的成熟和大规模量产,这一发展窗口期很可能就将关闭,因此,眼下各家厂商,无论是做GPU、FPGA,还是做ASIC的,都在抓紧时间研发和拓展市场,竞争愈发激烈。

我要回帖

更多关于 人工智能三大基础 的文章