看赛灵思中文社区如何以FPGA对抗英特尔,NVIDIA

英伟达AI之路遇打击,微软实时AI云平台为啥选择了英特尔的FPGA?-可编程逻辑-与非网
长远来看,英特尔豪赌167亿美元收购制造商Altera的举动是一笔好买卖。现在,FPGA已经成为深层神经网络中GPU的强力竞争对手;
应该也已经发现了,微软新的实时云AI/深度学习平台&BrainWave&项目正在采用英特尔的 FPGA;
在微软早期进行的测试中,其基于Stratix 10的&BrainWave&项目中的FPGA系统在FP8持续计算上达到39.5万亿次每秒的运算速度;
微软计划向需要实时人工智能服务的Azure客户推介搭载英特尔计算平台的&Brain Brain&项目。
预计英特尔的FPGA将减缓英伟达数据中心/汽车业务板块的增长速度。
英特尔收购Altera时豪掷的167亿美金终于见到回报了。现在,Altera的FPGA(现场可编程门阵列)产品成为英特尔对抗英伟达基于GPU的深度学习神经网络平台的利器。与CPU(中央处理单元)相比,GPU(图形处理单元)在并行计算方面存在优势,GPU专家英伟达借此跻身为深度学习计算领域的公认领导者。
然而,英伟达的投资者们应该注意到,微软新的&BrainWave项目&搭载了英特尔的Stratix 10 FPGA。微软在选择深度神经网络[DNN]处理单元或DPU时,没有选择英伟达的Tesla或者Volta GPU,反而选择了Stratix 10。 英特尔将从微软在全球各个数据中心大规模部署&BrainWave&项目中获得显著的经济效益。英特尔没有任何独立的GPU产品,但它拥有的FPGA足以加强其未来在超大型深度神经网络中的作用。
为什么这很重要
现在,以人工智能为中心的数据中心和汽车业务板块为英伟达贡献的季度收入已经超过5亿美金。微软在向Azure客户提供的Brainwave项目中使用FPGA后,也可以为英特尔贡献同等规模的季度收入。我估计,除了微软之外,其它涉足人工智能的公司也会在其GPU加速的深度学习平台中使用英特尔的FPGA。
英伟达股价上升到目前的高度,部分原因来自于它在深度学习计算方面的先发优势。微软采用英特尔的FPGA加速其深度神经网络也可以帮助提升其股价表现。专注AI的投资者们现在应该正视英特尔,它的Stratix 10产品让英特尔一跃成为深层神经网络的硬件供应商巨头。
过去三年中,英伟达的股票大幅跑赢了英特尔。未来,应用在微软Azure服务业务中的Stratix FPGA将成为英特尔进入企业AI市场的迟到的船票。
通过GPU加速的Azure产品,微软与英伟达公司建立了合作伙伴关系。另一方面,BrainWave项目是微软使用FPGA加速器推进其实时人工智能商业服务的举措。
训练深度学习计算机是一个需要高吞吐量的计算密集型过程,GPU优异的并行计算性能使其成为理想选择。然而,GPU能够并行处理复杂的训练输入,FPGA则对加速推理很有效。
加速推理的主要目的是改善服务器与最终用户之间的延迟。 微软对&BrainWave&项目的推广定位是实时(零延迟)AI平台。因此,英特尔的FPGA比英伟达的GPU更加适合做微软BrainWave项目的DPU。
BrainWave项目最终可能用在微软为百度自主驾驶汽车定制的云框架/解决方案上。微软是百度自主驾驶汽车业务上的合作伙伴。和微软一样,百度也在其数据中心上使用FPGA。基于FPGA的BrainWave项目被标榜为针对计算机视觉、机器学习和深度学习,它可以满足未来自动驾驶汽车的云基础设施需求。
GPU和FPGA是目前虽小但正在快速增长的人工智能服务行业的关键元件。 根据Tractica的报告,到2025年,与AI相关的产品和服务市场规模将增长到368亿美元。FPGA可以帮助英特尔在这个利基市场上更好地竞争。
未来,英特尔真的需要更多FPGA产品客户。它需要这块收入来帮助支付它在以167亿美元收购Altera时发行的70亿美元债券。每个新收入来源都可以帮助英特尔恢复因大举投资Altera而拉下的饥荒。
为什么英特尔的FPGA对微软至关重要
Stratix 10的F32峰值性能仍然明显低于英伟达的Pascal GPU。 然而,市场正日趋采用紧凑型低精度数据类型(低于32位或FP32)。 TensorFlow和Caffe等DNN软件框架支持低精度FP16(16位)和FP8(8位)数据类型。在这些不需要FP32级性能的深入学习/机器学习任务中,FPGA可以大行其道。
对于非常低精度的2位和1位DNN的持续改进和FPGA在FP8和FP9 DNN框架上的出色表现相辅相成。人工智能/深度学习并不完全依赖于英伟达GPU所擅长的传统密集FP32和FP64运算。微软的Brainwave项目并没有使用GPU,是因为它还希望能够通过低精度FPGA实现更节能的DNN。不像可以深度定制的FPGA,当涉及到低精度、稀疏、不规则的DNN时,GPU的表现很差。
在早期测试中,基于Stratix 10的Brainwave项目中的FPGA硬件持续计算性能达到39.5万亿次每秒,这个测试是微软在定制的低精度8位浮点格式下完成的。随着继续优化完善Brainwave项目,预计性能还可以进一步提高。
微软长期以来对FPGA的兴趣是英特尔大举押注Altera的原因之一。BrainWave项目是微软2011年推出的 Catapult项目的延续。六年前,微软就已经在其数据中心中配备了Altera FPGA加速板。现在,微软正在使用英特尔最新的Stratix 10 FPGA来加速基于云的深度学习任务,而不仅仅是传统的企业计算工作负载。
微软早在2011年就知道,传统的Xeon CPU无法胜任AI计算任务。英特尔迅速收购Altera的举措表明,它已准备好适应微软转向FPGA加速超大型数据中心的巨大转变。我认为,英特尔从来都没有考虑过购买英伟达这样的GPU厂商,它看中的是微软大力推动FPGA加速云计算背后的趋势,投资的是Altera的潜力和FPGA的未来。
在数据中心硬件产品上,英特尔不需要拿出自己的GPU来与英伟达竞争,它手中的利器是基于14nm工艺、面向数据中心加速应用的Stratix 10。英特尔将继续向数据中心运营商兜售Xeon处理器,同时也会努力争取为其FPGA获得新的订单。
更多有关FPGA的资讯,欢迎访问
与非网编译内容,未经许可,不得转载!
关注与非网微信 ( ee-focus )
限量版产业观察、行业动态、技术大餐每日推荐
享受快时代的精品慢阅读
与非网小编
电子行业垂直媒体--与非网小编一枚,愿从海量行业资讯中淘得几粒金沙,与你分享!
中国可能会改变其走向,但NXP的投资者仍然不喜欢高通。
发表于: 09:29:06
我们早就提出了“大众创业、万众创新”,但是政策层面的驱动力到底有多大?个人感受是,政策的最大意义还是改善行业环境,大家开始不去一味的山寨、抄袭,而是在追赶中不断实现超越,但是政策并不能立刻改变一个行业的发展;除了政策还有钱,单在集成电路领域就有各种基金,国家基金、每个省的大笔投资,不能说完全没有效果,至少还是在技术追赶的道路上推动了快速发
发表于: 11:48:55
美光在上周一结束的2018年分析师大会介绍了很多翔实的信息,投资者有足够的理由对美光未来的发展方向和相关优先事项感到满意。但是,尽管有一些微妙的线索,美光依然对利用3D XPoint技术(以下简称XP)的计划讳莫如深。本文将讨论美光暗示的线索对这项可能改变游戏规则的技术预示了什么。
发表于: 11:09:23
内存芯片制造商美光的股票在过去12个月里翻了一倍多,得益于内存供货紧张和其高昂的价格,让美光的销售额连续两个季度获得两位数的增长。
发表于: 17:52:29
由于对其新芯片的需求不断增长,先进的微设备(纳斯达克:AMD)最近造成了华尔街预期的奔溃。得益于其Ryzen cpu(中央处理器)和Radeon gpu(图形处理单元)的普及,这家总部位于加州圣克拉拉的公司的收入同比增长了40%。
发表于: 17:45:56
嵌入式FPGA(eFPGA)是指将一个或多个FPGA以IP的形式嵌入ASIC,ASSP或SoC等芯片中。
发表于: 09:42:20
FPGA是现场可编程门阵列的简称,FPGA的应用领域最初为通信领域,但目前,随着信息产业和微电子技术的发展,可编程逻辑嵌入式系统设计技术已经成为信息产业最热门的技术之一,应用范围遍及航空航天、医疗、通讯、网络通讯、安防、广播、汽车电子、工业、消费类市场、测量测试等多个热门领域。
发表于: 17:04:22
FPGA(Field-Programmable Gate Array),即现场可编程门阵列,它是在PAL、GAL、CPLD等可编程器件的基础上进一步发展的产物。它是作为专用集成电路(ASIC)领域中的一种半定制电路而出现的,既解决了定制电路的不足,又克服了原有可编程器件门电路数有限的缺点。
发表于: 17:02:08
寻找为 FPGA 供电的最佳解决方案并不简单。许多供应商以适合为
FPGA 供电的名义推销某些产品。为 FPGA 供电的 DC-DC 转换器选择有何特定要求?其实并不多。一般而言,所有电源转换器都可用来为 FPGA 供电。
发表于: 16:43:26
FPGA因为其产品特性,一直被认为在云端和网络端的AI技术方面更有发挥空间,而近日,作为低功耗、小尺寸、低成本FPGA的代言人,莱迪思公司宣布进入网络边缘计算市场的AI领域。
发表于: 11:24:37
与非门科技(北京)有限公司 All Rights Reserved.
京ICP证:070212号
北京市公安局备案编号: 京ICP备:号深度学习的三种硬件方案:ASIC,FPGA,GPU;你更看好?
我的图书馆
深度学习的三种硬件方案:ASIC,FPGA,GPU;你更看好?
今天被罗振宇的跨年演讲刷爆了朋友圈。不过他讲深度学习和GPU的时候,真让人虐心。显卡的处理器称为图形处理器(GPU),它是显卡的“心脏”,与CPU类似,只不过GPU是专为执行复杂的数学和几何计算而设计的,这些计算是图形渲染所必需的。对深度学习硬件平台的要求要想明白“深度学习”需要怎样的硬件,必须了解深度学习的工作原理。首先在表层上,我们有一个巨大的数据集,并选定了一种深度学习模型。每个模型都有一些内部参数需要调整,以便学习数据。而这种参数调整实际上可以归结为优化问题,在调整这些参数时,就相当于在优化特定的约束条件。  百度的硅谷人工智能实验室(SVAIL)已经为深度学习硬件提出了DeepBench基准,这一基准着重衡量的是基本计算的硬件性能,而不是学习模型的表现。这种方法旨在找到使计算变慢或低效的瓶颈。 因此,重点在于设计一个对于深层神经网络训练的基本操作执行效果最佳的架构。那么基本操作有哪些呢?现在的深度学习算法主要包括卷积神经网络(CNN)和循环神经网络(RNN)。基于这些算法,DeepBench提出以下四种基本运算:矩阵相乘(Matrix Multiplication)——几乎所有的深度学习模型都包含这一运算,它的计算十分密集。卷积(Convolution)——这是另一个常用的运算,占用了模型中大部分的每秒浮点运算(浮点/秒)。循环层(Recurrent Layers )——模型中的反馈层,并且基本上是前两个运算的组合。All Reduce——这是一个在优化前对学习到的参数进行传递或解析的运算序列。在跨硬件分布的深度学习网络上执行同步优化时(如AlphaGo的例子),这一操作尤其有效。除此之外,深度学习的硬件加速器需要具备数据级别和流程化的并行性、多线程和高内存带宽等特性。 另外,由于数据的训练时间很长,所以硬件架构必须低功耗。 因此,效能功耗比(Performance per Watt)是硬件架构的评估标准之一。GPU在处理图形的时候,从最初的设计就能够执行并行指令,从一个GPU核心收到一组多边形数据,到完成所有处理并输出图像可以做到完全独立。由于最初GPU就采用了大量的执行单元,这些执行单元可以轻松的加载并行处理,而不像CPU那样的单线程处理。另外,现代的GPU也可以在每个指令周期执行更多的单一指令。所以GPU比CPU更适合深度学习的大量矩阵、卷积运算的需求。深度学习的应用与其原先的应用需求颇为类似。GPU厂家顺理成章的在深度学习,找到了新增长点。英伟达以其大规模的并行GPU和专用GPU编程框架CUDA主导着当前的深度学习市场。但是越来越多的公司开发出了用于深度学习的加速硬件,比如谷歌的张量处理单元(TPU/Tensor Processing Unit)、英特尔的Xeon Phi Knight's Landing,以及高通的神经网络处理器(NNU/Neural Network Processor)。多亏了新技术和充满GPU的计算机数据中心,深度学习获得了巨大的可能应用领域。这家公司的任务中很大一部分都只是获取用来探索这些可能性的时间和计算资源。这项工作极大地扩张了设计空间。就科学研究而言,覆盖的领域已经在指数式扩张了。而这也已经突破了图像识别的范畴,进入到了语音识别、自然语言理解等其它任务中。正因为覆盖的领域越来越多,微软在提高其GPU集群的运算能力的同时也在探索使用其它的专用处理器,其中包括FPGA——一种能针对特定任务(如深度学习)编程的芯片。而且这项工作已经在全世界的技术和人工智能领域掀起了波澜。英特尔完成了其历史上最大的并购案,收购了专注FPGA的Altera。FPGA的优势是,如果计算机需要改变,它可以被重新装配。但是,最通用、最主流的方案仍旧是使用 GPU,以并行处理大量数学运算。不出预料,GPU 方案的主要推动者是该市场的霸主英伟达。英伟达旗舰显卡 Pascal Titan X事实上, 2009 年之后人工神经网络的复兴与 GPU 有紧密联系——那一年,几名斯坦福的学者向世界展示,使用 GPU 可以在合理的时间内训练深度神经网络。这直接引发了 GPU 通用计算的浪潮。英伟达首席科学家、斯坦福并发 VLSI 架构小组的负责人 &William J. Dally 表示:“行内每个人现在都在做深度学习,这方面,GPU 几乎已经达到了最好。”  几乎所有深度学习的研究者都在使用GPU  熟悉深度学习的人都知道,深度学习是需要训练的,所谓的训练就是在成千上万个变量中寻找最佳值的计算。这需要通过不断的尝试实现收敛,而最终获得的数值并非是人工确定的数字,而是一种常态的公式。通过这种像素级的学习,不断总结规律,计算机就可以实现像像人一样思考。如今,几乎所有的深度学习(机器学习)研究者都在使用GPU进行相关的研究。当然,只是“几乎”。除了GPU之外,包括MIC和FPGA也提供了不同的解决方案。  “技术发展和科技的发展,是需要不同的技术一起来参与。无论是GPU也好、FPGA也好或者是专用的神经网芯片也好,它的主要目的都是推动深度学习(机器学习)这个方向的技术发展。那么我们在初期,确实可以尝试不同的技术,来探讨哪种技术可以更好的适合这项应用。从目前来看,深度学习大量的使用,主要集中在训练方面。那么在这个领域,GPU确实是非常适合的,这也体现在所有的这些工业界的大佬如BAT、谷歌,Facebook等等,都在使用GPU在做训练。”NVIDIA如是说。面对FPGA以及ASIC的挑战,NVIDIA表示“考虑是否设计低功耗的GPU,来满足用户的需求”。  除了硬件方面的因素之外,英伟达从软件方面解答了GPU对于深度学习应用的价值。首先从深度学习应用的开发工具角度,具备CUDA支持的GPU为用户学习Caffe、Theano等研究工具提供了很好的入门平台。其实GPU不仅仅是指专注于HPC领域的Tesla,包括Geforce在内的GPU都可以支持CUDA计算,这也为初学者提供了相对更低的应用门槛。除此之外,CUDA在算法和程序设计上相比其他应用更加容易,通过NVIDIA多年的推广也积累了广泛的用户群,开发难度更小。最后则是部署环节,GPU通过PCI-e接口可以直接部署在服务器中,方便而快速。得益于硬件支持与软件编程、设计方面的优势,GPU才成为了目前应用最广泛的平台。  深度学习发展遇到瓶颈了吗?  我们之所以使用GPU加速深度学习,是因为深度学习所要计算的数据量异常庞大,用传统的计算方式需要漫长的时间。但是,如果未来深度学习的数据量有所下降,或者说我们不能提供给深度学习研究所需要的足够数据量,是否就意味着深度学习也将进入“寒冬”呢?“做深度神经网络训练需要大量模型,然后才能实现数学上的收敛。深度学习要真正接近成人的智力,它所需要的神经网络规模非常庞大,它所需要的数据量,会比我们做语言识别、图像处理要多得多。假设说,我们发现我们没有办法提供这样的数据,很有可能出现寒冬”。  其实深度学习目前还在蓬勃发展往上的阶段。比如说我们现阶段主要做得比较成熟的语音、图像方面,整个的数据量还是在不断的增多的,网络规模也在不断的变复杂。  对于NVIDIA来说,深度学习是GPU计算发展的大好时机,其实这是一场各个能够实现深度学习各个芯片,以及巨头赛跑的结局。谁最先找到自己逼近深度学习最适合的芯片模式,谁就是胜利者。GPU、FPGA 还是专用芯片?  尽管深度学习和人工智能在宣传上炙手可热,但无论从仿生的视角抑或统计学的角度,深度学习的工业应用都还是初阶,深度学习的理论基础也尚未建立和完善,在一些从业人员看来,依靠堆积计算力和数据集获得结果的方式显得过于暴力——要让机器更好地理解人的意图,就需要更多的数据和更强的计算平台,而且往往还是有监督学习——当然,现阶段我们还没有数据不足的忧虑。未来是否在理论完善之后不再依赖数据、不再依赖于给数据打标签(无监督学习)、不再需要向计算力要性能和精度?  退一步说,即便计算力仍是必需的引擎,那么是否一定就是基于GPU?我们知道,CPU和FPGA已经显示出深度学习负载上的能力,而IBM主导的SyNAPSE巨型神经网络芯片(类人脑芯片),在70毫瓦的功率上提供100万个“神经元”内核、2.56亿个“突触”内核以及4096个“神经突触”内核,甚至允许神经网络和机器学习负载超越了冯·诺依曼架构,二者的能耗和性能,都足以成为GPU潜在的挑战者。  不过,这些都尚未产品化的今天,NVIDIA并不担忧GPU会在深度学习领域失宠。首先,NVIDIA认为,GPU作为底层平台,起到的是加速的作用,帮助深度学习的研发人员更快地训练出更大的模型,不会受到深度学习模型实现方式的影响。其次,NVIDIA表示,用户可以根据需求选择不同的平台,但深度学习研发人员需要在算法、统计方面精益求精,都需要一个生态环境的支持,GPU已经构建了CUDA、cuDNN及DIGITS等工具,支持各种主流开源框架,提供友好的界面和可视化的方式,并得到了合作伙伴的支持,例如浪潮开发了一个支持多GPU的Caffe,曙光也研发了基于PCI总线的多GPU的技术,对熟悉串行程序设计的开发者更加友好。相比之下,FPGA可编程芯片或者是人工神经网络专属芯片对于植入服务器以及编程环境、编程能力要求更高,还缺乏通用的潜力,不适合普及。目前来说,GPU贵,功耗高,运行效率比FPGA高,易使用。FPGA功耗,单颗性能是低的,单颗FPGA的硬件设计挑战没有GPU大,但是总体性价比和效率不占优;Intel收购Altera是否可以通过其工艺实力,给其带来极具的功能提升,我们还在长期的期待过程中。FPGA如果实现深度学习功能,还需要大批量使用,才能实现完整的功能,且需要与CPU相结合。另外一个问题是,FPGA的大规模开发难度偏高,从业人员少。我们可以通过ARM战胜MIPS、以及STM32的迅速发展可以看到,一个好的生态环境,更多的从业人口,比技术、性价比本身更利于其发展。所以易用性是几个并行技术发展的一个重要考量维度。FPGA犹如乐高,其灵活性,根据实际应用的需求,构建我所需要的硬件组件。但是乐高本身就是一种浪费:其功耗性能比,可变布线资源、多余的逻辑资源,其实都是浪费。所以你如果用乐高做一个机器人跟一个专门为格斗而开发的机器人对抗,结果可想而知。FPGA在深度学习的应用场景,存在的价值在于其灵活性。DNN是深度神经网络系统的统称,实际使用的时候,使用几层网络,最终结果用什么样的筛选策略,在不同的应用和不同的设计框架下面,对硬件的诉求并不相同。要看设计者的建模方案。GPU的一个缺点是,他的组件模块是乘法器、加法器。虽然深度学习的参数都是数学模型,需要对RTL级别的变化,但是GPU的硬件资源是以乘法器、加法器这样量级的硬件单元组成的。如果GPU的预先配置与使用者的模型相差甚远。例如:加法器配置15个,乘法器配置15个。但实际使用的时候,乘法器使用量是15个,但是加法器只需要2个。这就浪费了13个加法器的资源。而FPGA是以查找表和触发器子单元,组合成任意运算单元。但是换种角度来看FPGA本身就是一种浪费。当然ASIC是能效最高的,但目前,都在早期阶段,算法变化各异。想搞一款通用的ASIC适配多种场景,还是有很多路需要走的。但是,在通信领域,FPGA曾经也是风靡一时,但是随着ASIC的不断发展和蚕食,FPGA的份额和市场空间已经岌岌可危。如果深度学习能够迅速发展,有可能这个过程会比通信领域过程更短。人机大战落幕后的两个月,谷歌硬件工程师 Norm Jouppi 才公开了其加速硬件的存在。在博客中,他解释道,谷歌给数据中心装备这些加速器卡已经有超过一年的时间。虽然谷歌对技术细节严格保密,但已透露它们专为谷歌开源项目 TensorFlow 而优化;它采取了:ASIC。谷歌发布了人工智能芯片:Tensor Processing Unit,这是ASIC据知情人士说,TPU已经在谷歌的数据中心运行了一年时间,由于谷歌严守TPU的秘密,所以TPU一直不为外界所知。这位知情人士说,从目前的运行效果来看,TPU每瓦能耗的学习效果和效率都比传统的CPU、GPU高出一个数量级,达到了摩尔定律预言的七年后的CPU的运行效果。这位知情人士不无煽情的说,请忘掉CPU、GPU、FPGA吧。如此看来,在深度学习方面,TPU可以兼具桌面机与嵌入式设备的功能,也就是低能耗高速度。据报道,TPU之所以具有良好的机器学习能力,是因为这种芯片具有比较宽的容错性,这就意味着,达到与通用芯片相同的学习效果,TPU不需要通用芯片那样多的晶体管,不需要通用芯片上那样多的程序操作步骤,也就是说,相同数量的晶体管,在TPU上能做更多的学习工作。谷歌研发TPU并非要取代CPU或者FPGA,谷歌认为,TPU是介于CPU和ASIC (application-specific integrated circuit:应用集成电路)之间的芯片。ASIC用于专门的任务,比如去除噪声的电路,播放视频的电路,但是ASIC明显的短板是不可更改任务。通用CPU可以通过编程来适应各种任务,但是效率能耗比就不如ASIC。一如前边所言,在机器学习方面,TPU兼具了CPU与ASIC的特点,可编程,高效率,低能耗.最后说说,异构处理器:什么是异构多核处理器?简单地说异构多核处理器指的是在CPU里集成了 CPU与【其他模块】一起同步工作,【也就是说 一块cpu 里不单有 CPU运算模块 还有其他运算模块 例如 GPU,FPGA,DSP等等。AMD,Nvidia以及赛灵思公司都在进行异构多核处理器的研发这是AMD的异构多核处理器AMD在异构多核处理器发展方面是不遗余力,早在2012年就成立了“异构系统架构基金会”(HSA Foundation),首批会员是AMD、 ARM、Imagination Technologies、 联发科和德州仪器(TI)是“异构系统架构基金会”的创始成员。瞧瞧,英特尔的老对手ARM和AMD都在里面呢HSA联盟发展了两年也有一些新成员加入,但是总的来说对英特尔威胁不大,直到 ,直到,赛灵思推了zynq的时候。看看它的内部结构:1、四核A53处理器 CPU2、一个GPU Mali-400MP3、一个Cortex-R5 CPU4、电源管理单元,AMS单元5、H.265(HEVC)视频编解码器6、安全模块7、UltraScale FPGA 单元;这其实就是一款异构处理器,如前所述,它是一款ASIC就级的异构处理器!而且是64位,采用16nm FinFET工艺的处理器!而且是采用FPGA实现硬加速的处理器!但是这个ARM是不是偏弱了一点?做深度学习还是欠把火后。Intel收购Altera,应该最终的目的也是要在异构处理器上面做出更多的文章吧。X86+FPGA,看起来好像很美。但是X86和FPGA结合就更符合模型么?目前也没有应用,更没有看到成熟的芯片推出。两个巨无霸的整合,可以说是用脚趾头都能想到很多的困难。Intel这口也许吃得太大了,吞得很痛苦。不是每个公司都有很强大执行力的,历史包袱在所难免。深度学习的应用,我更看好:
TA的最新馆藏
喜欢该文的人也喜欢问题来了︱高通收购恩智浦后续,将与英特尔有一次恶战?-基础器件-与非网
与非网新栏目邀你来答题,精美礼品等你拿!详细规则请点击!》
最近算狠狠的火了一把,绝对能评上2016年半导体业&超级网红&。昨天下午,高通和NXP共同宣布,双方董事会达成了最终协议。高通将以大约470亿美元的价格高性能、混合信号半导体供应商NXP。
如此大的收购案,本来就号称手机通讯芯片龙头的高通,又着实涨了一波身价。有了的高通会是啥样的呢?汽车电子、物联网、网络、移动芯片统统称霸?这也太狠了。如此霸气的公司你想到了谁?
对!那就是。高通此举自然让英特尔裆下一紧,那英特尔最近的频频动作也让高通略感胸闷。未来化趋势,物联网、自动驾驶等都是巨头必争之地。英特尔有着先天优势,高通懂,英特尔懂,别的大咖也懂。
那么,问题来了!
穿上NXP盔甲的高通,与英特尔这一战你怎么看?从英特尔最近的频频动作,你觉得英特尔会不会也来一波收购?那谁又值得英特尔考虑呢?说说你的想法。
【相关咨询】
具体规则请猛戳&&&&&
&&&&&&& & & & & & && &&
关注与非网微信 ( ee-focus )
限量版产业观察、行业动态、技术大餐每日推荐
享受快时代的精品慢阅读
英特尔公司近日发布了《年企业社会责任报告》,全面评估了公司在环境可持续发展、供应链责任、多元化和包容性以及社会影响力等方面的表现。
发表于: 07:58:00
英特尔公司近日发布了《年企业社会责任报告》,全面评估了公司在环境可持续发展、供应链责任、多元化和包容性以及社会影响力等方面的表现。
发表于: 11:12:03
中国可能会改变其走向,但NXP的投资者仍然不喜欢高通。
发表于: 09:29:06
小米新近发布的小米 8,是一款“有争议”的产品。
发表于: 09:11:45
市场调研机构Strategy Analytics最新完成的一份调查报告显示,2017年,在全球基带芯片和智能手机应用处理器市场,美国半导体厂商高通分别占据了53%和42%的占有率,继续稳固着该领域的霸主地位。
发表于: 08:18:06
独角兽企业,一般指创办时间相对较短、估值超过10亿美元的创业企业。如今,全球每5家独角兽企业里,就有2家出生在中国;全球十大独角兽企业中,一半来自中国。当“独角兽”成为各种榜单、论坛、文章的热词,许多人赞叹中国新动能的蓬勃,但也有人认为独角兽热只是资本炒作的噱头。
发表于: 16:58:39
京东方(BOE)董事长王东升日前在年度股东大会上表示,预计全球平板显示(FPD)行业将迎来整合大潮,市场主体可能会减少至五家。
发表于: 16:55:30
生物识别技术凭着安全、可靠、便捷等优势,在人们备受网络安全问题困扰的时代,一举成为网络安全的“守护神”。生物识别技术逐渐融入人们的生活,行业发展渐入佳境,市场规模日益壮大,前景大好。
发表于: 16:52:44
随着医疗保健行业与数据采集技术的发展,AI技术与生物医疗产业的结合呈现出巨大潜力,不仅在制药领域中的取得了许多突破,在生物抗衰老的相关问题上也开始推进更深层的研究。
发表于: 16:28:16
当前智能家居作为一个新兴行业,正以不可抵挡之势迅速崛起。不少传统家电厂商和新兴科技公司积极布局、跑马圈地。智能家居产品已不再是过去的空中楼阁,早就已经开始走进寻常百姓家。
发表于: 14:55:02
与非门科技(北京)有限公司 All Rights Reserved.
京ICP证:070212号
北京市公安局备案编号: 京ICP备:号

我要回帖

更多关于 赛灵思中国代理 的文章

 

随机推荐