Gpu可以和Cpu如何进行文件共享共享吗?

技术小站:
厂商活动:
地点:青岛
时间:9月15日 14:00 - 17:00
主办方:阿里云&庆科
时间: 9月19日
地点:苏州
时间:9月27日 14:00 - 17:00
地点:广州
时间: 9月21日
实践理解应用RTOS各组件
用三极管搭建深度电路系统
物联网安全从小白到大师
开关电源的芯片设计之秘
实战让你秒懂mbed OS
&08-08&20:00
&08-15&20:00
&08-11&20:00
&08-25&10:00
移入鼠标可放大二维码
FPGA真的能取代CPU和GPU吗?
来源:雷锋网 作者:黄鑫日 10:39
[导读] 最近我们看到一篇文章,说FPGA可能会取代CPU和GPU成为将来机器人研发领域的主要芯片。文章列举了很多表格和实验数据,证明了在很多领域FPGA的性能会极大优于CPU。并且预言FPGA将来可能会取代CPU和GPU现在的地位。但事实真的是这样吗?
  最近我们看到一篇文章,说FPGA可能会取代CPU和GPU成为将来机器人研发领域的主要芯片。文章列举了很多表格和实验数据,证明了在很多领域FPGA的性能会极大优于CPU。并且预言FPGA将来可能会取代CPU和GPU现在的地位。但事实真的是这样吗?要搞清楚这个问题,我们首先得对CPU和FPGA都有足够的了解。
  FPGA这个词可能很多人都有所耳闻,尤其是理工科的同学们大多数应该都自愿或被迫被这个词刷屏过。但要真追究起来FPGA到底是个什么东西。很多非相关专业的人都会陷入一脸迷茫。不过说起开发板,可能知道的人就很多了,有些人会以为FPGA就是开发板。但实际上FPGA指的只是开发板上面的那一小块芯片而已(下图黄圈处),整个开发板的其余部件都是为了协同它工作,让它发挥出它的性能而存在的。
  FPGA开发板,/youtube
  可即使有心的同学曾经查到了这里,或许也搞不懂它和CPU到底有什么区别,毕竟把它的位置换成CPU,整个开发板看起来就变成一块普通的电脑主板了嘛,感觉简直分分钟接上硬盘和显示器就可以开始LOL了。确实,不管从外形上来看还是实际的功能上来看,FPGA和CPU都表现得太像了,但在这两者相似的外表之下,其内部构造其实有着根本性的差别,而这种差别也正是FPGA会被很多人认为适合机器人开发的原因,因为它的构造决定了它在处理机器人需要的很多运算,尤其是在机器感知这方面的处理时的速度会比CPU快很多,同时还能将功耗控制在很低的水平。
  CPU的构造
  在讲FPGA之前,我们先从大家比较熟悉的CPU的数据处理方式讲起。首先需要强调的一点是,处理我们指令的计算机元件本身是无法理解我们的指令的,它们只能理解作为组成CPU最基本的元件&&晶体管能实现的两种状态:&开&和&关&的含义,对应的就是1和0这两个机器码数字,这也是计算机的整个体系都基于二进制建立的原因。而为了让我们下达的各种各样的指令变成CPU能理解的0和1,CPU需要一个专门的译码器来翻译我们的指令。这个过程分为两步:&取指&(从一个专门存放指令的存储器中将需要执行的指令提取出来)和&译码&(根据特定的规则将指令翻译成计算单元能够理解的数据)。CPU的结构大概是这样的
  via wikipedia
  其中的Control部分就是控制取指、译码等整个流程的部分,Cache是在高速的CPU与相对低速的内存间为了提高从内存获得指令的效率而设置的一个临时指令存储器,DRAM则是速度比较慢的那一部分指令存储器。可以看到,真正的计算单元ALU只占了CPU结构中不大的一部分。这样的设计是有原因的。CPU存在的目的是作为通用计算机的处理核心,注意&通用&二字,这意味着块核心必须具备处理各式各样千奇百怪的指令要求的能力,并且因为要处理来自多个设备的请求,它必须拥有随时中止目前的运算转而进行其他运算,完成后再从中断点继续当前运算的能力。把这些话看完你可能都快睡着了,但在CPU内这些都要求在一瞬间完成。所以CPU需要有非常复杂的逻辑控制单元和这套独特的指令翻译结构。这都是保证CPU能顺利完成它的使命的必须的东西。可以说,在计算效率和通用性上CPU牺牲前者选择了后者。
如今,物联网浪潮已然席卷至汽车电子产业,发动机控制系统、底盘控制系统和车身电子控制系统已模型初显,安全...
ADAS市场或破千亿
国产汽车雷达将爆发
抢占智能汽车制高点
为自动驾驶保驾护航
电动汽车面临的挑战
德州仪器(TI)
供应链服务
商务及广告合作
Jeffery Guo
关注我们的微信
供应链服务 PCB/IC/PCBA
版权所有 (C) 深圳华强聚丰电子科技有限公司
电信与信息服务业务经营许可证:粤B2-查看: 9225|回复: 21
目前市场上的gpu和cpu,以及专业图形卡,究竟能让ae多流畅
阅读权限60
主题帖子精华
如题,现有的配置一般, i5 2500k+ssd+gtx760,,
是不是现在最好的配置,还是满足不了ae的大量特效运算?? 另外n系列专业图形卡只能实现 光线跟踪快一些,拖动时间线 依然不能加速呢???
楼主最近帖子
论坛最新回复
阅读权限60
主题帖子精华
I7& &最高块
GTX9系列—钛
怎么都要2W
阅读权限60
公司深圳名视觉工作室
主题帖子精华
骚年,要知道大量特效的运算比如你看到的好莱坞视觉大片都是服务器集群渲染运算出来的,哪里是单机就能渲染的呢。预览视觉渲染感觉主要还是要靠cpu,gpu只是针对部分的效果有加速作用,而且,除去cpu,内存,硬盘速度,都有可能是实时预览的瓶颈啊。
cpu数量越多越好,,,,,,,,,,,,多玩仿真软件就知道了&
阅读权限60
主题帖子精华
一个字& &Tesla
好像ae对gpu的要求低于cpu的要求,所以就想开这个帖子,究竟有没有一个关于ae软件的 配置列表,就是有一个衡量的基础,好像没有哦&
阅读权限60
主题帖子精华
ae还是靠cpu吧
阅读权限60
主题帖子精华
摄影师灯光师
骚年,要知道大量特效的运算比如你看到的好莱坞视觉大片都是服务器集群渲染运算出来的,哪里是单机就能渲染 ...
cpu数量越多越好,,,,,,,,,,,,多玩仿真软件就知道了
其实这也要看软件对多核心多cpu的支持度,往往到这些时候民用级别的软件和专业级别的软件就拉开距离了&
阅读权限60
公司深圳名视觉工作室
主题帖子精华
cpu数量越多越好,,,,,,,,,,,,多玩仿真软件就知道了
其实这也要看软件对多核心多cpu的支持度,往往到这些时候民用级别的软件和专业级别的软件就拉开距离了
仿真软件基本就是看cpu数量,,进程,线程也重要&
阅读权限60
主题帖子精华
摄影师灯光师
其实这也要看软件对多核心多cpu的支持度,往往到这些时候民用级别的软件和专业级别的软件就拉开距离了
仿真软件基本就是看cpu数量,,进程,线程也重要
阅读权限60
主题帖子精华
本人最讨厌的软件就是AE!是一个对硬件最变态的软件!
再牛逼的硬件 速度也是那样。。&
阅读权限60
居住地广东省
公司深圳市福田
主题帖子精华
本人最讨厌的软件就是AE!是一个对硬件最变态的软件!
是啊&&再牛逼的硬件 速度也是那样。。
阅读权限60
公司http://iori-
主题帖子精华
测试过专业卡,对视频软件来说速度不行。
Q5000=GTX465
Q6000=GTX470
K2000=GTX650
K4000=GTX650Ti
K5000=GTX680
K6000=黑TITAN
K6000倒是全能型的显卡, 游戏、3D、视频,三方面都非常强劲。
看了这么多贴子,你这短短几个对比,是最牛B的,解了我想知道的惑。因为我一直在疑惑,我选了GTX960,没选K620,是对还是错了。
我想知道一下,我的GTX960 相当于K 多少
另外我觉得在编辑预览中,牛B的显卡比&
阅读权限60
主题帖子精华
测试过专业卡,对视频软件来说速度不行。
Q5000=GTX465
看了这么多贴子,你这短短几个对比,是最牛B的,解了我想知道的惑。因为我一直在疑惑,我选了GTX960,没选K620,是对还是错了。
我想知道一下,我的GTX960 相当于K 多少
另外我觉得在编辑预览中,牛B的显卡比牛B的CPU好使,CPU只在最后输出和视频稳定的运算中起作用。
专业卡就那么几个型号,所以说没法说960对应K多少。
K2000和GTX650都是GK107,频率参数也类似,比650稍低。
经测试90%的WIN软件,大体接近650速度(因650主频高点)。
OSX里面软件,100%都大体接近650速度&
阅读权限60
公司http://iori-
主题帖子精华
看了这么多贴子,你这短短几个对比,是最牛B的,解了我想知道的惑。因为我一直在疑惑,我选了GTX960,没 ...
专业卡就那么几个型号,所以说没法说960对应K多少。
K2000和GTX650都是GK107,频率参数也类似,比650稍低。
经测试90%的WIN软件,大体接近650速度(因650主频高点)。
OSX里面软件,100%都大体接近650速度。
WIN里面极少数工业3D建模软件(CATIA等),能发挥专业卡威力,K2000超过了780,比780旋转视图还流畅。
阅读权限60
自我介绍回到故乡的异乡客
主题帖子精华
显卡的GPU运算单元,对三维软件的实时预览是决定性作用,三维软件也有对此的专门优化。专业显卡的优势体现在两个方面,一是稳定,稳定,再稳定。二是对三维软件的特殊需要提供特殊支持,比如光线跟踪实时展现,材质贴图的逼真展现,如果用游戏软件,就只能通过渲染才能看到,这会大大降低工作效率。
现在回到我们的AE,AE是个特效软件,有很多的插件特效是支持GPU运算的,这样做是为了减轻CPU的负担,但不是必须的,这个在AE里也是可以设置的。
说完显卡,再来说CPU。AE处在制作状态时,只会启动CPU的一个核心来运算,所以CPU频率越高,单核运算速度就越快,在AE里做动作反应也会越快。其实很多三维软件也是这个工作原理。
最后再来说说渲染输出。当软件进入渲染状态,就会启动所有的CPU核心来计算,这个时候显卡基本上就退出输出的计算工作了。当AE做了大量的特效,特别是粒子特效镜头景深特效较多时,渲染是非常慢的,多核心CPU的优势就发挥出来了。
补充一点,别拿专业显卡和游戏显卡比,各有各的用途,这种比较是非常肤浅的。
根据专业显卡支持三维为主的特点,看来,做视频还是N卡合适些,对吗?&
阅读权限60
自我介绍回到故乡的异乡客
主题帖子精华
另外再补充一点姿势。CPU的运算速度分整数运算能力和浮点运算能力。比如粒子特效,光影特效等都是浮点运算,很吃CPU。GPU的浮点运算能力很强,所以特效软件一般会把这个显示任务交给显卡。显卡的选择,也不能光看频率,GPU数量,带宽位数,都是同样重要的。
阅读权限60
自我介绍回到故乡的异乡客
主题帖子精华
AE要编辑得流畅,除了显卡和CPU,因为还要读取海量的视频原素材,硬盘速度也得跟上。
阅读权限60
主题帖子精华
qradro显卡在三维软件光影要准确很多,完全跟游戏卡不同的
阅读权限60
主题帖子精华
显卡的GPU运算单元,对三维软件的实时预览是决定性作用,三维软件也有对此的专门优化。专业显卡的优势体现 ...
根据专业显卡支持三维为主的特点,看来,做视频还是N卡合适些,对吗?
我个人选择N卡。&
阅读权限60
主题帖子精华
你们聊AE都不提内存么?
就目前的状况来说,对于AE,内存不是瓶颈。&
Powered byCPU、GPU——融合、取代还是共存?-通信/网络-与非网
  对于CPU与GPU之间的争论,无论是从厂商的自身利益来看,还是从产业发展的趋势来看,用户需求无疑是衡量的唯一标准。
  前段时间,英特尔与nVIDIA(英伟达)二者之间关于CPU(中央处理器)与GPU(图形处理器)孰重孰轻,乃至谁才是未来核心的争论成为业界热议的话题,英特尔CEO保罗&欧德宁在IDF(英特尔开发者论坛)上宣称显卡产业将会消亡,而后nVIDIA则以GPU将超越CPU地位的言论予以还击。近日,二者之间的战争又再次升温,英特尔日前向美国法院提出申请,要求禁止nVIDIA生产其下一代芯片组,期望通过法律途径遏制竞争对手的发展。随着这两家基础芯片巨头的口水战升温,未来CPU与GPU的发展将走向何方?是融合、取代还是共存?又会对产业及用户带来哪些影响?
  求同存异 C-G架构渐流行
  &天下大势,合久必分,分久必合。&这句话用在当今的IT产业似乎也颇为恰当。在CPU与图形显示两个本是&井水&与&河水&的领域,如今也正将自己的地盘扩展至对方领域。在去年的英特尔IDF峰会上,英特尔公司宣布将开发集CPU与图形处理于一体的Larrabee架构芯片,并表示该芯片将取代目前的GPU。而对此,图形显示芯片的老大nVIDIA则予以反击,为其GPU开发了CUDA编程环境,进而在此基础上开发更多的软件应用,从而试图取代CPU在整机中的地位。而未来CPU与GPU的发展将走向何方,无疑是对计算机产业影响较大的问题。
  在英特尔Larrabee架构芯片尚未推出之际,nVIDIA公司已在前不久的美国高性能计算展览会上发布了其TeslaS1070GPU处理器,从该处理器的应用来看,其与传统的X86在性能和功耗方面的比较,在许多行业具有优势,如石油、天然气、勘探行业、动漫制作,这些行业涉及大量数据分析以及图形处理等浮点运算,传统服务器需要耗费很多电力,功耗非常大,而Tesla则能很好地解决此类问题。而nVIDIA公司面临的最大问题其实还在于其在通用计算领域的应用匮乏而带来的挑战,这也是X86处理器架构的优势所在,因此无论从 Tesla还是Larrabee来看,尽管它们都是向对方领域进军的产品,但都无法相互取代,二者共存的局面将持续相当长的一段时间。
  对于CPU与GPU的竟合发展,英特尔中国区产品总监洪力接受《中国电子报》记者采访时,作了一个形象的比喻来说明CPU的无可替代性:对于一个人而言,尽管其有着在绘画、音乐等某个方面的超人天赋,但如果他天生脑瘫,则这个人绝对不是一个健康的正常人。因此他认为,CPU与GPU二者的侧重点不同,决定了其应用的环境和主要领域不同。而对于CPU与GPU的发展,nVIDIA中国区总经理张建中则向《中国电子报》记者表示,在高性能计算这个GPU重点应用领域,CPU+GPU架构是未来高性能计算架构的发展方向。他认为,现在的高性能计算架构面临着两大挑战:一个是服务器存放空间紧张,另一个是对高性能计算的投入越来越大。而采用Telsa的服务器,科研单位可以花同样的钱,其效率可获得10&100倍的增长。
  对于CPU+GPU的新架构,863网格计算专家组成员、清华大学教授杨广文则指出,对于高性能计算的推广应用,这是一个很好的开端,但是这种架构如何在节点上面实现突破还是个问题。另外他认为,如何应用好也是个问题,毕竟这种架构并不是万能的,不可能替代一切。对于新架构面临的挑战,杨广文表示:&硬件有了,但是后续的工作还有很多,编程模式、编程方式还需要专业人员才能用,还需要从编程模式、环境、算法设计等方面下工夫。&
  推动普及 用户终受益
  在与英特尔大打口水战的间隙,nVIDIA也正&悄悄&进行着其GPU应用布局。前不久,nVIDIA分别与中国服务器厂商浪潮、宝德联合推出了首款整合其GPU架构的超级计算机&&& 浪潮&桌面超级计算机&倚天和宝德PowerScale8000G。
  众所周知,在当今国际金融风暴冲击下,用户IT支出大幅缩减,而以服务器为代表的硬件市场无疑首当其冲,基于CPU+GPU新架构的高性能计算机的推出可谓恰逢其时。浪潮高性能服务器产品部总经理刘军告诉《中国电子报》记者,&倚天&是&浪潮高效能服务器和存储技术国家重点实验室&的重要研发成果,其峰值计算能力最高可达4万亿次/秒,相当于40台服务器或200台PC的计算力,体积与普通计算机相仿,而成本只有传统高性能计算系统的1/5,起售价仅为5万元。宝德公司也称,此次宝德推出的PowerScale8000G以超强运算能力和低成本打造100TFlops计算中心而著称,如该产品具有1928个核心、浮点性能达到8TFlops,打造100TFlops计算中心的成本缩减5倍,功耗降为原来的1/21。
  无论从受经济形势影响的服务器产业来看,还是从高性能计算本身来看,高性能计算的普及无疑是其面临的关键问题,而采用新架构的HPC(高性能计算机)无疑是高性能普及的新的转折点。赛迪顾问计算机产业研究中心咨询师刘新告诉《中国电子报》记者,传统的高性能计算集群,其高昂的图形处理成本、集群的高能耗和维护成本是影响HPC普及的主要障碍,新架构的HPC主要在这几个方面取得了突破。刘军也表示,采用新架构的HPC,兼具低成本与高性能的特点,在医疗成像、分子动力学、基因比对、金融模拟、动漫渲染、电影编辑、新型材料开发等领域具有广阔的应用前景,使得这些领域的用户拥有万亿次的高性能设备成为现实。这对于打破高性能应用瓶颈,提高企业创新能力,提高生产效率,将起到根本性的作用。
  从用户角度来看,谈到桌面超级计算机和传统集群系统的对比,中科院北京基因组研究所副所长于军做了形象的比喻:&桌面超级计算机是集群系统的很好的补充。集群好像一列火车,给定时间和速度就把你运到这里,所有的人员不得不挤在一起。而桌面万亿次超级计算机就好像是给每个科研人员都配备了一辆越野车,因为每个科学家有着自己的想法,开着越野车可以上山、可以到草原、可以到荒漠,增加了专家的自由度,可以挖掘每个层面的潜力,科研效率自然会提升。&
  相关链接
  CPU与GPU之争的源头
  ○ CPU篇
  CPU为PC核心这个观点由CPU巨头Intel提出,并且其全球副总裁在其 IDF峰会上郑重表示,其Larrabee绘图芯片将取代目前的GPU,并且下了&三年灭亡&的最后通牒。一时间CPU和GPU之争跳过了&缠绵&阶段,直接进入殊死搏斗。
  ○ GPU篇
  倡导GPU为核心的是GPU巨头nVIDIA,nVIDIA专门为其GPU开发了CUDA环境,其使用C语言设计开发,使GPU可以兼容标准C编程语言,我们可以将CUDA看作是在支持CUDA的nVIDIAGPU上进行并行计算而提供了统一的软硬件解决方案,这样GPU就可以做目前只有CPU才能做得很多软件应用,从而取代CPU在整机中的地位。
  GPU和CPU发展剖析
  GPU在架构方面和CPU有很大不同,GPU更适合简单的并行任务处理,以nVIDIA即将发布的GT200为例,其内部集成了240个核,可以同时并行处理数据,搭配nVIDIA为其专门开发的环境&&& CUDA,使GPU可以在很多此前CPU的长项中取得长足的进步,例如:软件压缩等GPU在CUDA环境下可以较CPU压缩速度提升30倍以上,让我们看到了GPU未来的应用前景。
  反观CPU,虽然CUDA的出现对其构成了巨大威胁,但是Intel作为当前处理器老大,不仅拥有强大的生产能力,也拥有雄厚的研发力量,并且在2006年吸收了大量GPU研发人员,其在GPU方面也拥有很大的发展空间。CPU目前在一些需要复杂指令运算的环境中依然拥有很大优势。
关注与非网微信 ( ee-focus )
限量版产业观察、行业动态、技术大餐每日推荐
享受快时代的精品慢阅读
清华大学教授、国家超级计算无锡中心主任杨广文受邀来到会场,与会者纷纷谈到的观点却是:在人工智能飞速发展的今天,人类的计算能力显然有些跟不上了。
发表于: 13:51:05
服务器分为很多种不同的类型:从机架式、刀片式和塔式到用于高密度计算的模块化配置类型。理想情况下,每台服务器应经过针对性优化来执行特定任务。
发表于: 15:27:00
有网友在微博上爆料称,麒麟980处理器已经流片,虽然目前还没有更多的信息,但有消息称,可能采用7nm工艺和A75构架,至于供应链人士提到的图形处理有惊喜,则可能与传说中的华为自研GPU有关。
发表于: 17:26:33
有网友在微博上爆料称,麒麟980处理器已经流片,虽然目前还没有更多的信息,但有消息称,可能采用7nm工艺和A75构架,至于供应链人士提到的图形处理有惊喜,则可能与传说中的华为自研GPU有关。
发表于: 13:40:19
综合来看,麒麟970实力不凡。它的优秀表现也吸引了外媒的目光。今天华为手机官方微博表示,美国知名科技媒体Android Authority授予麒麟970“IFA2017最佳产品奖”,并表示华为人工智能战略令人印象深刻且具有前瞻性。
发表于: 09:15:16
你有没有这样的困惑?当你着急把手机里的照片传到电脑上时怎么也找不到数据线,或者连上数据线识别就要等好几分钟,再着急也干瞪眼。那时候你肯定在想,如果直接把手机或者硬盘放到电脑特定的区域就能识别,打开设备把内容拖进文件夹就好久太爽了。经过9年的研发,Keyssa公司终于成功研发了Kiss Connector电磁连接器,设备之间只要近距离接触就
发表于: 17:52:44
物联网是实现万物互联的基础,是数字世界与物理世界相互融合的关键一环,其应用覆盖几十亿的手机终端,也涉及数以千亿计可感知、可控制、可管理的各类海量智能设备。
发表于: 15:08:30
全球物联网软件及产品领导者BORQS TECHNOLOGIES, INC.(NASDAQ: BRQS)宣布《The Silicon Review》杂志将其评定为“十大增长最快的物联网公司”之一(10 Fastest Growing IoT Companies)。
发表于: 15:02:00
近些年,互联网在国内多个领域的应用方兴未艾,尤其是工业与互联网的融合,让生产更加智能,越来越多的企业纷纷在研发端的信息化加大投入。工业互联网是全球工业系统与高级计算、分析、感应技术以及互联网连接融合的结果,它通过智能机器间的连接并最终将人机连接,结合软件和大数据分析,重构全球工业、激发生产力。
发表于: 15:01:00
行业领先的网络测试、可视性和安全解决方案供应商Ixia今日宣布推出IxLoad-Wireless ,即一款面向蜂窝物联网增强型机器类通信(eMTC)与窄带物联网(NB-IoT)技术的高性能长期演进(LTE)测试解决方案。
发表于: 12:16:00
2017年能耗过半,年初定的哪些“小目标”没有阵亡? ……
旗下网站:
与非门科技(北京)有限公司 All Rights Reserved.
京ICP证:070212号
北京市公安局备案编号: 京ICP备:号&&&加速计算&
什么是 GPU 加速计算?
GPU 加速计算是指同时利用图形处理器 (GPU) 和 CPU,加快科学、分析、工程、消费和企业应用程序的运行速度。GPU 加速器于 2007 年由 NVIDIA(R) 率先推出,现已在世界各地为政府实验室、高校、公司以及中小型企业的高能效数据中心提供支持。GPU 能够使从汽车、手机和平板电脑到无人机和机器人等平台的应用程序加速运行.
GPU 如何加快软件应用程序的运行速度
GPU 加速计算可以提供非凡的应用程序性能,能将应用程序计算密集部分的工作负载转移到 GPU,同时仍由 CPU 运行其余程序代码。从用户的角度来看,应用程序的运行速度明显加快.
& GPU 与 CPU 性能比较 理解 GPU 和 CPU 之间区别的一种简单方式是比较它们如何处理任务。CPU 由专为顺序串行处理而优化的几个核心组成,而 GPU 则拥有一个由数以千计的更小、更高效的核心(专为同时处理多重任务而设计)组成的大规模并行计算架构。 &
观看以下比较 GPU 与 CPU 的有趣视频片段。
请观看以下比较 CPU 和 GPU 的有趣视频片段.
视频:Mythbusters 演示:GPU 与 CPU (01:34)
由于超过 ,所有 GPU 用户均可体验到显著的工作负载吞吐量提升。请查看 (PDF 1.9 MB),看看您使用的应用程序是否支持 GPU 加速。
立即开始使用
利用 GPU 加速您的应用程序的基本方法有三种:
使用专为 GPU 优化的库
添加编译器“提示”,以便实现代码的自动并行化
使用针对 C 和 Fortran 等标准语言的扩展程序
轻松学会如何将 GPU 与 CUDA 并行编程模型搭配使用.
如需参加免费的在线课程以及下载开发者资源,请访问 CUDA 专区.

我要回帖

更多关于 录音正在进行共享优化 的文章

 

随机推荐