GPU能够同时作为关闭显卡硬件加速和浮点加速硬件使用吗

帐号:密码:下次自动登录{url:/nForum/slist.json?uid=guest&root=list-section}{url:/nForum/nlist.json?uid=guest&root=list-section}
贴数:1&分页:家有小萌猪小兔崽儿发信人: mopper (家有小萌猪小兔崽儿), 信区: CSArch
标&&题: Re: GPU能够同时作为显卡和浮点加速硬件使用吗
发信站: 水木社区 (Sun Jun 23 18:10:46 2013), 站内 && 做硬件加速的卡,和你当做显卡使用的卡,配置是不一样的 && 【 在 deltree (但愿长醉不复醒) 的大作中提到: 】
: 问个基础的问题
: 一个块GPU卡,既可以当作显卡来使用,来加速如高清视频播放、游戏3D渲染等。还可
: 以被当作科学运算加速部件使用,比如自己编写的基于CUDA,OpenGL的程序。
: ...................
&& -- && ※ 来源:·水木社区 newsmth.net·[FROM: 123.116.53.*]
文章数:1&分页:症状:用chrome浏览网页,经常出现浏览器卡死了,无法滑动网页,点击页面中的链接很多也无法打开,看优酷视频的时候,经常出现最大化后恢复到网页只有声音没图像,解决方法:
1、在地址栏中输入
chrome://plugins
,找到Adobe Flash Player这个插件,能看到旁边括号中写的(2files),点击右边的详细信息,把其中的一个禁用掉,只留一个flash插件,建议禁用chrome自带的flash插件;
2、禁用GPU加速,地址栏输入
chrome://flags
,找到&对所有网页执行 GPU 合成&Mac, Windows, Linux&项,下拉选择&已停用& 3、 在chrome的快捷方式右键,选择属性,在目标一栏的chrome程序地址后面输入一个空格,然后输入引号中的内容&&&disable-gpu &disable-software-rasterizer&,确定。(这一步也是禁用gpu加速,与第二步貌似有点重复,我加上了,懒得测哪个起的作 用,你要是愿意测,可只做1,2)。
转自:http://wwwwfw.blog.163.com/blog/static//
本帖最后由 闻雷 于
16:01 编辑Chrome 内置PPAPI类型的Flash插件没有硬件加速选项公版的 NPAPI 类型的Flash 插件就有了所以这两种插件咱都用着,随时根据需要切换
&ignore_js_op style="-ms-word-wrap: break-"&
&(69.92 KB, 下载次数: 0)
&ignore_js_op style="-ms-word-wrap: break-"&
&(71.57 KB, 下载次数: 3)
阅读(...) 评论()CUDA 常见问题
&&&&&&&&&CUDA 常见问题&
一般性问题
问: 什么是 CUDA?
CUDA(R) 既是一个并行计算平台,又是一种编程模型,可利用图形处理器 (GPU) 的能力,显著提高计算性能。
自 2006 年推出以来,CUDA 已被广泛部署于数千种应用程序,在发表的研究论文中亦频频出现,并且受到庞大客户群的支持,已有数以百万计的笔记本电脑、工作站、计算集群和超级计算机安装了支持 CUDA 的 GPU。越来越多的应用程序使用 CUDA 来实现 GPU 加速的优势,应用领域包括天文学、生物学、化学、物理学、数据挖掘、制造业、金融以及其他计算密集型领域。
问: 什么是 NVIDIA Tesla(TM)?
凭借世界上首屈一指的万亿次浮点运算多核处理器,NVIDIA(R) Tesla(TM) 计算解决方案实现了向高能效并行计算能力的必要过渡。每个处理器都具有数千个 CUDA 核心,Tesla 可借此进行扩展,快速准确地解决世界上最大的计算难题。
问: 什么是 OpenACC?
是编译器指令或提示的一种开放行业标准,编译器指令或提示可插入由 C 语言或 Fortran 语言编写的代码中,从而使编译器生成将在多 CPU 和 GPU 加速系统中并行运行的代码。OpenACC 指令简单而又强大,通过它,可在利用 GPU 计算能力的同时,使代码与其他非加速的仅 CPU 系统兼容。有关详情,请访问&。
问: 与仅 CPU 代码相比,使用 GPU 计算可使性能实现怎样的提升?
这取决于问题在架构上的映射情况。对于数据并行应用程序来说,可实现两个数量级的加速。您可以访问 页面?,浏览相关研究、开发者、应用程序和合作伙伴。
问: CUDA 支持哪些操作系统?
CUDA 支持 Windows、Linux 和 Mac 操作系统。完整列表请参阅最新的&CUDA 工具包发行说明。访问&可。
Q: 哪些 GPU 支持运行 CUDA 加速应用程序?
CUDA 是所有 NVIDIA GeForce、Quadro、Tesla GPU 以及 NVIDIA GRID 解决方案的标准配备。完整列表请 页面。
问: 什么是「计算能力」?
GPU 的计算能力决定了它的一般规格和可用功能。有关详情,请参阅《CUDA C 语言编程指南》中的一节。
问:&在哪里可以找到并行编程的详细介绍?
您可以查看一些大学网络课程、技术在线研讨会、系列文章以及并行计算方面的优秀书籍。这些内容可在我们的 页面找到。
硬件和架构
问:下一版新 GPU 架构发布后,我必须要重写 CUDA 内核吗?
不是。CUDA C/C++ 提供了一种抽象方法,您可以借此说明自己希望以何种方式执行程序。编译器所生成的 PTX 代码也不是专门针对硬件的。在运行时,PTX 代码会针对特定目标 GPU 进行编译 - 这是驱动程序的任务,驱动程序会随新版 GPU 的发布而进行更新。寄存器数量和共享内存大小的更改可能会为进一步优化提供机会,但这是可选的。因此,您现在编写的代码可在未来的 GPU 中执行
问: CUDA 支持在一个系统中使用多个显卡吗?
支持。应用程序可将工作分配到多个 GPU。但是这并不是自动完成的,因此应用程序拥有全面控制权。请参阅 GPU 计算 SDK 中的「multiGPU」示例,查看使用多 GPU 进行编程的示例。
问: 在哪里可以找到有关 NVIDIA GPU 架构的更多信息?
以下是两个非常有用的资源:
我在 CUDA 中发现了一个问题,该如何报告此问题?
的身份进行注册,在应用程序获得批准后,您可以提交问题以供 NVIDIA 工程团队审核。
问题报告应包含一段用于说明问题的简单、独立的代码,以及对于问题和预期行为的描述。
请在问题报告中加入以下信息:
机器配置 (CPU、主板、内存等)
CUDA 工具包版本
显示驱动程序版本
如果您是 Linux 用户,请附上运行「nvidia-bug-report.sh」所生成的 nvidia-bug-report.log 文件。
问: CUDA 如何建构计算?
CUDA 基本上遵循数据并行计算模型。通常,每个线程会对并行数据的不同元素执行相同的操作。
数据被划分为 1D、2D 或 3D 网格块。每个区块在外型上可以是 1D、2D 或 3D,并且在当前硬件中由 512 多个线程组成。线程块中的线程可通过共享内存联合发挥作用。
线程块作为较小的线程组 (即「线程束」) 来执行。
问:CPU 和 GPU 可以并行运行吗??
CUDA 中的内核调用是异步的,因此在启动内核之后,驱动程序会将控制权交还给应用程序。
??衡量性能时应使用「cudaThreadSynchronize()」API 调用,以确保在停止计时器之前完成所有设备操作。
负责执行内存拷贝和控制图形互操作性的 CUDA 函数是同步的,会隐式等待所有内核完成运行。
问: 我可以针对流式传输应用程序并行传输数据和运行内核吗?
可以,CUDA 支持使用 CUDA 流同时进行 GPU 计算和数据传输。有关详情,请参阅《CUDA C 语言编程指南》的一节。
问: 可以从其他 PCI-E 设备直接 DMA 到 GPU 内存吗?
您可以通过
直接 DMA 到 GPU 主机内存。有关详情,请参阅&GPUDirect 技术页面。
问: CPU 与 GPU 之间的传输速率峰值是多少?
内存传输性能受许多因素的影响,包括传输的大小以及所用系统主板的种类。
在 PCI-Express 2.0 系统中,我们测量到传输速率高达 6.0 GB/秒。?您可以使用 SDK 中的带宽测试样例来测量系统带宽。
通过锁页内存传输的速度较快,因为 GPU 可以直接从此内存进行 DMA。但是分配过多锁页内存会大大影响系统的整体性能,因此需谨慎分配。
问: CUDA 中数学运算的精度如何?
所有目前的 NVIDIA GPU 和自 GT200 以来的 GPU 均支持双精度浮点运算。有关详情,请参阅。所有具有运算能力的 NVIDIA GPU 均支持 32 位整数和单精度浮点运算。他们遵循单精度二进制浮点运算的
IEEE-754 标准,仅存在一些细微差别。
问:&为什么我的 GPU 计算结果与 CPU 结果略有不同
之所以不同可能会有很多原因。浮点运算无法保证在任何处理器架构中都给出完全相同的结果。在 GPU 上按数据并行方式实施算法时,运算顺序通常是不同的。
以下文章是关于浮点运算的非常有用的参考资料:?&
问: CUDA 是否支持双精度运算?
支持。计算能力在 1.3 和 1.3 以上的 GPU 支持在硬件中进行双精度浮点运算。
问: 如何在内核中使用双精度浮点运算?
您需要向 nvcc 命令行添加开关语句「-arch sm_13」(或更高的计算能力),否则双精度将静默降级为浮点数。请参阅 CUDA 安装程序中的示例,了解如何根据 GPU 的计算能力在不同的内核之间进行切换。
问:是否可以从纹理中读取双精度浮点数?
硬件不支持将双精度浮点作为纹理格式,但是,如果您不需要插值,便可以使用 int2 并将其转换为双精度:
texture&int2,1& my_
static __inline__ __device__ double fetch_double(texture&int2, 1& t, int i)
int2 v = tex1Dfetch(t,i);
return __hiloint2double(v.y, v.x);
问: CUDA 是否支持长整数?
支持。CUDA 支持 64 位整数 (超长整数)。对这些整数类型的运算可根据计算能力在一些 GPU 上编译为多指令序列。
问:在哪里可以找到有关 PTX 汇编语言的文档?
您可从 文档中找到此类文档。
问:&如何查看我的程序生成的 PTX 代码?
在 nvcc 命令行中添加「-keep」(或在 Visual Studio 中自定义设备设置) 可保留中间编译文件。然后查看「.ptx」文件即可。
问:&如何查看内核所用的寄存器数量或共享/常量内存大小?
在 nvcc 命令行中添加「--ptxas-options=-v」选项即可。在编译过程中,此信息将输出至控制台。
问:&是否可以同时执行多个内核?
可以。计算能力在 2.x 或 2.x 以上的 GPU 支持并发内核执行和启动。
问:&CUDA 内核的最大长度是多少?
这由 GPU 的计算能力所决定,如需了解确切答案,请参阅《CUDA C 语言编程指南》的一节。
问: 如何调试 CUDA 代码?
您可以使用多款强大的调试工具来创建断点和跟踪。主要操作系统以及多 GPU 解决方案和集群均有相应的工具可用。请访问&页面,了解最新的。
问: 如何优化 CUDA 代码?
现在我们提供了大量有关如何优化 CUDA 代码的指南和示例供您参考。以下是一些有用的链接:
问: 如何选择每个区块的最优线程数?
为了充分利用 GPU,您应谨慎平衡每个线程块的线程数、每个区块的共享内存大小以及内核所用的寄存器数量。
您可以使用 CUDA 占用率计算器工具来按给定 CUDA 内核计算 GPU 的。该工具包含在最新的&中。
问: 内核执行所需的最长时间是多久?
在 Windows 系统上,启动单个 GPU 程序的最长运行时间约为 5 秒。超过这一时间限制通常会导致启动失败 (通过 CUDA 驱动程序或 CUDA 运行时间报告),但有时会导致整个机器中止运行,需要硬重置才能解决问题。
此问题是由 Windows「监视器」计时器所致,如果使用主要图形适配器的程序的运行时间超过了允许的最长时间,该计时器便会导致程序超时。
鉴于这个原因,建议您在没有连接显示器并且没有扩展 Windows 桌面的 GPU 上运行 CUDA。在这种情况下,系统必须至少包含一个用作主要图形适配器的 NVIDIA GPU。
问:如何计算 GPU 上的数组之和?
该计算方法称为并行规约运算。有关详情,请参阅
问: 如何从每个线程中输出不定量的数据?
使用并行前缀和 (也称作「scan」) 运算可以实现。CUDA 数据并行基元库 (CUDPP) 包括高度优化的 scan 函数:
The "" 示例展示了 scan 针对每个线程的不同输出的用法。
问: 如何在 GPU 上排列数组?
我们提供的
示例包括快速并行基数排序。?要排列一个区块中的数值组,您可以使用并行双调排序。 另请参阅
示例。?Thrust 库也包括排序函数。有关更多示例信息,请参阅。
问:分配 CUDA 应用程序需要什么?
使用驱动程序 API 的应用程序只需要 CUDA 驱动程序库 (在 Windows 下为「nvcuda.dll」),在进行标准 NVIDIA 驱动程序安装时会安装该库。
使用运行时间 API 的应用程序还需要运行时间库 (在 Windows 下为「cudart.dll」),该库可在 CUDA 工具包中找到。您可以根据 CUDA 工具包中随附的最终用户许可证协议,在应用程序中分配此库。
问:如何从应用程序中获得有关 GPU 温度的信息?
在 Microsoft Windows 平台上,您可以通过 NVIDIA 的 NVAPI 查看 GPU 温度和许多其他低级 GPU 功能
在 Linux 下,标准驱动程序安装中的「nvidia-smi」实用程序也可显示所有已安装设备的 GPU 温度。
工具、库和解决方案
问: 什么是 CUFFT?
CUFFT 是一种适用于 CUDA 的快速傅里叶变换 (FFT) 库。有关详情,请参阅 CUFFT 文档。
问: CUFFT 支持哪些转换类型?
当前版本支持 Complex to Complex (C2C)、Real to Complex (R2C) 和 Complex to Real (C2R)。
问: 最大转换大小是多少?
对于 1D 转换而言,在 1.0 版本中的最大转换大小是 16M 元素。
问: 什么是 CUBLAS?
CUBLAS 是 CUDA 驱动程序顶部基本线性代数子程序 (BLAS) 的实施。您可以通过其访问 NVIDIA GPU 计算资源。该库在 API 层独立存在,也就是说,不必与 CUDA 驱动程序进行直接互动。
问: NVIDIA 在 Linux 和 MAC 上有 CUDA 调试器吗?
有,CUDA-GDB 是适用于 Linux 发行版和 MAC OSX 平台的 CUDA 调试器。
问:CUDA-GDB 是否支持 UI?
CUDA-GDB 是一种命令行调试器,但是可与 Data Display Debugger、Emacs 和 XEmacs 等 GUI 前端配合使用。此外还有第三方解决方案,如需查看选项列表,请参阅我们的页面
问: Parellel Nsight 与 CUDA-GDB 的主要区别是什么?
两者之间有很多共同特征,以下是其区别:?Parallel Nsight
在 Windows 系统中运行,可以在 GPU 上调试图形和
CUDA 代码 (无法调试 CPU 代码)。
CUDA-GDB 在 Linux 和 Mac OS 系统中运行,可以在 GPU 上调试 CPU 代码和 CUDA 代码 (无法在 GPU 上调试图形)。
问: 如何使用交互式桌面调试 OGL+CUDA 应用程序?
您可以 ssh 或使用 nxclient 或 vnc 来远程调试 OGL+CUDA 应用程序。这要求用户在 X 服务器配置文件中禁用交互式会话。有关详情,请参阅《CUDA-GDB 用户指南》。
问: 集群调试应使用哪种调试器?
NVIDIA 与合作伙伴联合提供了集群调试器。支持 CUDA 的集群调试器有两种:&&和 RogeWave Software 提供的 。
问: -G 标志对于代码优化有什么影响?
-G 标志关闭了 CUDA 代码上的大多数编译器优化。由于某些优化需用于保证应用程序正常运行,因此无法关闭。例如:局部变量不会溢出到本地内存,而是会保存到寄存器中,调试器会跟踪寄存器的活动范围。要使应用程序在没有调试标记的情况下正常启动,需要确保在调试模式下进行编译时,该应用程序不会耗尽内存。
问: 如有其他问题,该如何与调试器团队联系?
请发送电子邮件至 cuda-debugger-
与 NVIDIA 互动
问: 如何发送有关改进 CUDA 工具包的建议?
成为,然后您便可以直接使用问题报告系统提出建议和请求,还可以报告问题等。
问: 我可以直接向 CUDA 团队提问问题吗?
您可以在一年一度的 GTC 会议上与我们的团队直接面对面交流,请访问
了解下一届 GTC 的召开日期
您还可以参加直播的问答在线研讨会,直接向某些一流的 CUDA 工程师提问。立即参加,成为。
订阅 NVIDIA 最新消息GPU的新应用:浅谈浏览器硬件加速之争
日 00:01&&&出处:&& 作者:邱大川&&
  泡泡网显卡频道11月3日&近段时间,我们经常可以从网络上看到关于浏览器硬件加速的报道,似乎在一夜之间所有的浏览器都开始讨论硬件加速这一话题,IE9、Firefox、Google Chrome 都在积极的准备着为浏览器迎来完整硬件加速的支持。今天,我们这片文章就主要谈谈浏览器的硬件加速。
● 何谓硬件加速
   根据维基百科的解释,硬件加速就是指在中通过把计算量非常大的工作分配给专门的硬件来处理来减轻中央处理器的工作量的技术。
   从上面这句话中我们就不难看出,硬件加速首先应该具备减轻中央处理器工作量的特征,同时需要有专门的硬件来处理。为了有便于大家更好的理解,笔者在这里对“硬件加速”这个词用更加通俗的语言解释一下。
   大家知道,中最重要的是(中央处理器),它之所以重要,并不仅仅因为它是整个电脑的心脏,而且在计算能力方面是全能型的,只要是运算方面的事情,理论上那个都能够搞定,比如CPU可以渲染图像,可以解码视频、可以解码音频、可以3D渲染,但在执行效率方面,就不如专门的硬件了。比如使用GPU来进行图像、视频的处理,使用独立声卡来进行音频的处理,甚至在早些年,视频解压、采集等等都需要专门的硬件(显卡未能支持)。
90年代使用辅助处理器实现的浮点数计算硬件加速
   在计算机中,CPU由于要管的事情太多(几乎所有的事情它多少都会参与,至少会下达指令),所以节约CPU的资源就是硬件加速的重要目的,闲置的CPU资源就可以用来干更多的事情。这就是硬件加速的根本目的。
什么是GPU硬件加速
● GPU硬件加速
   在所有类型的硬件加速中,GPU硬件加速是最为引人注目的,甚至当今人们一说到硬件加速就会默认当作GPU硬件加速,为什么GPU的硬件加速会如此受关注呢?这还得从GPU的应用说起。
   GPU最初的功能虽然只是用来渲染图像(2D/3D),但是由于人们对虚拟视觉的要求永无止境,导致现在GPU和CPU一样,成为了计算机中最重要的设备之一,所以大家可能会看到,有不少的品牌电脑厂商在广告中都将“显卡”的介绍放在了第一位,这也是由于GPU的重要程度决定的。
   相对于其他硬件来说,GPU最大的特性就是运算能力强大,甚至比CPU的运算能力要强大很多倍(3D游戏渲染对运算器的要求非常高),但由于并不是所有时间GPU都在满负荷工作,所以如何利用GPU的潜能就成了这几年业界关注的一个焦点,也就是所谓的“GPU硬件加速”。
   现在,有非常非常多的应用都可以使用GPU来实现硬件加速,比如高清视频的播放、视频格式的转换、蛋白质折叠运算、大规模的浮点运算等等,而GPU通用计算在最近这几年也得到了蓬勃的发展,GPU能做的事情越来越多,甚至密码破解、病毒扫描等等乱七八糟、歪门邪道的事情都可以使用GPU加速。
浏览器的GPU硬件加速时代
   作为普通用户进入互联网世界的入口,浏览器恐怕要数现在每天使用率最为频繁的软件,而Web应用的趋势让浏览器可能成为今后的应用平台,比如Google公司即将发布的 Chrome OS 操作系统,就完全是一款浏览器操作系统,所有的操作都只能在浏览器中完成。
   HTML以及JavaScript技术的发展也让浏览器中的内容变得更加丰富和有趣,在网页中办公、玩游戏、甚至处理图像都已经实现并逐渐成为了非常平常的事情,而未来浏览器中还会出现大型的3D游戏、高清晰的多媒体视频,如果还是像传统的浏览器一样,将这些工作全部都交给CPU来处理的话,CPU将不堪重负,而且压根也完成不了这些工作。所以,浏览器的GPU加速已经迫在眉睫。
   基于Web的硬件加速虽然好几年前就一直在提,但相关的进展一直都非常缓慢,尤其是 Google 还没有推出 Chrome 浏览器的时候,浏览器从技术方面可以说有很多年都没有明显的更新。
   随着 Google Chrome 浏览器的崛起,更多用户也越来越认识到了浏览器的重要性,Firefox 和 Google& Chrome 都双双蚕食着 IE浏览器的市场份额,在这种情况下微软必须要振作了。Windows 7 发布之前,微软推出了 IE 8浏览器,现在,IE9 Beta 版已经发布,最重要的是——IE9浏览器直接支持GPU硬件加速功能。
三大浏览器硬件加速的实现
   IE9 Beta 的发布让浏览器的GPU硬件加速一夜之间成为了热门话题,随后Firefox、Google Chrome 等浏览器都纷纷将硬件加速功能作为当务之急,Opera 更是率先开始研究移动平台上的浏览器硬件加速,浏览器厂商开始了“硬件加速之争”。
   在IE9中,微软使用了Direct2D、DirectWirte、XPS等新技术进行文字、图像、视频、SVG等内容的渲染。Direct2D的加入可以让浏览器调动GPU来优化渲染丰富的图形,从而带来更快的Web程序运行速度,以及更高质量的浏览体验。
   对一些图形操作来说,GPU是更合适的选择,比如GPU在执行Alpha混合与双线性图形缩放的时候就比CPU快得多,还可以利用像素着色器执行复杂的每像素计算。
   利用GPU执行更多任务,CPU资源就得以释放给其他浏览器子系统,还能获得更流畅的动画和视频播放效果。
   根据Mozilla提供的资料,Firefox和IE9在Windows平台上的实现方式完全一样,而在Mac及Linux平台上的实现方式目前还没有特别细的资料。
  互联网巨头 Google&自己的 Chrome 浏览器也有一套完整的GPU硬件加速方案,而且是一种非常特殊的硬件加速方案。
   在硬件加速条件下,GPU接受来自渲染进程的命令,并将其输入OpenGL 或 Direct3D 进行处理,Chrome在此一直落后于其他对手,原因是Google考虑到安全因素,将浏览器的渲染工作安排在一个独立的进程内,导致无法与操作系统的硬件接口直接通信。因此为了实现硬件加速,Chrome需要特殊的方案:
   在渲染进程和GPU两者无法直接通信的情况下,Chrome特意分出了一片共享存储区,让渲染进程将命令缓存录入存储区,再等GPU从存储区读取命令,进而执行相应命令。这方案解决了核心问题,但因为始终不是直接通信,功能上还有一定的限制。&& 依靠这个结构,Chrome开始对部分内容实施硬件加速。对于普通的网页内容(文本、CSS、静态图片)依旧直接使用CPU渲染,而GPU负责大型媒体(如视频)的加速渲染任务,更为特殊的WebGL元素,则完全交由GPU渲染。对各层面的内容渲染完成后,最后关键的一步是将所有内容揉合进同一个页面,这项工作CPU无法很好胜任,所以这一部分工作也完全可以交由浏览器来完成。
IE9硬件加速测试:FISHIE TANK
   下面,我们就来检测一下目前在IE9浏览器上的GPU硬件加速实现情况,由于目前Firefox和Chrome都还没有发布完整支持硬件加速的正式版本,甚至连公测版本也还没有,所以我们本次只测试IE9 Beta的硬件加速功能。
点击查看大图
   测试平台除显卡之外,使用了两套完全一样的平台。只是其中一个平台上的显卡是主板集成的880G,另一个平台上的显卡为独立显卡GTX460,我们本次主要测试在一些支持硬件加速的场景中,显卡本身的性能是否真的对整体的网页性能有很大的影响。
GTX460性能:44FPS流畅
880G性能:8FPS幻灯片
   微软推出的FISHIE TANK是一个真实模拟在浏览器中实时渲染的小应用,我们选择了同时在屏幕上渲染1000条小鱼,测试结果可以看出GTX460渲染1000条小鱼非常轻松,每秒帧数高达44帧。相比之下,880G的表现就非常差了,只有8FPS。
IE9硬件加速测试:视频万花筒
● 880G集成显卡性能
6FPS超级无敌卡
10FPS超级卡
● GTX460独立显卡性能
60FPS满帧无悬念
60FPS满帧无悬念
   这个叫做的应用非常有意思,它可以将视频通过万花筒的方式展现出来,在万花筒转动的同时视频也在继续播放,你很难想象这是直接在浏览器中实现的。从测试结果我们可以看到,880G和GTX460有着非常显著的差距,足以证明硬件加速已经生效。
IE9硬件加速测试:Canvas Zoom
880G杯具的12FPS
GTX460又是60FPS的满帧
   也是一个非常有意思的应用,主要是在网页上对一副超大照片进行缩放操作,由于图片实在是太大了,所以如果使用CPU来计算将非常困难,故而采用GPU硬件加速。测试结果不用怀疑,高性能的GTX460获得了满帧,而880G只有杯具的12帧。
Speed Read
880G耗时:24秒
GTX460耗时:15秒
  是一个测试在浏览器中快速渲染文字的工具,在固定数量的文字渲染过程中,880G使用GPU硬件加速花费了24秒时间完成,而GTX460只花费了15秒的时间,效果非常明显。
总结:硬件加速将成浏览器标配功能
   本文我们比较简单的介绍了一下目前IE、Firefox以及Google Chrome在浏览器GPU硬件加速方面的进度和实现原理,并且对IE9 BETA的硬件加速效果进行了简单的测试。当然,在实际的应用上,远远不止我们本文中所介绍的内容,微软就曾经表示IE9的一切都可以使用硬件加速,就好象 Windows 7 支持 Direct Compute 一样,用户并不知道在什么时候生效了,但确确实实的生效了。
   在微软这样的业界龙头带动下,浏览器的GPU硬件加速功能在半年内得到了非常迅猛的发展。对浏览器市场比较了解的朋友应该知道,目前IE、FireFox以及Chrome是最流行的3大浏览器,这三大浏览器如果都完全支持了硬件加速,受益人数将超过整个互联网用户的90%(这里不考虑浏览器更新因素),可以肯定,浏览器的硬件加速将成为未来浏览器的标配功能。
   浏览器的硬件加速也同样体现出了一个事实——CPU的工作正在逐渐被GPU所取代,也就是说以后连上网都需要更好的显卡才能获得更好的体验,CPU的确应该感到鸭梨很大。但是,在执行效率方面,GPU的并行计算架构确实更加适合这样的工作。可以确定的是,虽然CPU的重要性在逐渐降低,但GPU应该永远不会取代CPU。■
扯扯车精品文章推荐

我要回帖

更多关于 开启显卡硬件加速 的文章

 

随机推荐