量子计算机概念股中时间频率的概念

使用频率_百度百科
本词条缺少信息栏、名片图,补充相关内容使词条更完整,还能快速升级,赶紧来吧!
是指按照物的性能和用途加以利用,以满足生产和生活需要。频率:单位时间内完成振动的次数,是描述振动物体往复运动频繁程度的量,常用符号f或v表示,单位为秒-1。
使用频率使用频率——概念
使用:为了纪念德国物理学家赫兹的贡献,人们把频率的单位命名为赫兹,简称“赫”。每个物体都有由它本身性质决定的与振幅无关的频率,叫做固有频率。频率概念不仅在力学、声学中应用,在电磁学和无线电技术中也常用。交变电流在单位时间内完成周期性变化的次数,叫做电流的频率。
使用频率注意事项
(1)必须遵守国家有关频率管理的规定,严格按指定的频率工作,不得擅自改变,对于可调频率的设备,需经锁频后方可使用。(2)严格按照审批台(网)时所核定的台址、天线高度、天线增益、发射机输出功率等台站参数进行工作,不得发送和接收与工作无关的信号。(3)保持设备的频率准确度、稳定度、频段宽度、残波辐射等技术指标符合国家规定的技术标准,并定期检修设备,以确保台(网)的正常运行。(4)按期缴纳频率占用费。(5)用户在一定条件下可申请调整和增加频率:现有频率受到了不可克服的干扰;业务量增大,不增加频点不能完成任务;现有频率以实现各通信对象间的相互联络。
使用频率频率概念
物理学上的频率:物质在1秒内完成周期性变化的次数叫做频率,常用f表示。物理中频率的单位是赫兹(Hz),简称赫,也常用千赫(kHz)或兆赫(MHz)或GHz做单位。1kHz=1000Hz,1MHz=GHz=1000MHz。频率f是周期T的倒数,即f=1/T。而像中国使用的电是一种正弦交流电,其频率是50Hz,也就是它一秒钟内做了50次周期性变化。另外,我们听到的声音也是一种有一定频率的波。人耳听觉的频率范围约为20-20000HZ,超出这个范围的就不为我们人耳所察觉。
数学中的频率:在相同的条件下,进行了n次试验,在这n次试验中,事件A发生的次数nA称为事件A发生的频数。比值nA/n称为事件A发生的频率,并记为fn(A)。⒈当重复试验的次数n逐渐增大时,频率fn(A)呈现出稳定性,逐渐稳定于某个常数,这个常数就是事件A的概率.这种“频率稳定性”也就是通常所说的统计规律性。⒉频率不等同于概率。由伯努利大数定理,当n趋向于无穷大的时候,频率fn(A)在一定意义下接近于概率p(A)。
使用频率参考资料
1、http://www./gb/node2/node50/node52/node182/node200/node771/userobject14i1323.html2、/wiki/%E9%A2%91%E7%8E%87
企业信用信息工具类服务
编辑部专用服务
作者专用服务
计算机网络时间传统和频率测量服务系统
作者单位:
科学院陕西天文台
母体文献:
99'全国时间频率学术报告
会议名称:
1999年全国时间频率学术报告会
会议时间:
会议地点:
主办单位:
中国计量测试学会
在线出版日期:
相关检索词
万方数据知识服务平台--国家科技支撑计划资助项目(编号:2006BAH03B01)(C)北京万方数据股份有限公司
万方数据电子出版社计算机的常用计量单位
计算机的常用计量单位
计算机的常用计量单位
首先让大家明白几个概念 Hz(赫兹)  通常的定义是波形每秒钟变化或振动的次数,在计算机中不同硬件对Hz的定义各不相同。  CPU:Hz用来表示时钟频率。目前的CPU通常以MHz和GHz作为计量单位。  显示器:在显示器中有三个频率指标,分别是行扫描频率(行频)、场扫描频率(也称刷新频率)和带宽频率。此三个频率指标越高,那么这台显示器的最大分辨率和刷新率也就相应越高。  kHz 1000次/s(秒) 1kHz=1000Hz  MHz 100万次/s(秒) 1MHz=1000kHz  GHz 10亿次/s(秒) 1GHz=1000MHz  ns(纳秒)  通常用来表示物理内存和显存的存取速度。其值越小,极限工作频率就越高。显存单位ns与极限频率的关系见下表:显存存取速度sdram显存最高工作频率ddr sdram显存最高工作频率  计算显存极限工作频率的公式是:  SDRAM极限工作频率=;ns   DDR SDRAM的极限工作频率=(;ns)×2  注:显存芯片与内存芯片并无二致,所以两者的计量单位是通用的。  rpm(转/分)  用来表示电机每分钟的转数,主要是硬盘电机和散热风扇电机。如硬盘按转速可分为7200rpm和5400rpm,7200rpm称为高速硬盘、5400rpm为低速硬盘,通常情况下高速硬盘的数据传输速度要比低速硬盘快一些。  另外,扇叶长度、叶片数相同的散热风扇中,rpm高的肯定风量更大,散热效果更好,但是噪音也相对大一些。  Byte(字节)和bit(位)  这是两个极容易混淆的概念,按照书上的定义:1 Byte(字节)= 8个bit(位)。Byte是一个存储量单位,通常用来计量硬盘、软盘、光盘等存储设备的存储量。  1KB=1024 Byte  1MB=1024KB  1GB=1024MB  需要注意的是:硬盘厂商在标识硬盘容量时,采用的计量方法是1KB=1000Byte,而非1KB=1024 Byte。所以一个标称值为60GB的硬盘,其实际容量只有58GB左右,这是完全正常的。  而bit通常用来表示处理器位宽、显存位宽、总线位宽和内存位宽。  显存带宽的计算方式为:  显存带宽=显存工作频率(MHz)×显存位数(bit)。  例:  显卡1:GeForce2 MX 200位宽为64bit,工作频率为166MHz。  166MHz×64bit= 10624Mbit  换算为带宽:10624Mbit÷8=1328MB/s  显卡2:GeForce2 MX 400位宽为128bit,工作频率也是166MHz。  166MHz(工作频率)×128bit(显存位数)=21248Mbit。  换算为带宽:21248Mbit÷8=2656MB/s  由此可见,显存的位数对于显存的带宽来说是多么的重要。显存带宽直接制约着显示芯片与显存之间的数据传输速度,对显卡的性能有很大的影响。  bps和bit/s  用来计量单位时间(秒)内,从某设备中流过的数据位数,每秒流过的数据位数越多,那么此设备的数据传输率也就越高。  (1)bps(调制速率):  bps指的是单位时间(秒)内传输的字节位数。它主要用于网络调制设备(Modem)或(ADSL)等频率调制设备上。  例:  普通Modem为56kbps、ADSL为2Mbps。其实bps与bit/s属同一计量单位,只不过bps用于网络调制设备而已。以56kbps Modem为例,我们可以计算它的Byte/s(每秒钟流过的字节数)为56kbps/8=7kB/s。  (2)bit/s(传输位数)  表示每秒钟经某设备传输的字位数(bit),如某硬盘内部传输速率为240Mbit/s,那么即表示每秒钟经过该设备的字位数为240Mbit,换算为Byte(字节)/s(秒),则等于240Mbit÷8=30MByte/s(简称:30MB/s)。  dpi(点数/每英寸)  对于打印机来说,dpi是衡量打印机分辨率的一个重要参数,我们购买打印机的时候一般会注意到这个数值越大打印机越贵,这是为什么呢?首先我们要了解dpi的概念,dpi 是指每英寸可打印的点数:如 500dpi,即表示每英寸可打印 500 个点。 这个值越高,打印输出的效果越精细,当然价格也就越贵了。  对于鼠标来说,dpi是用来衡量鼠标每移动一英寸所能检测出的点数。通常情况下,其点数越高,鼠标的分辨率也就越高,鼠标定位也越“精确”。 1tb=1024gb 1gb=1024m 1mb=1024kb 1k=1024b------------------
发表评论:
TA的推荐TA的最新馆藏[转]&[转]&[转]&&& 计算机传统架构是分为 北桥和南桥两个芯片组,其中北桥连接着CPU、显卡、以及内存等高速设备,南桥则连接着硬盘、USB、PS/2、PCI等等低速设备,不直接与处理器打交道,北桥和南桥之间也是通过Hub架构进行连接。如下图:
从图上可以看出,北桥芯片负责和CPU通信,并控制内存(仅限于Intel除i7系列以外的cpu,AMD系列cpu在K8系列以后就在cpu中集成了,因此AMD平台的北桥芯片不控制内存)、显卡数据在北桥内部传输,而北桥和cpu通信是通过CPU的FSB前端总线来进行传输的。
内存数据与cpu交互是这么一个过程:CPU发出指令,通过前端总线到达北桥内存控制器,内存控制器再将命令给内存,内存将数据传递给北桥,北桥再通过前端总线传递给CPU,注意这个过程,CPU-&北桥-&内存-&北桥-&CPU.因此cpu到北桥,北桥到内存的传输速度要匹配才能达到最佳效果,而北桥因为承载了大量数据的中转运输,发热量可不容小觑。
上面说的过程是传统过程,还有一类刚才说的intel i7系列以及AMDK8系列以后的CPU由于在CPU内部集成了内存控制器,内存控制器与cpu之间几乎没有间距,内存交互与cpu交互不再需要北桥参与,内存数据直接交给内存控制器后,cpu直接取用,比传统方式来讲内存延迟小很多,当然也快捷很多。参考下图:
明白了以上内容之后,后面部分就相对不那么空洞了,接下来再来看一些基本概念,然后我会讲一些与机器性能相关的一些匹配问题:
U(CPU简称)的 主频:cpu工作时的频率,对于同系列的U来说,一般是主频越高代表U的处理速度越快,不同系列的U,主频只能作为参考,因为整体性能还要考虑U的指令流水线等等。
U的外频:这个频率一般是整个系统的基准工作频率,也称为系统时钟频率,是cpu与主板之间的同步数据的基准频率,而大多数系统中外频也是内存和主板同步数据的基准频率,因此可以认为是以cpu的外频与内存在进行数据同步。
U的倍频: U的主频与外频之间存在着一个比值关系,这个比值就是
倍频系数,简称倍频。理论上倍频是从1.5一直到无限的,但需要注意的是,倍频是以0.5为一个间隔单位。外频与倍频相乘就是,所以其中任何一项提高都可以使CPU的主频上升,但是有的U的厂家将某些U的倍频进行了锁定,例如intel,因此一般来说都只有提升外频来帮助提高U的主频。
FSB(intel U的概念):全称Front SideBUS,前端总线,它是U和北桥芯片之间传递数据的通道,U的前端总线频率一般遵从如下公式:FSB前端总线频率=外频*4 ,注意只有intel的U才有前端总线的概念,FSB传输速率计算方式是:FSB传输速率=FSB总线频率*总线位宽=外频*4*总线位宽,一般FSB总线位宽是64位,即U的外频和位宽越高,表示了这个通道传输能力越强大。
HyperTransport:超传输技术, 它是一种高速、低延时、点对点的连接,旨在提高电脑、服务器、嵌入式系统,以及网络和电信设备的集成电路之间的通信速度。它的速度比某些现有技术高出48倍。HyperTransport有助于减少系统之中的布线数量,从而能够减少系统瓶颈,让当前速度更快的微处理器能够更加有效地在高端多处理器系统中使用系统内存。前面说了cpu与内存直连,cpu与北桥直连,北桥和南桥直连,AMD就采用了这种技术,当然这种技术也是首先由AMD发明的,HyperTransport也有他自己的传输频率,HyperTransport总线频率=CPU外频*HyperTransport倍频
,注意不是CPU的倍频,因此如果cpu外频提高,可见,HyperTransport总线频率也在相应提高。由于HyperTransport采用类似DDR的工作方式,即在上升沿和下降沿都传送数据,相当于传送数据能力翻倍,400MH工作频率相当于800MHZ, 因此其传输速率=工作频率*2*位宽,而HyperTransport默认位宽是32位,此外HyperTransport是在同一个总线中可以模拟出两个独立数据链进行点对点数据双向传输,因此理论上最大传输速率可以视为再翻倍,称为双向传输技术,因此考虑到双向传输的话,那么HyperTransport最大传输速率=工作频率*2*位宽*2,目前HyperTransport
3.0标准有1.8GHz、2.0GHz、2.4GHz和2.6GHz四种物理工作频率,在2.0GHZ工作频率下,单向传输速度=2.0*2*32/8=16GB/S,双向传输速度更可以达到32GB/S。可见传统FSB传输速度的确没法跟HyperTransport比啊。
内存频率:内存的频率其实细分应该分为核心频率、实际时钟频率、等效工作频率。
结合内存分代来讲,内存到目前为止可以分SDRAM、DDR、DDR2、DDR3,我们平时购买内存条的时候就会接触到这些名字DDR400、DDR333、DDRII533、DDRII667、DDRIII1066等名字。DDR后面I、II、III代表的是DDR一代、二代、三代内存条,400、533、667、1066等表示的内存条的等效工作频率。
可以从上图中看到DDR2-800的字样。另外CL=5表示列选通延迟时间为5个内存时钟周期,具体后面再深入分析。
&&& 大家知道计算机系统的时钟频率依靠的是晶体振荡器来产生的,而内存自身并不带振荡器,因此内存自身并没有办法控制自己的频率,它只能限制自己能够运行的最大频率是多少,真正的工作时的频率还是要依赖芯片上的北桥或者主板上的时钟发生器来产生。
&& 先来看下内存工作的两个步骤:内存从Memory Cell Array(内存单元对列,内存的一种结构) 中读取数据到Io Buffer中,等到了一定位数之后再从Io Buffer中传送到cpu系统进行处理。
& 于是有了下面的概念:
核心频率:(内部时钟)指内存颗粒工作频率,它是读取数据到IO Buffer的频率。
内存外部时钟频率:这个频率就好理解了,就是将数据从IO Buffer传送出去的频率
等效工作频率:这个就涉及到另外的知识了,先说概念,表示数据等效传输频率,目前DDR、DDR2、DDR3等效工作频率都是外部时钟频率的2倍。
先看下面的图:
SDRAM: (Synchronous DynamicRandom Access Memory )同步动态随机存储器,同步是指内存工作需要同步时钟,内部的命令的发送与数据的传输都以它为基准;动态是指存储阵列需要不断的刷新来保证数据不丢失;随机是指数据不是线性依次存储,而是自由指定地址进行数据读写,如上图,SDRAM核心工作时,每次获取1bit数据到I/Obuffer中,SDRAM核心工作频率=外部时钟频率,由于SDRAM是在外部时钟周期的上升沿传递一次数据,因此等效频率=外部时钟频率。
DDR:(Dual DateRate SDRAM)双倍速率SDRAM的简称,DDR在SDRAM上有了提高,每次核心工作时可以同时预取2bit数据到I/O buffer,而为了把I/O buffer中的2位数数据给送出去,DDR采用了外部时钟周期上升沿和下降沿都传送一位数据,因此很自然我们能知道,DDR核心频率=外部时钟频率,而等效工作频率是外部时钟频率的2倍,因此他采用了上升、下降沿都传送一位数据。
DDR2: 这是第二代DDR内存,从上图我们可以看出,DDR2采用4位数据预取技术,即每次核心工作时将同时传递4位数据到I/O buffer中,而将这4位数据要全部传送出去,采用上升沿和下降沿都传递一位数据来看,DDR2的外部时钟频率必须要是核心频率的两倍才能及时将数据传递出去。因此可以得出这么一个关系:DDR2等效工作频率是外部时钟频率的两倍(因为采用了上下沿都传递数据),而外部时钟频率又是核心频率的两倍(为了及时将数据传递出去,否会积压在buffer中)
DDR3: 这是第三代DDR内存,同理,DDR3采用了8位数据预取技术,相应的要及时将数据传递出去,外部时钟频率需要时核心工作频率的4倍才行,而等效工作频率一样是外部时钟频率的2倍(上下沿传递数据)
可见在相同的核心频率下,DDR3的传输能力要强得多,并且,在得到相同的传输带宽下,DDR3只需要很小的核心工作频率就可以完成,工作电压也会小很多,发热量也就相应小了很多,好处多多,目前DDR内存基本上已经销声匿迹,DDR2也基本上要被DDR3完全淘汰。
那么内存有这么多频率,跟cpu外频又有什么关系呢?前面讲到,外频是cpu与内存等同步数据的一个频率,因此一般来说内存外部时钟频率应该大于cpu外频为好,否则内存将会成为cpu运行的一个瓶颈,因为数据供应跟不上。考虑内存和cpu搭配,除了考虑频率搭配以外,还要考虑数据带宽搭配,什么意思呢?举个例子
& &&&&Cpu外部频率200MHZ, FSB 800MHZ,我们可以计算一下,FSB一般是64位,因此0.8*64/8=6.4GB/S,考虑频率一致,我们可以采用DDR 400、DDR2-400、DDR3-400(如果有),三种中一种,他们的外部时钟频率都是200MHZ,但是带宽呢?由于DDR、DDR2、DDR3位宽一般为64位,因此,0.4*64/8=3.2GB/S,明显数据宽度是个瓶颈,达不到cpu要求的数据宽度,于是就出现了双通道技术,双通道技术目的是将内存的数据宽带增加一倍,注意,是数据宽度,而不是频率增加一倍,即,如果再插一根同样类型的内存条,并且你的主板支持双通道技术,那么你的带宽将增加一倍,64位可以变成128位,即,0.4*128/8=6.4GB/S,恰好匹配。
&&&& 请记住两点:①频率需要匹配②带宽也要匹配& 才能不拖cpu后腿。
(其实关于上面两点,网上有很多说法,没有个准,也有说应该是外频要和内存核心频率匹配的,也有说要跟外部时钟频率匹配的, 对于拖cpu后腿的说法,有的人认为只要带宽匹配就行了,他们举的例子都是DDR内存,由于DDR内存核心频率和外部时钟频率一致,因此也完全看不出来是否一定要频率一致,到底以哪个频率一致,经过我看了大概几百多篇文章以及自己试验结果来看,我得出了以上结论)
&&&& 当然,这只是让内存工作再同步模式下,你的内存也可以是DDR3 -1333,此时由于你的内存外部时钟频率是667MHZ,明显高于cpu外频,系统默认情况一般会设定为内存异步工作模式,即内存频率与外频可以不一致。如果你采用CPUZ或者everest查看,可以看到FSB:DRAM=xx:xxxx,这里FSB请不要搞错,由于历史原因,这里只表示外频,DRAM表示内存外部时钟频率。
前面说了DDR、DDR2、DDR3,也看了他们工作示意图,我们可以从中得出什么来呢?
同样的等效频率DDR400、DDR2-400,DDR核心频率200,ddr2核心频率100,也就是说DDR2核心工作的周期比DDR要长。怎么得出来的呢?频率的倒数就是周期。自己计算一下就知道。三类内存他们延迟时间DDR3&DDR2&DDR。延迟时间会影响到内存的工作效率,就是同样的DDR3-800型号,不同的物理内存,他们制作时也不可能完全一样,总有的体质好的内存条延迟时间可以短点,有的却要长一些,我们应该选用体质较好的内存条,延迟时间短一点,这也是为什么有的内存条上会标注CL=5的原因,表示CL延迟时间为5ns.
&下面是我从另一处文章中摘抄过来的,是关于内存延迟的很好的描述,我做了少量修饰,文章出处给忘记了,先贴出来,供大家参考:
&& &再来了解一下内存基本结构和工作流程。目前,每一颗内存芯片内部的存储电路分为4块存储阵列(就是4个逻辑Bank,也就是前面说的CellArray)每个存储阵列(逻辑Bank)的存储单元地址通过“行地址”和“列地址”定位。因此每个存储单元的地址由三部分组成:逻辑Bank地址、行地址、列地址。寻址的过程是:先指定逻辑Bank地址,再指定行地址,然后指定列地址,这样就能够确定一个存储阵列内的存储单元。
在实际工作中,逻辑Bank地址与相应的行地址是同时发出的,这个命令称之为“行有效”或“行激活”(Row Active)。在此之后,将发送列地址寻址命令与具体的操作命令(是读还是写),这两个命令也是同时发出的,所以一般都会以“读/写命令”来表示列寻址。
从行有效命令发出到读/写命令发出之间有一段时间间隔,这个间隔称之为tRCD,即RAS to CAS Delay(RAS至CAS延迟),RAS是行地址选通脉冲,CAS是列地址选通脉冲,所以tRCD也可以理解为行选通周期。tRCD是SDRAM(包括DDR)的一个重要时序参数,一般以时钟周期(tCK,Clock Time)为单位。比如tRCD=2,就代表延迟周期为两个时钟周期,具体到确切的时间,则要根据时钟频率而定,对于DDR400(时钟频率=200MHz)来说,每个周期是5ns,tRCD=2,就是10ns的延迟,对于DDR333来说(时钟频率=166MHz),
每个周期是6ns,tRCD=2,就是12ns的延迟。
&&&&& 当列地址被选中之后,就会触发数据传输,但是从存储单元中输出到数据真正出现在内存芯片的 I/O 接口之间还需要一定的时间(数据触发本身就有延迟,而且还需要进行信号放大),这段时间就是非常著名的 CL(CAS Latency,列地址脉冲选通潜伏期)。CL时间长短与芯片硬件设计和制作工艺密切相关,因为这个列地址脉冲选通潜伏期取决于芯片的数据触发电路的延迟和信号放大电路的延迟。所以JEDEC就是以CL、tRCD等参数把DDR400分成A、B、C三个等级。
&&& CL 的数值也是以时钟周期表示。常见有2、2.5、3等。相同工作频率的内存芯片,CL值不同,实际延迟时间是不一样的。比如 DDR-400,时钟频率为 200MHz,时钟周期为 5ns,那么 CL=2 就意味着 10ns 的潜伏期,CL=2.5 就意味着 12.5ns 的潜伏期,CL=3 就意味着 15ns 的潜伏期。因此CL=3的DDR400其性能不如CL=2.5的。如果在BIOS里设置了CL=2.5,超出心存芯片的的标称性能,如果厂家设定的标称值是接近极限值,没有超频的余地,那么就会导致内存读取数据出错,表现为蓝屏死机。CL=3的DDR400,当BIOS设置为CL=2.5时,其频率必须降为DDR333(166MHz),才可以稳定工作,当频率降为DDR333(166MHz),每个周期=6ns,2.5个周期=15ns,延迟时间是15ns。与CL=3时的DDR400(200MHz)延迟时间相同(5ns
X 3 = 15ns)。
&&&& 从上面的分析,可以看出,CL和tRCD参数值用周期表示,属于相对值,还要乘以实际工作频率才是实际的延迟时间。而实际延迟时间取决于芯片硬件设计的电路制作工艺。
CL 只是针对读取操作,对于 SDRAM,写入是没有潜伏期的,对于 DDR SDRAM,写入潜伏期在 0.75 至 1.25 个时针周期之间。
&&&& BIOS里的内存时序参数设置比较专业,所以JEDEC规定在内存条加一个EEPROM芯片,记录时序参数设置,BIOS可以读取这个参数,自动设置。避免用户错误设置。这个纪录时序参数设置的EEPROM芯片就叫SPD。
我们可以通过看SPD信息了解内存条的性能。
&&& 这也就说明为什么在双通道时,用CL=3的DDR400,如果内存条品质(超频)不优秀,导致蓝屏死机,把速度降为333就可以解决的原因。
&&&& 微星865主板BIOS的内存时序设置里没有CL=3的选项,使用CL=3的DDR400会蓝屏死机。那些有CL=3选项的主板也会因为使用CL=3的DDR400蓝屏死机。我就处理和解决过其他各种品牌主板的这个问题。如果到网上搜索“蓝屏死机 DDR400”,就可以看到很多这一类帖子。各种品牌的主板都有。
&& 下面我们再看看tRCD参数,这里小写的t是timing(时序)的第一个字母,表示时序的意思,RCD就是RAS to CAS Delay的缩写,其中RAS是行地址选通脉冲,CAS是列地址选通脉冲,tRCD就是行地址选通脉冲到列地址选通脉冲的时间间隔。根据SDRAM的工作原理和JEDEC标准,CPU读写内存时,首先发出从行地址选通脉冲(也叫行有效命令),然后发出列地址选通脉冲(也叫读/写命令)。从行有效命令发出到读/写命令发出之间有一段时间间隔,tRCD就是这个间隔。这个也是由芯片的触发电路的延迟和信号放大电路的延迟决定的,也就是说是硬件本身的特性。tRCD一般用时钟周期为单位。比如tRCD=2,就代表延迟周期为两个时钟周期,这是相对的。绝对的时间间隔,要根据时钟频率而定。
参考知识库
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
访问:48275次
积分:1376
积分:1376
排名:千里之外
转载:517篇
(44)(2)(26)(37)(37)(10)(3)(27)(49)(29)(10)(9)(7)(1)(14)(11)(68)(5)(19)(118)(10)CPU运算多少次什么意思&超级计算机几亿次
大型计算机 超级计算机概念
多少多少次,是指每秒的运算次数!2、计算机运算速度很难有一个统一的标准,甚至有用某种方法测试比较快的计算机,在处理另一些问题时反而比较慢的情况。所以,如果说起计算机的运算速度,一定要说明这个速度是怎样定义的,或怎样测量出来的。为了避免这个矛盾,现在许多计算机不说“运算速度”,只说“主频”。
早期计算机硬件和指令系统都很简单,没有乘除指令以及一些复杂指令,所有指令执行时间是相同的,所以那时,说计算机运算速度是每秒多少条机器指令是很明确的。后来为了提高计算机速度,出现了执行时间不等长指令,尤其是出现了乘除法指令。由于乘除法指令执行时间比较长,结果就有每秒平均执行指令少的计算机反而更快的情况。
所以,一般测量计算机速度,可以规定每种指令所占的比例,即每种指令有不同的权值。通过加权平均获得速度指标。或者只说加法指令的速度。
还有一种办法,通过执行标准测试程序测定计算机的运算速度。
现在所谓的“超级计算机”都用了大量的标准CPU,可以想象它是用提高运算的并行度提高速度的,尤其是矩阵运算的速度。如果是这样的话,那就有可能它用了10条指令,完成了标准程序需要几百万条指令才能完成的运算,就可以认为它比标准程序快了几十万倍。3、频率x单个时钟周期内执行的指令数=运算速度
假设某CPU频率为2G,20亿赫兹,每个核心每个时钟周期执行2条指令,4个核心,总的运算速度就是20亿x2x4=160亿次。
ARM, 精简指令集,复杂指令集,等等
即,有的指令集,能够把取地址和操作放在一个CPU指令码中完成,有的指令集,则一条指令集无法同时做到从地址中取值和操作。
比如, 要计算“a + 1”,
精简指令集必须这样做 :
1.从a地址中取出a的值,放入寄存器r1
2.r1+1得到结果
复杂指令集则可以 :
从地址a中取得值,和1相加
精简指令集指责复杂指令集设计复杂,处理速度慢,复杂指令集嘲笑精简指令集高频低能
RISC集的指令多是1指令/时钟周期,但是家用计算机多是CISC。
多核处理器的频率是指其中一个核的频率还是总频率?应该是一个的频率
Intel的流水线那么长,应该可以达到一个周期一条指令吧?流水线结构的实质就是最大利用运算单元的位宽,让多条指令同时进行而减少单条指令的等待时间以减少能力内的闲置资源。
 一般说来,一个时钟周期完成的指令数是固定的,所以主频越高,CPU的速度也就越快了。不过由于各种CPU的内部结构也不尽相同,所以并不能完全用主频来概括CPU的性能。但CPU主频的高低可以决定电脑的档次和价格水平。
以Pentium42.0为例,它的工作主频为2.0GHz,这说明了什么呢?具体来说,2.0GHz意味着每秒钟它会产生20亿个时钟脉冲信号,每个时钟信号周期为0.5纳秒。而Pentium4CPU有4条流水线运算单元,如果负载均匀的话,CPU在1个时钟周期内可以进行4个二进制加法运算。这就意味着该Pentium4CPU每秒钟可以执行80亿条二进制加法运算。但如此惊人的运算速度不能完全为用户服务,电脑硬件和操作系统本身还要消耗CPU的资源。
CPU的主频,即CPU内核工作的时钟频率(CPU&Clock&Speed)。通常所说的某某CPU是多少兆赫的,而这个多少兆赫就是“CPU的主频”。很多人认为CPU的主频就是其运行速度,其实不然。CPU的主频表示在CPU内数字脉冲信号震荡的速度
已投稿到:
以上网友发言只代表其个人观点,不代表新浪网的观点或立场。

我要回帖

更多关于 量子计算机概念股 的文章

 

随机推荐