61阅读

集成和独立显卡的区别-集成显卡和独立显卡的区别?

发布时间:2017-08-08 所属栏目:不足之处

一 : 集成显卡和独立显卡的区别?

[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别?——简介
集成显卡和独立显卡的区别
[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别?——详细知识

[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别? 一
独立显卡简称独显,是指成独立的板卡存在,是要插在主板的相应接口上的显卡。独立显卡不用去占用体系内存,具有独自的显存,并且技术上领先于集成显卡,可以供给更好的显现作用和运转能力。而独立显卡也分为两种:内置独立显卡和外置显卡



独立显卡和集成显卡的区别 集成显卡和独立显卡的区别?
[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别? 二
集成显卡是指芯片组集成了显现芯片,运用这种芯片组的主板就可以不需求独立显卡完成普通的显现功用,以满足普通的家庭娱乐和商业运用,节约用户买显卡的开支。这样的主板也通常被称之为整合型主板,集成了显卡的芯片组也常常叫做整合型芯片。


[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别? 三
集成类的显卡通常本身是不带显存的,使用装有集成显卡的主板会把一部分内存拿来当做显存使用,具体占用多少内存一般是系统根据需要自动动态调整的。从这点能够看出来,当你用集成显卡运行占用大显存程序的时候,对电脑的整个系统影响会比较大的,此外体系内存的频率一般比独立显卡的显存低许多,因而集成显卡的性能和功用比独立显卡要差一些。


独立显卡和集成显卡的区别 集成显卡和独立显卡的区别?
[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别? 四
双显卡就是通过桥接器桥接两块显卡(集成—独立、独立—独立),协同处置图画数据的工作方式。在市面上nvidia公司生产的显卡将这种工作方式叫做SLI,而AMD将这种工作方式叫做CrossFire。要完成双显卡必须有主板的支持。理论上这种工作方式能比原来提升两倍的图像处理能力,但功耗与本钱也很高,常见于发烧DIYer拼装的电脑。

[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别? 五
双显卡技术能让图形处理能力提升一倍,但是在实际的应用中,除了极少数的测试之外,在实际游戏中图形性能只能提高30%~70%之间。在某些情况下甚至没有性能的提升,并且当前能良好的支持SLI的游戏还不太多。当然,在随着驱动顺序的完善,当前存在的这些问题应该能得到逐渐解决的。


[独立显卡和集成显卡的区别]集成显卡和独立显卡的区别? 六
?Windows 7系统已将掌握了独立显卡与核心显卡之间的智能切换,MAC的Lion也已经支持了,但Linux由于分支较多,并且双显卡切换是需要系统内核支持的。如果想要完美得系统内核支持,最好是使用3.0以上的内核,再加上完美的配置才行的,Linux下双显卡的配置不是很方便的,只能使用命令来进行配置。

二 : 二战后,德国分为东德和西德,后来东德跟西德分别成立独立的国家德意?

二战后,德国分为东德和西德

后,德国分为东德和西德,后来东德跟西德分别成立独立的国家德意志联邦共和国和德意志民主共和国,那么后来又怎么统一成现在的一个德国了?


德国于1939年发动第二次世界大战,1945年5月8日德国战败投降。战后,根据雅尔塔协定和波茨坦协定,德国分别由美、英、法、苏四国占领,并由四国组成盟国管制委员会接管德国最高权力。柏林市也划分成4个占领区。1948年6月,美、英、法三国占领区合并。翌年5月23日,合并后的西部占领区成立了德意志联邦共和国。同年10月7日,东部的苏占区成立了德意志民主共和国。德国从此正式分裂为两个主权国家。1989年民主德国局势发生了急剧变化。自同年5月起,大批公民出走联邦德国。10月初,许多城市相继爆发了规模不等的示威游行,要求放宽出国旅行和新间媒介的限制等。10月18日,民主德国总统昂纳克宣布辞职。11月9日,“柏林墙”开放。

11月28日,联邦德国总理科尔提出关于两个德国实现统一的十点计划。1990年2月13至14日,民主德国总理莫德罗首次访问联邦德国。3月18日,民主德国人民议会实行自由选举,德梅齐埃任总理后,两德统一的步伐大大加快。5月18日,两德在波恩签署关于建立货币、经济和社会联盟的国家条约。8月31日,双方又在柏林签署两德统一条约。9月24日,民主德国国家人民军正式退出华约组织。10月3日民主德国正式加入联邦德国。民主德国的宪法、人民议院、政府自动取消,原14个专区为适应联邦德国建制改为5个州,并入了联邦德国,分裂40多年的两个德国重新统一。

三 : 集成显卡和独立显卡的区别?

[独立显卡]集成显卡和独立显卡的区别?——简介
集成显卡和独立显卡的区别
[独立显卡]集成显卡和独立显卡的区别?——详细知识

[独立显卡]集成显卡和独立显卡的区别? 一
独立显卡简称独显,是指成独立的板卡存在,是要插在主板的相应接口上的显卡。独立显卡不用去占用体系内存,具有独自的显存,并且技术上领先于集成显卡,可以供给更好的显现作用和运转能力。而独立显卡也分为两种:内置独立显卡和外置显卡




[独立显卡]集成显卡和独立显卡的区别? 二
集成显卡是指芯片组集成了显现芯片,运用这种芯片组的主板就可以不需求独立显卡完成普通的显现功用,以满足普通的家庭娱乐和商业运用,节约用户买显卡的开支。这样的主板也通常被称之为整合型主板,集成了显卡的芯片组也常常叫做整合型芯片。


[独立显卡]集成显卡和独立显卡的区别? 三
集成类的显卡通常本身是不带显存的,使用装有集成显卡的主板会把一部分内存拿来当做显存使用,具体占用多少内存一般是系统根据需要自动动态调整的。从这点能够看出来,当你用集成显卡运行占用大显存程序的时候,对电脑的整个系统影响会比较大的,此外体系内存的频率一般比独立显卡的显存低许多,因而集成显卡的性能和功用比独立显卡要差一些。



[独立显卡]集成显卡和独立显卡的区别? 四
双显卡就是通过桥接器桥接两块显卡(集成—独立、独立—独立),协同处置图画数据的工作方式。在市面上nvidia公司生产的显卡将这种工作方式叫做SLI,而AMD将这种工作方式叫做CrossFire。要完成双显卡必须有主板的支持。理论上这种工作方式能比原来提升两倍的图像处理能力,但功耗与本钱也很高,常见于发烧DIYer拼装的电脑。

[独立显卡]集成显卡和独立显卡的区别? 五
双显卡技术能让图形处理能力提升一倍,但是在实际的应用中,除了极少数的测试之外,在实际游戏中图形性能只能提高30%~70%之间。在某些情况下甚至没有性能的提升,并且当前能良好的支持SLI的游戏还不太多。当然,在随着驱动顺序的完善,当前存在的这些问题应该能得到逐渐解决的。


[独立显卡]集成显卡和独立显卡的区别? 六
?Windows 7系统已将掌握了独立显卡与核心显卡之间的智能切换,MAC的Lion也已经支持了,但Linux由于分支较多,并且双显卡切换是需要系统内核支持的。如果想要完美得系统内核支持,最好是使用3.0以上的内核,再加上完美的配置才行的,Linux下双显卡的配置不是很方便的,只能使用命令来进行配置。

四 : 独立显卡和集成显卡的区分

显示接口卡(Video card,Graphics card),又叫为显示适配器(Videoadapter),台湾与香港简称为显卡,是个人电脑最基本组成部分之一。显卡的用途是将计算机系统所需要的显示信息进行转换驱动显示器,并向显示器提供行扫描信号,控制显示器的正确显示,是连接显示器和个人电脑主板的重要元件,是“人机对话”的重要设备之一。显卡作为电脑主机里的1个重要组成部分,承担输出显示图形的任务,对于喜欢玩游戏和从事专业图形设计的人来说显卡非常重要。目前民用显卡图形芯片供应商主要包括AMD(ATi)和Nvidia两家。
  【工作原理】数据 (data) 一旦离开CPU,必须通过 4 个步骤,最后才会到达显示屏:
  1、从总线 (bus) 进入GPU (图形处理器)-将 CPU 送来的数据送到GPU(图形处理器)里面进行处理。
  2、从 video chipset(显卡芯片组) 进入 video RAM(显存)-将芯片处理完的数据送到显存。
  3、从显存进入 Digital Analog Converter (= RAM DAC),由显示显存读取出数据再送到 RAMDAC 进 行数据转换的工作(数码信号转模拟信号)。
  4、从 DAC 进入显示器 (Monitor)-将转换完的模拟信号送到显示屏。
  显示效能是系统效能的一部份,其效能的高低由以上4步所决定,它与显示卡的效能 (video performance)不太一样,如要严格区分,显示卡的效能应该受中间2步所决定,因为这2步的资料传输都是在显示卡的内部。第1步是由CPU(运算器和控制器一起组成了计算机的核心,成为微处理器或中央处理器,即CPU)进入到显示卡里面,最后1步是由显示卡直接送资料到显示屏上。
【基本结构】
  1)GPU(类似于主板的CPU)
  全称是Graphic Processing Unit,中文翻译为"图形处理器"。NVIDIA公司在发布GeForce256图形处理芯片时首先提出的概念。GPU使显卡减少了对CPU的依赖,并进行部分原本CPU的工作,尤其是在3D图形处理时。GPU所采用的核心技术有硬件T&L(几何转换和光照处理)、立方环境材质贴图和顶点混合、纹理压缩和凹凸映射贴图、双重纹理四像素256位渲染引擎等,而硬件T&L技术可以说是GPU的标志。GPU的生产主要由nVidia与ATI两家厂商生产。
  2)显存(类似于主板的内存)
  显示内存的简称。顾名思义,其主要功能就是暂时将储存显示芯片要处理的数据和处理完毕的数据。图形核心的性能愈强,需要的显存也就越多。以前的显存主要是SDR的,容量也不大。而现在市面上基本采用的都是DDR3规格的,在某些高端卡上更是采用了性能更为出色的DDR4或DDR5代内存。显存主要由传统的内存制造商提供,比如三星、现代、Kingston等。
  3)显卡bios(类似于主板的bios)
  显卡BIOS主要用于存放显示芯片与驱动程序之间的控制程序,另外还存有显示卡的型号、规格、生产厂家及出厂时间等信息。打开计算机时,通过显示BIOS内的一段控制程序,将这些信息反馈到屏幕上。早期显示BIOS 是固化在ROM中的,不可以修改,而现在的多数显示卡则采用了大容量的EPROM,即所谓的FlashBIOS,可以通过专用的程序进行改写或升级。
  4)显卡PCB板(类似于主板的PCB板)
  就是显卡的电路板,它把显卡上的其它部件连接起来。功能类似主板。
  5)其它
  比如GPU风扇等等。
【产品分类】
  1)AGP接口
  Accelerate Graphical Port是Intel公司开发的1个视频接口技术标准,是为了解决PCI总线的低带宽而开发的接口技术。它通过将图形卡与系统主内存连接起来,在CPU和图形处理器之间直接开辟了更快的总线。其发展经历了AGP1.0(AGP1X/2X)、AGP2.0(AGP4X)、AGP3.0(AGP8X)。最新的AGP8X其理论带宽为2.1Gbit/秒。目前已经被PCI-E接口基本取代(2006年大部分厂家已经停止生产)。
  2)PCI Express接口
  PCIExpress是新一代的总线接口,而采用此类接口的显卡产品,已经在2004年正式面世。早在2001年的春季“英特尔开发者论坛”上,英特尔公司就提出了要用新一代的技术取代PCI总线和多种芯片的内部连接,并称之为第三代I/O总线技术。随后在2001年底,包括Intel、AMD、DELL、IBM在内的20多家业界主导公司开始起草新技术的规范,并在2002年完成,对其正式命名为PCIExpress。
  3)现在最热的双卡技术
  SLI和CrossFire分别是Nvidia和ATI两家的双卡或多卡互连工作组模式.其本质是差不多的.只是叫法不同
  SLI Scan Line Interlace(扫描线交错)技术是3dfx公司应用于Voodoo上的技术,它通过把2块Voodoo卡用SLI线物理连接起来,工作之际一块Voodoo卡负责渲染屏幕奇数行扫描,另一块负责渲染偶数行扫描,从而达到将两块显卡“连接”在一起获得“双倍”的性能。SLI中文名速力,目前的SLI工作模式与早期Voodoo有所不同,现在改为屏幕分区渲染。
  CrossFire,中文名交叉火力,简称交火,是ATI的1款多重GPU技术,可让多张显示卡同时在一部电脑上并排使用,增加运算效能,与NVIDIA的SLI技术竞争。CrossFire技术于2005年6月1日,在ComputexTaipei 2005正式发布,比SLI迟一年。从首度公开至今,CrossFire经过了一次修订。
  如何组建:
  组建SLI和Crossfire,需要几个方面。
  1、需要两个以上的显卡,必须是PCI-E,不要求必须是相同核心,混合SLI可以用于不同核心显卡。
  2、需要主板支持,目前SLI授权已开放,支持SLI的主板有NV自家的主板和Intel的主板,如570 SLI(AMD)、680iSLI(Intel)。Crossfire开放授权,目前Intel平台较高芯片组,945、965、P35、P31、P43、P45、X38、X48.。AMD自家的770X790X 790FX 790GX均可进行crossfire。
  3、系统支持。
  4、驱动支持。
  4)集成显卡与独立显卡的并行工作
  无论是Nvidia还是ATi,目前均可用自己最新的集成显卡和独立显卡进行混合并行使用,但是由于驱动原因,目前Nvidia的MCP78只能和低端的8400GS,8500GT混合SLI,ATi的780G,790GX只能和低端的2400PRO/XT,3450进行混合Crossfire。
  5)不同型号显卡之间进行Crossfire
  ATI目前的部分新产品支持不同型号显卡之间进行交火, 比如HD3870X2 与HD3870组建交火系统,或者HD4870与HD4850之间组建交火系统。这种交火需要硬件以及驱动的支持,并不是所有型号之间都可以。目前的HD4870与HD4850交火已取得不错的成绩。


[编辑本段]独立显卡和集成显卡的区分
  集成显卡是将显示芯片、显存及其相关电路都做在主板上,与主板融为一体;集成显卡的显示芯片有单独的,但现在大部分都集成在主板的北桥芯片中;一些主板集成的显卡也在主板上单独安装了显存,但其容量较小,集成显卡的显示效果与处理性能相对较弱,不能对显卡进行硬件升级,但可以通过CMOS调节频率或刷入新BIOS文件实现软件升级来挖掘显示芯片的潜能;集成显卡的优点是功耗低、发热量小、部分集成显卡的性能已经可以媲美入门级的独立显卡,所以不用花费额外的资金购买显卡。
  独立显卡是指将显示芯片、显存及其相关电路单独做在一块电路板上,自成一体而作为一块独立的板卡存在,它需占用主板的扩展插槽(ISA、PCI、AGP或PCI-E。独立显卡单独安装有显存,一般不占用系统内存,在技术上也较集成显卡先进得多,比集成显卡能够得到更好的显示效果和性能,容易进行显卡的硬件升级;其缺点是系统功耗有所加大,发热量也较大,需额外花费购买显卡的资金。独立显卡成独立的板卡存在,需要插在主板的相应接口上,独立显卡具备单独的显存,不占用系统内存,而且技术上领先于集成显卡,能够提供更好的显示效果和运行性能。

【软件配置】
  1)DirectX
  DirectX并不是1个单纯的图形API,它是由微软公司开发的用途广泛的API,它包含有DirectGraphics(Direct 3D Direct Draw)、Direct Input、Direct Play、DirectSound、Direct Show、Direct Setup、Direct MediaObjects等多个组件,它提供了一整套的多媒体接口方案。只是其在3D图形方面的优秀表现,让它的其它方面显得暗淡无光。DirectX开发之初是为了弥补Windows3.1系统对图形、声音处理能力的不足,而今已发展成为对整个多媒体系统的各个方面都有决定性影响的接口。最新版本为DirectX10。
  Direct3D(简称D3D)
  DirectX是微软开发并发布的多媒体开发软件包,其中有一部分叫做Direct3D。大概因为是微软的手笔,有的人就说它将成为3D图形的标准。
  2)OpenGL
  OpenGL是OpenGraphicsLib的缩写,是一套三维图形处理库,也是该领域的工业标准。计算机三维图形是指将用数据描述的三维空间通过计算转换成二维图像并显示或打印出来的技术。OpenGL就是支持这种转换的程序库,它源于SGI公司为其图形工作站开发的IRISGL,在跨平台移植过程中发展成为OpenGL。SGI在1992年7月发布1.0版,后成为工业标准,由成立于1992年的独立财团OpenGLArchitecture Review Board(ARB)控制。SGI等ARB成员以投票方式产生标准,并制成规范文档(Specification)公布,各软硬件厂商据此开发自己系统上的实现。只有通过了ARB规范全部测试的实现才能称为OpenGL。1995年12月ARB批准了1.1版本,最新版规范是在SIGGRAPH2007公布的OpenGL3.0。
  NvidiaLogo【主要参数】1.显示芯片(型号、版本级别、开发代号、制造工艺、核心频率)
  2.显存(类型、位宽、容量、封装类型、速度、频率)
  3.技术(象素渲染管线、顶点着色引擎数、3DAPI、RAMDAC频率及支持MAX分辨率)
  4.PCB板(PCB层数、显卡接口、输出接口、散热装置)
  1)显示芯片
  显示芯片:
  又叫图型处理器 -GPU,它在显卡中的作用,就如同CPU在电脑中的作用一样。更直接的比喻就是大脑在人身体里的作用。
  先简要介绍一下常见的生产显示芯片的厂商:Intel、ATI、nVidia、VIA(S3)、SIS、Matrox、3DLabs。
  Intel、VIA(S3)、SIS 主要生产集成芯片;
  ATI、nVidia 以独立芯片为主,是目前市场上的主流。
  Matrox、3D Labs 则主要面向专业图形市场。
  由于ATI和nVidia基本占据了主流显卡市场,下面主要将主要针对这两家公司的产品做介绍。
  型号:
  ATi公司的主要品牌 Radeon(镭龙) 系列,其型号由早其的 Radeon Xpress 200 到 Radeon(X300、X550、X600、X700、X800、X850) 到近期的
  Radeon (4670,4850,4870,4850X2,4870X2)性能依次由低到高。
  nVIDIA公司的主要品牌 GeForce(精视) 系列,其型号由早其的 GeForce 256、GeForce2(100/200/400)、GeForce3(200/500)、GeForce4
  (420/440/460/4000/4200/4400/4600/4800) 到 GeForceFX(5200/5500/5600/5700/5800/5900/5950)、GeForce
  (6100/6150/6200/6400/6500/6600/6800/) 、GeForce(8400/8500/8600/8700/8800) 再到近期的 GeForce (9800GTX/9800GX2/GTX260/GTX260/GTX280/GTX275/GTX285/GTX295)由低到高。
  版本级别:
  除了上述标准版本之外,还有些特殊版,特殊版一般会在标准版的型号后面加个后缀,常见的有:
  ATi:
  SE (Simplify Edition 简化版)通常只有64bit内存界面,或者是像素流水线数量减少。
  Pro (Professional Edition 专业版)高频版,一般比标版在管线数量/顶点数量还有频率这些方面都要稍微高一点。
  XT (eXTreme 高端版)是ATi系列中高端的,而nVIDIA用作低端型号。
  XT PE (eXTreme Premium Edition XT白金版)高端的型号。
  XL (eXtreme Limited高端系列中的较低端型号)ATI最新推出的R430中的高频版
  XTX (XT eXtreme 高端版) X1000系列发布之后的新的命名规则。
  CE (Crossfire Edition 交叉火力版) 交叉火力。
  VIVO (VIDEO IN and VIDEO OUT)指显卡同时具备视频输入与视频捕捉2大功能。
  HM (Hyper Memory)可以占用内存的显卡
  nVIDIA:
  ZT 在XT基础上再次降频以降低价格。
  XT 降频版,而在ATi中表示最高端。
  LE (Lower Edition 低端版) 和XT基本一样,ATi也用过。
  SE 和LE相似基本是GS的简化版最低端的几个型号
  MX 平价版,大众类。
  GS 普通版或GT的简化版。
  GE 也是简化版不过略微强于GS一点点 /影驰显卡用来表示"骨灰玩家版"的东东
  GT 常见的游戏芯片。比GS高1个档次 因为GT没有缩减管线和顶点单元。
  GTS介于GT和GTX之间的版本 GT的加强版
  GTX (GT eXtreme)现在代表着最强的版本 简化后成为成为GT


  Ultra 在GF8系列之前代表着最高端,但9系列最高端的命名就改为GTX 。
  GT2 eXtreme 双GPU显卡。
  TI (Titanium 钛)以前的用法 一般就是代表了nVidia的高端版本。
  Go 用于移动平台。
  TC (Turbo Cache)可以占用内存的显卡
  GX2(GT eXtreme 2)指两块显卡以SLI并组的方式整合为一块显卡 不同于SLI的是只有1个接口 如9800GX27950GX2
  自G100系列之后,NVIDIA重新命名显卡后缀版本,使产品线更加整齐
  GTX 高端/性能级显卡 GTX295 GTX275 GTX285 GTX280 GTX260
  GT 代表主流产品线 GT120 GT130 GT140 GTS250(9500GT 9600GT 9800GT9800GTX )
  G 低端入门产品 G100 G110 (9300GS 9400GT )
  
  开发代号:
  曾经的ATILogo所谓开发代号就是显示芯片制造商为了便于显示芯片在设计、生产、销售方面的管理和驱动架构的统一而对1个系列的显示芯片给出的相应的基本的代号。开发代号作用是降低显示芯片制造商的成本、丰富产品线以及实现驱动程序的统一。一般来说,显示芯片制造商可以利用1个基本开发代号再通过控制渲染管线数量、顶点着色单元数量、显存类型、显存位宽、核心和显存频率、所支持的技术特性等方面来衍生出一系列的显示芯片来满足不同的性能、价格、市场等不同的定位,还可以把制造过程中具有部分瑕疵的高端显示芯片产品通过屏蔽管线等方法处理成为完全合格的相应低端的显示芯片产品出售,从而大幅度降低设计和制造的难度和成本,丰富自己的产品线。同1种开发代号的显示芯片可以使用相同的驱动程序,这为显示芯片制造商编写驱动程序以及消费者使用显卡都提供了方便。
  同1种开发代号的显示芯片的渲染架构以及所支持的技术特性是基本上相同的,而且所采用的制程也相同,所以开发代号是判断显卡性能和档次的重要参数。同1类型号的不同版本可以是1个代号,例如:GeForce(X700、X700 Pro、X700 XT) 代号都是 RV410;而Radeon (X1900、X1900XT、X1900XTX)代号都是 R580 等,但也有其他的情况,如:GeForce (7300 LE、7300 GS) 代号是 G72 ;而 GeForce(7300 GT、7600 GS、7600 GT) 代号都是 G73 等。
  制造工艺:
  制造工艺指得是在生产GPU过程中,要进行加工各种电路和电子元件,制造导线连接各个元器件。通常其生产的精度以um(微米)来表示,未来有向nm(纳米)发展的趋势(1mm=1000um1um=1000nm),精度越高,生产工艺越先进。在同样的材料中可以制造更多的电子元件,连接线也越细,提高芯片的集成度,芯片的功耗也越小。
  制造工艺的微米是指IC(integratedcircuit集成电路)内电路与电路之间的距离。制造工艺的趋势是向密集度愈高的方向发展。密度愈高的IC电路设计,意味着在同样大小面积的IC中,可以拥有密度更高、功能更复杂的电路设计。微电子技术的发展与进步,主要是靠工艺技术的不断改进,使得器件的特征尺寸不断缩小,从而集成度不断提高,功耗降低,器件性能得到提高。芯片制造工艺在1995年以后,从0.5微米、0.35微米、0.25微米、0.18微米、0.15微米、0.13微米,再到目前主流的90 纳米(0.09微米) 、65 纳米、55nm等。
  核心频率:
  显卡的核心频率是指显示核心的工作频率,其工作频率在一定程度上可以反映出显示核心的性能,但显卡的性能是由核心频率、显存频率、显存位宽、像素管线显存容量、像素填充率等等多方面的情况所决定的,因此在显示核心不同的情况下,核心频率高并不代表此显卡性能强劲。比如9600PRO的核心频率达到了400MHz,要比9800PRO的380MHz高,但在性能上9800PRO绝对要强于9600PRO。在同样级别的芯片中,核心频率高的则性能要强一些,提高核心频率就是显卡超频的方法之一。显示芯片主流的只有ATI和NVIDIA两家,两家都提供显示核心给第三方的厂商,在同样的显示核心下,部分厂商会适当提高其产品的显示核心频率,使其工作在高于显示核心固定的频率上以达到更高的性能。
  2)显存
  类型:
  显卡上采用的显存类型主要有SDR DDR SDRAM,DDR SGRAM、 DDR2 、DDR3 、DDR4、DDR5。
  DDR SDRAM 是Double Data Rate SDRAM的缩写(双倍数据速率),它能提供较高的工作频率,带来优异的数据处理性能。
  DDR SGRAM是显卡厂商特别针对绘图者需求,为了加强图形的存取处理以及绘图控制效率,从同步动态随机存取内存(SDRAM)所改良而得的产品。SGRAM允许以方块(Blocks)为单位个别修改或者存取内存中的资料,它能够与中央处理器(CPU)同步工作,可以减少内存读取次数,增加绘图控制器的效率,尽管它稳定性不错,而且性能表现也很好,但是它的超频性能很差。
  目前市场上的主流是DDR2DDR3 。(ATi则有部分显卡是GDDR4,GDDR5)
  位宽:
  显存位宽是显存在1个时钟周期内所能传送数据的位数,位数越大则瞬间所能传输的数据量越大,这是显存的重要参数之一。目前市场上的显存位宽有64位、128位、256位和512位几种,人们习惯上叫的64位显卡、128位显卡和256位显卡就是指其相应的显存位宽。显存位宽越高,性能越好价格也就越高,因此512位宽的显存更多应用于高端显卡,而主流显卡基本都采用128和256位显存。
  显存带宽=显存频率X显存位宽/8,在显存频率相当的情况下,显存位宽将决定显存带宽的大小。例如:同样显存频率为500MHz的128位和256位显存,那么它俩的显存带宽将分别为:128位=500MHz*128∕8=8GB/s,而256位=500MHz*256∕8=16GB/s,是128位的2倍,可见显存位宽在显存数据中的重要性。显卡的显存是由一块块的显存芯片构成的,显存总位宽同样也是由显存颗粒的位宽组成。显存位宽=显存颗粒位宽×显存颗粒数。显存颗粒上都带有相关厂家的内存编号,可以去网上查找其编号,就能了解其位宽,再乘以显存颗粒数,就能得到显卡的位宽。
  容量:
  这个就比较好理解了,容量越大,存的东西就越多,当然也就越好。
  目前主流的显存容量128MB、256MB、512MB,1024MB等。
  封装类型
  显存封装形式主要有:
  TSOP (Thin Small Out-Line Package)薄型小尺寸封装
  QFP (Quad Flat Package) 小型方块平面封装


  MicroBGA (Micro Ball Grid Array) 微型球闸阵列封装,又叫FBGA(Fine-pitch BallGrid Array)
  目前的主流显卡基本上是用TSOP和MBGA封装,其中又以TSOP封装居多.
  速度:
  显存速度一般以ns(纳秒)为单位。常见的显存速度有7ns、6ns、5.5ns、5ns、4ns,3.6ns、2.8ns、2.2ns、1.1ns等,越小表示速度越快\越好。
  显存的理论工作频率计算公式是:额定工作频率(MHz)=1000/显存速度×n得到(n因显存类型不同而不同,如果是SDRAM显存,则n=1;DDR显存则n=2;DDRII显存则n=4)。
  频率:
  显存频率一定程度上反应着该显存的速度,以MHz(兆赫兹)为单位。
  显存频率随着显存的类型、性能的不同而不同:
  SDRAM显存一般都工作在较低的频率上,一般就是133MHz和166MHz,此种频率早已无法满足现在显卡的需求。
  DDRSDRAM显存则能提供较高的显存频率,因此是目前采用最为广泛的显存类型,目前无论中、低端显卡,还是高端显卡大部分都采用DDRSDRAM,其所能提供的显存频率也差异很大,主要有400MHz、500MHz、600MHz、650MHz等,高端产品中还有800MHz或900MHz,乃至更高。
  显存频率与显存时钟周期是相关的,二者成倒数关系,也就是显存频率=1/显存时钟周期。如果是SDRAM显存,其时钟周期为6ns,那么它的显存频率就为1/6ns=166MHz;而对于DDR SDRAM,其时钟周期为6ns,那么它的显存频率就为1/6ns=166 MHz,但要了解的是这是DDRSDRAM的实际频率,而不是我们平时所说的DDR显存频率。因为DDR在时钟上升期和下降期都进行数据传输,其1个周期传输两次数据,相当于SDRAM频率的二倍。习惯上称呼的DDR频率是其等效频率,是在其实际工作频率上乘以2,就得到了等效频率。因此6ns的DDR显存,其显存频率为1/6ns*2=333MHz。但要明白的是显卡制造时,厂商设定了显存实际工作频率,而实际工作频率不一定等于显存最大频率。此类情况现在较为常见,如显存最大能工作在650MHz,而制造时显卡工作频率被设定为550MHz,此时显存就存在一定的超频空间。这也就是目前厂商惯用的方法,显卡以超频为卖点。
  3)技术
  象素渲染管线:
  渲染管线也称为渲染流水线,是显示芯片内部处理图形信号相互独立的的并行处理单元。
  在某种程度上可以把渲染管线比喻为工厂里面常见的各种生产流水线,工厂里的生产流水线是为了提高产品的生产能力和效率,而渲染管线则是提高显卡的工作能力和效率。渲染管线的数量一般是以 像素渲染流水线的数量×每管线的纹理单元数量来表示。渲染管线的数量是决定显示芯片性能和档次的最重要的参数之一,在相同的显卡核心频率下,更多的渲染管线也就意味着更大的像素填充率和纹理填充率,从显卡的渲染管线数量上可以大致判断出显卡的性能高低档次。但显卡性能并不仅仅只是取决于渲染管线的数量,同时还取决于显示核心架构、渲染管线的的执行效率、顶点着色单元的数量以及显卡的核心频率和显存频率等等方面。
  一般来说在相同的显示核心架构下,渲染管线越多也就意味着性能越高,但是在不同的显示核心架构下,渲染管线的数量多就并不意味着性能更好,例如4×2架构的GeForce2GTS其性能就不如2×2架构的GeForce4 MX440。
  顶点着色引擎数
  顶点着色引擎(VertexShader),也称为顶点遮蔽器,根据官方规格,顶点着色引擎是1种增加各式特效在3D场影中的处理单元,顶点着色引擎的可程式化特性允许开发者靠加载新的软件指令来调整各式的特效,每1个顶点将被各种的数据变素清楚地定义,至少包括每一顶点的x、y、z坐标,每一点顶点可能包函的数据有颜色、最初的径路、材质、光线特征等。顶点着色引擎数越多速度越快。
  3D API:
  API是Application Programming Interface的缩写,是应用程序接口的意思,而3DAPI则是指显卡与应用程序直接的接口。
  3DAPI能让编程人员所设计的3D软件只要调用其API内的程序,从而让API自动和硬件的驱动程序沟通,启动3D芯片内强大的3D图形处理功能,从而大幅度地提高了3D程序的设计效率。如果没有3DAPI,在开发程序时程序员必须要了解全部的显卡特性,才能编写出与显卡完全匹配的程序,发挥出全部的显卡性能。而有了3DAPI这个显卡与软件直接的接口,程序员只需要编写符合接口的程序代码,即可充分发挥显卡的性能,不必再去了解硬件的具体性能和参数,这样就大大简化了程序开发的效率。同样,显示芯片厂商根据标准来设计自己的硬件产品,以达到在API调用硬件资源时最优化,获得更好的性能。有了3DAPI,便可实现不同厂家的硬件、软件最大范围兼容。比如在最能体现3DAPI的游戏方面,游戏设计人员设计时,不必去考虑具体某款显卡的特性,而只是按照3DAPI的接口标准来开发游戏,当游戏运行时则直接通过3D API来调用显卡的硬件资源。
  目前个人电脑中主要应用的3D API有:DirectX和OpenGL。
  RAMDAC频率和支持最大分辨率:
  RAMDAC是Random Access Memory Digital/AnalogConvertor的缩写,即随机存取内存数字~模拟转换器。
  RAMDAC作用是将显存中的数字信号转换为显示器能够显示出来的模拟信号,其转换速率以MHz表示。计算机中处理数据的过程其实就是将事物数字化的过程,所有的事物将被处理成0和12个数,而后不断进行累加计算。图形加速卡也是靠这些0和1对每1个象素进行颜色、深度、亮度等各种处理。显卡生成的都是信号都是以数字来表示的,但是所有的CRT显示器都是以模拟方式进行工作的,数字信号无法被识别,这就必须有相应的设备将数字信号转换为模拟信号。而RAMDAC就是显卡中将数字信号转换为模拟信号的设备。RAMDAC的转换速率以MHz表示,它决定了刷新频率的高低(与显示器的“带宽”意义近似)。其工作速度越高,频带越宽,高分辨率时的画面质量越好.该数值决定了在足够的显存下,显卡最高支持的分辨率和刷新率。如果要在1024×768的分辨率下达到85Hz的分辨率,RAMDAC的速率至少是1024×768×85Hz×1.344(折算系数)≈90MHz。目前主流的显卡RAMDAC都能达到350MHz和400MHz,已足以满足和超过目前大多数显示器所能提供的分辨率和刷新率。


  4)PCB板
  PCB是Printed CircuitBlock的缩写,也称为印制电路板。就是显卡的躯体(绿色的板子),显卡一切元器件都是放在PCB板上的,因此PCB板的好坏,直接决定着显卡电气性能的好坏和稳定。
  层数
  目前的PCB板一般都是采用4层、6层、或8层,理论上来说层数多的比少的好,但前提是在设计合理的基础上。
  PCB的各个层一般可分为信号层(Signal),电源层(Power)或是地线层(Ground)。每一层PCB版上的电路是相互独立的。在4层PCB的主板中,信号层一般分布在PCB的最上面一层和最下面一层,而中间两层则是电源与地线层。相对来说6层PCB就复杂了,其信号层一般分布在1、3、5层,而电源层则有2层。至于判断PCB的优劣,主要是观察其印刷电路部分是否清晰明了,PCB是否平整无变形等等。
  显卡接口:
  常见的有PCI、AGP 2X/4X/8X ,最新的是PCI-Express X16 接口,是目前的主流。
  现在最常见的输出接口主要有:
  VGA (Video Graphics Array)视频图形阵列接口,作用是将转换好的模拟信号输出到CRT或者LCD显示器中
  DVI (Digital Visual Interface)数字视频接口接口,视频信号无需转换,信号无衰减或失真,未来VGA接口的替代者。
  S-Video (Separate Video)S端子,也叫二分量视频接口,一般采用五线接头,它是用来将亮度和色度分离输出的设备,主要功能是为了克服视频节目复合输出时的亮度跟色度的互相干扰。
  HDMI(high Definition MultimediaInterface)高清晰多媒体接口,把声音和图像集成在1个接口上
  散热装置:
  散热装置的好坏也能影响到显卡的运行稳定性,常见的散热装置有:
  被动散热:既只安装了铝合金或铜等金属的散热片。
  风冷散热:在散热片上加装了风扇,目前多数采用这种方法。
  水冷散热:通过热管液体把GPU和水泵相连,一般在高端顶级显卡中采用。

【常见品牌】
  目前显卡业的竞争也是日趋激烈。各类品牌名目繁多,以下是一些常见的牌子,仅供参考:
  蓝宝石 、华硕、迪兰恒进、丽台、XFX讯景、技嘉、映众 、微星、艾尔莎、富士康、捷波、磐正 、映泰 、耕升、旌宇、影驰、铭瑄、翔升、盈通 、祺祥、七彩虹、斯巴达克、索泰、双敏、精英、昂达
  其中蓝宝石、华硕是在自主研发方面做的不错的品牌,蓝宝只做A卡,华硕的A卡和N卡都是核心合作伙伴,相对于七彩虹这类的通路品牌,拥有自主研发的厂商在做工和特色技术上会更出色一些,而通路显卡的价格则要便宜一些,每个厂商都有自己的品牌特色,像华硕的“为游戏而生”,七彩虹的“游戏显卡专家”都是大家耳熟能详的。

【发展简史】1.CGA显卡
  民用显卡的起源可以追溯到上个世纪的八十年代了。在1981年, IBM推出了个人电脑时,它提供了2种显卡,1种是"单色显卡(简称MDA), 1种是 "彩色绘图卡" (简称 CGA), 从名字上即可看出,MDA是与单色显示器配合使用的,它可以显示80行x25列的文数字, CGA则可以用在RGB的显示屏上,它可以绘制的图形和文数字资料。在当时来讲,计算机的用途主要是文字数据处理,虽然MDA分辨率为宽752点,高504点,不足以满足多大的显示要求,不过对于文字数据处理还是绰绰有馀的了。而CGA就具有彩色和图形能力,能胜任一般的显示图形数据的需要了,不过其分辨率只有640x350,自然不能与现在的彩色显示同日而语。
  2.MGA/MCGA显卡
  1982年,IBM又推出了MGA(Monochrome Graphic Adapter), 又叫Hercules Card(大力士卡), 除了能显示图形外,还保留了原来 MDA的功能。当年不少游戏都需要这款卡才能显示动画效果。而当时风行市场的还有Genoa 公司做的EGA(Enhanced GraphicsAdapter),即加强型绘图卡,可以模拟MDA和CGA,而且可以在单色屏幕上一点一点画成的图形。EGA分辨率为640x350,可以产生16色的图形和文字。不过这些显[www.61k.com)卡都是采用数字方式的,直到MCGA(Multi-ColorGraphics Array)的出现,才揭开了采用模拟方式的显卡的序幕。MCGA是整合在 PS/2 Model25和30上的影像系统。它采用了Analog RGA影像信号, 分辨率可高达640x480,数位RGB和类比RGB不同的地方就像是ON-OFF式切换和微调式切换之间的差别。用类比RGB讯号的显示屏,会将每1个讯号的电压值转换成符合色彩明暗的范围。只有类比显示屏可以和MCGA一起使用,才可以提供最多的25六种颜色,另外IBM尚提供了1个类比单色显示屏, 在此显示屏上可以显示出6四种明暗度。
  3.VGA接口显卡
  VGA(Video Graphic Array)即显示绘图阵列,它IBM是在其 PS/2 的Model 50,60和80内建的影像系统。它的数字模式可以达到720x400色, 绘图模式则可以达到640x480x16色,以及320x200x256色,这是显卡首次可以同时最高显示25六种色彩。而这些模式更成为其後所有显卡的共同标准。VGA显卡的盛行把电脑带进了2D显卡显示的辉煌时代。在以後一段时期里,许多VGA显卡设计的公司不断推陈出新,追求更高的分辨率和位色。与此同时,IBM 推出了8514/A的Monitor显示屏规格, 主要用来支持1024x768的分辨率。
  在2D时代向3D时代推进的过程中,有1款不能忽略的显卡就是Trident8900/9000显卡,它第一次使显卡成为1个独立的配件出现在电脑里,而不再是集成的一块芯片。而後其推出的Trident9685更是第一代3D显卡的代表。不过真正称得上开启3D显卡大门的却应该是GLINT300SX,虽然其3D功能极其简单,但却具有里程碑的意义。
  4. 3D AGP接口显卡时代
  3DFX的光荣
  时间推移到1995年,对于显卡来说,绝对是里程碑的一年,3D图形加速卡正式走入玩家的视野。那个时候游戏刚刚步入3D时代,大量的3D游戏的出现,也迫使显卡发展到真正的3D加速卡。而这一年也成就了一家公司,不用说大家也知道,没错,就是3Dfx。1995年,3Dfx还是一家小公司,不过作为一家老资格的3D技术公司,他推出了业界的第一块真正意义的3D图形加速卡:Voodoo。在当时最为流行的游戏摩托英豪里,Voodoo在速度以及色彩方面的表现都让喜欢游戏的用户为之疯狂,不少游戏狂热份子都有过拿一千多块大洋到电脑城买上一块杂牌的Voodoo显卡的经历。3Dfx的专利技术Glide引擎接口一度称霸了整个3D世界,直至D3D和OpenGL的出现才改变了这种局面。Voodoo标配为4Mb显存,能够提供在640×480分辨率下3D显示速度和最华丽的画面,当然,Voodoo也有硬伤,它只是一块具有3D加速功能的子卡,使用时需搭配一块具有2D功能的显卡,相信不少老EDO资格的玩家都还记得S3 765 Voodoo这个为人津津乐道的黄金组合。讲到S3765,就不得不提到昔日王者S3显卡了。
  S3 765显卡是当时兼容机的标准配置,最高支持2MBEDO显存,能够实现高分辨率显示,这在当时属于高端显卡的功效,这一芯片真正将SVGA发扬光大。能够支持1024×768的分辨率,并且在低分辨率下支持最高32Bit真彩色,而且性价比也较强。因此,S3765实际上为S3显卡带来了第一次的辉煌。
  而後在96年又推出了S3 Virge,它是一块融合了3D加速的显卡,支援DirectX,并包含的许多先进的3D加速功能,如Z-buffering、Doublingbuffering、Shading、Atmosphericeffect、Lighting,实际成为3D显卡的开路先锋,成就了S3显卡的第二次辉煌,可惜後来在3Dfx的追赶下,S3的Virge系列没有再继辉煌,被市场最终抛弃。
  此後,为了修复Voodoo没有2D显示这个硬伤,3Dfx继而推出了VoodooRush,在其中加入了Z-Buffer技术,可惜相对于Voodoo,VoodooRush的3D性能却没有任何提升,更可怕的是带来不少兼容性的问题,而且价格居高不下的因素也制约了VoodooRush显卡的推广。
  当然,当时的3D图形加速卡市场也不是3Dfx一手遮天,高高在上的价格给其他厂商留下了不少生存空间,像勘称当时性价比之王的Trident9750/9850,以及提供提供了Mpeg-II硬件解码技术的SIS6326,还有在显卡发展史上第一次出场的nVidia推出的Riva128/128zx,都得到不少玩家的宠爱,这也促进了显卡技术的发展和市场的成熟。1997年是3D显卡初露头脚的一年,而1998年则是3D显卡如雨後春笋激烈竞争的一年。九八年的3D游戏市场风起去涌,大量更加精美的3D游戏集体上市,从而让用户和厂商都期待出现更快更强的显卡。
  在Voodoo带来的巨大荣誉和耀眼的光环下,3Dfx以高屋建瓶之势推出了又一划时代的产品:Voodoo2。Voodoo2自带8Mb/12MbEDO显存,PCI接口,卡上有双芯片,可以做到单周期多纹理运算。当然Voodoo2也有缺点,它的卡身很长,并且芯片发热量非常大,也成为1个烦恼,而且Voodoo2依然作为一块3D加速子卡,需要一块2D显卡的支持。但是不可否认,Voodoo2的推出已经使得3D加速又到达了1个新的里程碑,凭借Voodoo2的效果、画面和速度,征服了不少当时盛行一时的3D游戏,比如Fifa98,NBA98,Quake2等等。也许不少用户还不知道,今年最为流行的SLI技术也是当时Voodoo2的1个新技术,Voodoo2第一次支持双显卡技术,让两块Voodoo2并联协同工作获得双倍的性能。
  98年虽然是Voodoo两大放异彩的一年,但其他厂商也有一些经典之作。Matrox MGAG200在继承了自己超一流的2D水准以外,3D方面有了革命性的提高,不但可以提供和Voodoo2差不多的处理速度和特技效果,另外还支持DVD硬解码和视频输出,并且独一无二的首创了128位独立双重总线技术,大大提高了性能,配合当时相当走红的AGP总线技术,G200也赢得了不少用户的喜爱。
  Intel的I740是搭配Intel当时的440BX芯片组推出的,它支持的AGP2X技术,标配8Mb显存,可惜I740的性能并不好,2D性能只能和S3Virge看齐,而3D方面也只有Riva128的水平,不过价格方面就有明显优势,让它在低端市场站住了脚。
  RivaTNT是nVidia推出的意在阻击Voodoo2的产品,它标配16Mb的大显存,完全支持AGP技术,首次支持的32位色彩渲染、还有快于Voodoo2的D3D性能和低于Voodoo2的价格,让其成为不少玩家的新宠。而一直在苹果世界闯荡的ATI也出品了1款名为RagePro的显卡,速度比Voodoo稍快。
  而98年的1个悲剧英雄是来自王者S3的野人系列Savage系列显卡,Savage3D采用128位总线结构及单周期三线性多重贴图技术,最大像素填充率达到了125MPixels/s,三角形生成速率也达到了每秒500万个。通过S3新设计的AGP引擎和S3TC纹理压缩技术,支持Direct3D与OpenGL,最大显存容量可达8MBSGRAM或SDRAM,支持AGP4×规范。同时也支持当时流行的如反射和散射、Alpha混合、多重纹理、衬底纹理、边缘抗锯齿、16/24位Z-buffering、Tri-linearFiltering(三线性过滤技术)、S3TC纹理压缩技术等技术。可惜就是受到驱动程序不兼容的严重影响,最终在99年时惨淡收场。
  2000年8月,Intel推出AGP3.0规范,工作电压降到0.8V,并增加了8X模式,这样它的数据传输带宽达到了2133MB/sec,数据传输能力相对于AGP4X成倍增长,能较好的满足当前显示设备的带宽需求。其发展已经经历了AGP 1×,AGP 2×,AGP 4×,AGP8×几个阶段。关于AGP,是当前已经淘汰的图形系统接口。
  5.PCI Express显卡接口
  2001年春季的IDF上Intel正式公布PCIExpress,是取代PCI总线的第三代I/O技术,也称为3GIO。该总线的规范由Intel支持的AWG(ArapahoeWorking Group)负责制定。2002 年4月17日,AWG正式宣布3GIO1.0规范草稿制定完毕,并移交PCI-SIG进行审核。开始之际大家都以为它会被命名为SerialPCI(受到串行ATA的影响),但最后却被正式命名为PCIExpress。2006年正式推出Spec2.0(2.0规范)。
  PCI Express总线技术的演进过程,实际上是计算系统I/O接口速率演进的过程。PCI总线是1种33MHz@32bit或者66MHz@64bit的并行总线,总线带宽为133MB/s到最大533MB/s,连接在PCI总线上的所有设备共享133MB/s~533MB/s带宽。这种总线用来应付声卡、10/100M网卡以及USB1.1等接口基本不成问题。随着计算机和通信技术的进1步发展,新一代的I/O接口大量涌现,比如千兆(GE)、万兆(10GE)的以太网技术、4G/8G的FC技术,使得PCI总线的带宽已经无力应付计算系统内部大量高带宽并行读写的要求,PCI总线也成为系统性能提升的瓶颈,于是就出现了PCIExpress总线。PCI Express总线技术在当今新一代的存储系统已经普遍的应用。PCIExpress总线能够提供极高的带宽,来满足系统的需求。
  目前,PCI-E 3.0规范也已经确定,其编码数据速率,比同等情况下的PCI-E2.0规范提高了一倍,X32端口的双向速率高达320Gbps。
  PCI Express总线的技术优势
  PCI总线的最大优点是总线结构简单、成本低、设计简单,但是缺点也比较明显:
  1) 并行总线无法连接太多设备,总线扩展性比较差,线间干扰将导致系统无法正常工作;
  2) 当连接多个设备时,总线有效带宽将大幅降低,传输速率变慢;
  3) 为了降低成本和尽可能减少相互间的干扰,需要减少总线带宽,或者地址总线和数据总线采用复用方式设计,这样降低了带宽利用率。PCI Express总线是为将来的计算机和通讯平台定义的1种高性能,通用I/O互连总线。
  与PCI总线相比,PCI Express总线主要有下面的技术优势:
  1) 是串行总线,进行点对点传输,每个传输通道独享带宽。
  2) PCI Express总线支持双向传输模式和数据分通道传输模式。其中数据分通道传输模式即PCIExpress总线的x1、x2、x4、x8、x12、x16和x32多通道连接,x1单向传输带宽就可以达到250MB/s,双向传输带宽更能够达到500MB/s,这个已经不是普通PCI总线所能够相比的了。
  3) PCIExpress总线充分利用先进的点到点互连、基于交换的技术、基于包的协议来实现新的总线性能和特征。电源管理、服务质量(QoS)、热插拔支持、数据完整性、错误处理机制等也是PCIExpress总线所支持的高级特征。
  4) 与PCI总线良好的继承性,可以保持软件的继承和可靠性。PCIExpress总线关键的PCI特征,比如应用模型、存储结构、软件接口等与传统PCI总线保持一致,但是并行的PCI总线被1种具有高度扩展性的、完全串行的总线所替代。
  5) PCIExpress总线充分利用先进的点到点互连,降低了系统硬件平台设计的复杂性和难度,从而大大降低了系统的开发制造设计成本,极大地提高系统的性价比和健壮性。从下面表格可以看出,系统总线带宽提高同时,减少了硬件PIN的数量,硬件的成本直接下降。
  至2008年,PCI-E接口仍然在显卡中使用。
  NVIDIA的崛起
  1999年,世纪末的显卡市场出现了百花齐开的局面,而且这一年也让市场摆脱了3Dfx的一家独霸局面,由于战略的失误,让3Dfx失去了市场,它推出了Voodoo3,配备了16Mb显存,支持16色渲染。虽然在画质上无可挑剔,但是高昂的价格以及与市场格格不入的标准让它难掩颓势。世纪末的这一年,显卡的辉煌留给了nVidia。
  在99年,nVidia挟TNT之馀威推出TNT2 Ultra、TNT2和TNT2M643个版本的芯片,後来又有PRO和VANTA2个版本。这种分类方式也促使後来各个生产厂家对同一芯片进行高中低端的划分,以满足不同层次的消费需要。TNT系列配备了8Mb到32Mb的显存,支持AGP2X/4X,支持32位渲染等等众多技术,虽然16位色下画面大大逊色于Voodoo3,但是在32位色下,表现却可圈可点,还有在16位色下,TNT2的性能已经略微超过Voodoo3了,不过客观的说,在32位色下,TNT系列显卡性能损失相当多,速度上跟不上Voodoo3了。当然,nVidia能战胜Voodoo3,与3Dfx公司推行的策略迫使许多厂商投奔nVidia也不无关系,促进了TNT系列的推广。显卡市场上出现了nVidia与3Dfx两家争霸的局面。
  99年的显卡市场不可遗忘的还有来自Matrox MGA G400,它拥有16Mb/32Mb的显存容量,支持AGP2X/4X,还有支持大纹理以及32位渲染等等,都是当时业界非常流行和肯定的技术,除此之外,独特、漂亮的EMBM硬件凹凸贴图技术,营造出的完美凹凸感并能实现动态光影效果的技术确实让无数游戏玩家为了疯狂,在3D方面,其速度和画面基本都是介于Voodoo3和TNT2之间,并且G400拥有优秀的DVD回放能力,不过由于价格以及它注重于OEM和专业市场,因此,在民用显卡市场所占的比例并不大!
  从99年到2000年,nVidia终于爆发了。它在99年末推出了1款革命性的显卡――-Geforce256,彻底打败了3Dfx。代号NV10的GeForce 256支持Cube-EnvironmentMapping,完全的硬件T&L(Transform &Lighting),把原来有CPU计算的数据直接交给显示芯片处理,大大解放了CPU,也提高了芯片的使用效率。GeForce256拥有4条图形纹理信道,单周期每条信道处理2个象素纹理,工作频率120MHz,全速可以达到480Mpixels/Sec,支持SDRAM和DDRRAM,使用DDR的产品能更好的发挥GeForce256的性能。其不足之处就在于采用了0.22微米的工艺技术,发热量比较高。
  2000年,nVidia开发出了第五代的3D图形加速卡――-Geforce2,采用了0.18微米的工艺技术,不仅大大降低了发热量,而且使得GeForce2的工作频率可以提高到200MHz。Geforce2拥有四条图形纹理信道,单周期每条信道处理2个象素纹理,并且使用DDR RAM解决显存带宽不足的问题。在Geforce256的基础上,GeForce2还拥有的NSR(NVIDIA Shading Rasterizer),支持Per-PixelShading技术,同时支持S3TC、FSAA、Dot-3 BumpMapping以及硬件MPEG-2动态补偿功能,完全支持微软的DirectX 7。而面对不同的市场分级,它相继推出了低端的GF2MX系列以及面向高端市场的GF2 Pro和GFGTS,全线的产品线让nVidia当之无愧地成为显卡的霸主。
  3Dfx在被nVidia收购之前还推出了Voodoo4/5,VooDoo4 4500使用一颗VSA-100芯片,VooDoo55500使用两颗VSA-100芯片,而VooDoo56000使用四颗VSA-100芯片,可惜由于各方面的原因,Voodoo4/5并不能让没落的3Dfx有一丝丝起色,最终难逃被nVidia收购的命运。
  而现在作为nVidia主要竞争对手的ATI,也在两千年凭借T&L技术打开市场。在经历“曙光女神”的失败後,ATI也推出了自己的T&L芯片RADEON256,RADEON也和NVIDIA一样具有高低端的版本,完全硬件T&L,Dot3和环境映射凹凸贴图,还有两条纹理流水线,可以同时处理3种纹理。但最出彩的是HYPER-Z技术,大大提高了RADEON显卡的3D速度,拉近了与GEFORCE2系列的距离,ATI的显卡也开始在市场占据主导地位。
  两千年的低端市场还有来自Trident的这款Blade T64,BladeXP核心属于Trident第1款256位的绘图处理器,采用0.18微米的制造工艺,核心时钟频率为200MHz,像素填充率达到1.6G,与Geforce2GTS处于同一等级,支持DirectX7.0等等。可惜由于驱动程序以及性能等方面的原因,得不到用户的支持。
  NV/ATI上演铁面双雄
  踏入2001年以後,如同桌面处理器市场的Intel和AMD一样,显卡市场演变为nVidia与ATI两雄争霸的局势。nVidia方面,凭借刚刚推出的Geforce3系列占据了不少市场,Geforce 3 Ti 500,Geforce 2 Ti和Geforce 3Ti,GeforceMX分别定位于高中低三线市场。与GeForce 2系列显卡相比,GeForce3显卡最主要的改进之处就是增加了可编程T&L功能,能够对几乎所有的画面效果提供硬件支持。GeForce3总共具有4条像素管道,填充速率最高可以达到每秒钟800 Mpixels。Geforce3系列还拥有nfiniteFX顶点处理器、nfiniteFX像素处理器以及Quincunx抗锯齿系统等技术。
  而作为与之相抗衡的ATI Radeon8500/7500系列,采用0.15微米工艺制造,包括6000万个晶体管,采用了不少新技术(如Truform、Smartshader等)。并根据显卡的核心/显存工作频率分成不同的档次——核心/显存分别为275/550MHz的标准版,核心/显存为250/500MHz的RADEON8500LE,生产核心/显存频率分别为300/600MHz的Ultra版,以及中端的Radeon 7500,低端的Radeon7200,7000等产品。值得一提的是Radeon 8500还支持双头显示技术。


  2002年,nVidia与ATI的竞争更加白热化。为巩固其图形芯片市场霸主地位,nVidia推出了Geforce4系列,分别为GeForce4 Ti4800,GeForce4 Ti 4600, GeForce4 Ti4400, GeForce4Ti4200,GeForce4 MX 460, GeForce4 MX 440 和 GeForce4 MX 420。GeForce4Ti系列无疑是最具性价比的,其代号是NV25,它主要针对当时的高端图形市场,是DirectX8时代下最强劲的GPU图形处理器。芯片内部包含的晶体管数量高达6千3百万,使用0.15微米工艺生产,采用了新的PBGA封装,运行频率达到了300MHz,配合频率为650MHzDDR显存,可以实现每秒49亿次的采样。GeForce4Ti核心内建4条渲染流水线,每条流水线包含两个TMU(材质贴图单元)。Geforce 4系列从高到低,横扫了整个显卡市场。
  作为反击,ATI出品了R9700/9000/9500系列,首次支持DirectX9,使其在与NVidia的竞争中抢得先机。而R9700更是在速度与性能方面首次超越NVidia。R9700支持AGP8X、DirectX 9,核心频率是300MHz,显存时钟是550MHz。RADEON9700,实现了可程序化的革命性硬件架构。符合绘图回事商品AGP8X最新标准,配有八个平等处理的彩绘管线,每秒可处理25亿个像素,四个并列的几何处理引擎更能处理每秒3亿个形迹及光效多边形。而R9000是面向低端的产品,R9500则直挑Ti4200。
  同年,SiS发布了Xabre系列。它是第1款AGP 8×显卡,全面支持DirectX8.1,在发布之时是相当抢眼的。Xabre系列图形芯片采用0.15微米工艺,具备4条像素渲染流水线,并且每条流水线拥有2个贴图单元。理论上可提供高达1200MPixels/s的像素填充率和2400MTexels/s的材质填充率。随後发布的Xabre600,采用0.13微米工艺,主频和显存频率都提高了不少,性能与GeForce4Ti4200差不多。
  2003年的显卡市场依旧为N系与A系所统治。nVidia的Gf FX5800(NV30)系列拥有32位着色,颜色画面有质的提高,在基础上推出的GeForce FX5900,提高了晶体管数,降低了核心频率与显存频率,改用了256B99v DDR以提高了显存带宽。後半年还推出了GF FX5950/5700系列,以取代GF FX 5900/5600。而ATI推出了RADEON9800/pro/SE/XT,凭借其超强的性能以及较价的售价,再次打败GF GX 5800。这一年市场上的主流产品还有GFFX5600,GF FX5200和RADEON 9600和RADEON 9200。
  2004年也是ATI大放异彩的一年,不过其最大的功臣却是来自于面向中低端的Radeon9550。这款2004年最具性价比的显卡,让ATI在低端市场呼风唤雨。R9550基于RV350核心,采用0.13微米制程,核心频率为250MHz,显存频率为400MHz,4条渲染管道,一个纹理单元,同时兼容64bit和128bit。这款产品是9600的降频版,但是通过改造,都可以变成R9600,性价比极强。而老对手的N卡方面,却只推出了1款新品GFFX5900XT/SE,而与R9550处于同一竞争线的5200,5500与5700LE系列,虽然性能不错,可惜价格却没有优势,被R9550彻底打败。2004年让nVidia郁闷了一整年。
  ATi从05年开始就一直被Nvidia压制,无论是1950XTX对抗7900GTX,2900XT对抗8800GTX,3870X2对抗9800GX2,在旗舰产品上,ATi一直属于劣势,但在2008年6月发生了转机,ATi发布了RV770,无论是从市场定价还是从性能上都是十分让人满意的,特别是改善了A卡在AA上的性能不足,RV770的中端4850的价格更是让Nvidia措手不及,无奈在一星期内9800GTX降价1000元,但无论是性能还是价格依旧挡不住4850的攻势,4870紧接着发布,采用DDR5显存的RV770浮点运算能力更是达到了1TB/S,Nvidia发布的新核心GT200的旗舰版本GTX280虽然在性能上暂时取得了暂时的领先,但是和4870相比只有10%的性能差距,而且由于工艺较落后,导致成本过高,没有性价比,就在人们以为ATi放弃旗舰,准备走性价比路线时,ATi推出了R700,也就是4870X2,并且大幅度改良了桥接芯片的性能,领先GTX280高达50-80%,而GTX280的核心面积已经大的恐怖,不可能衍生出单卡双芯,所以ATi依靠单卡双芯重新夺得了性能之王。但是在2009年初,Nvidia凭借其新推出的GTX295,重新夺回显卡性能之王宝座。

【市场前景】
  目前,显卡进入到PCI-E平台的时代。nVidia的G92系列,GT200系列,与之对应的ATI的RV670系列,RV770系列,让整个显示市场呈现百花齐放的局面,相信以後的显卡市场的竞争将会更加的激烈,而普通的消费者也将得到更多的实惠。
  时间从1981年翻到了2008年,28年的显卡发展史,感觉就像经历了几个世纪。从最初只能显示文字数字,到现在多姿多彩的图形画面,显卡的迅猛发展让玩家的视觉享受得到质的飞越,而且这种趋势还将继续下去,无法想象,再过1个25年,显卡会带给我们什么样的感受,问题可能是,到时还会有显卡吗。[(注:ATI已经被AMD全面收购)AMD计划打造1个新的x86处理器系列,将中央处理器(CPU)和图形处理器(GPU)在芯片级别上整合在一起,该产品的开发代号为“Fusion”。]
  【CPU是否能够代替GPU?】
  CPU老大Intel夸下海口能在三年内让CPU取代GPU,并且详解了其工作原理,并且CPU渲染能比GPU带来更好的画质,究竟GPU的未来如何?假如CPU拥有了GPU的能力,还能不能叫做CPU?让我们拭目以待.
  『Intel有可能会改变显卡发展轨迹』
  关于08年初CPU巨头Itel与NVIDIA关于“显卡与CPU究竟谁会取代谁”的争论已经过去。现在的用户也可以感觉到,CPU似乎并不是那么的重要了,在你日常的工作学习中,CPU的比重越来越小。很多时候,我们只需要CPU出一点点力就能满足我们的大部分需求.作为Intel,又怎么会不知道其中的意义呢?
  “我们所需要的是1种哦哦那个结合CPU完整程序功能,但又具备绘图处理器平行性能的架构。”Inte视觉运算部门资深首席工程师LarrySeiler这样说。
  Intel在2009年推出Larrabee独立显卡,以现有的Intel×486的核心技术为基础设计出来的,内建8-4八个核心,每个核心超高速互联,可提高芯片在同时执行多任务工作时的处理速度。Larrabee独立显卡的推出很有可能改变多年来显卡厂商一味追求GPU性能,而不顾功耗的格局,有希望产生性能更强,但功耗更低的显卡产品。
  按Intel的说法,我们可以预测,将来的显卡很有可能会取代CPU而成为新一代计算机的核心。
  【GPU是否能够代替CPU?】
  2006年NVIDIA推出了CUDA技术,使得显卡可以直接参与到通用计算中,使得大型计算从中获益,获得近百倍的速度提升,就目前来看,支持CUDA技术软件普遍都有较大幅度速度提升,尤其在于科学计算领域和视频图像领域更为明显,但是GPU可以参与计算并不代表CPU可以被GPU取代,GPU的运算核心是微核心,对于简单计算速度很快,但是对于逻辑复杂的运算就无能为力了,所以在以后的很长一段时间里,GPU和CPU依然会处于共存的状态。

本文标题:集成和独立显卡的区别-集成显卡和独立显卡的区别?
本文地址: http://www.61k.com/1067283.html

61阅读| 精彩专题| 最新文章| 热门文章| 苏ICP备13036349号-1