Jump to content

Guía completa tarjetas gráficas NVIDIA GeForce


Invitado Jolly Roger
 Compartir

Publicaciones recomendadas

Invitado Jolly Roger

Esto es un continuo work in progress, básicamente cuando me aburro en el foro esperando que me respondan lo voy rellenando. La verdad es que no tiene calidad como para ser una chincheta, pero bueno :wink: peor sería irlo reflotando

 

:)Nomeclatura y descripción de GPUs NVIDIA

Lo primero con lo que el recién llegado (y el veterano y... todos) se encuentra sumido en la más profunda confusión es con los nombres de los distintos modelos ¿es mejor una 6200A que una 6200 a secas? ¿Qué es una GeForce 6800GX? ¿Y esas Titanium? Analicemos pues de forma somera las principales convenciones de denominación de NVIDIA.

 

El modelo de la GeForce describe su generación: la 1 es de la primera generación, la 2 de la segunda, etc... Vaaale muy obvio, por algo hay que empezar. Los modelos Ti o Titanium se sucedieron hasta la serie GeForce4 para designar a los modelos tope de gama, con el procesador gráfico al máximo de sus extensiones y sin recortar por tanto ninguna funcionalidad. Después, las GeForce pasaron a denominarse a partir de la GeForce4 con números: mayor el número, mayor la potencia de la GPU. Así una "200" (e.g. Ti4200, FX5200) suele ser el modelo más bajo de la gama y una "800" el más alto de la primera revisión (e.g. Ti4800, FX5800). Ocasionalmente, aparece una versión numerada "900" como rediseño de la anterior gama alta: esto ha pasado en la GeForce FX5900/5950 y pasará en un futuro breve con la GeForce 7900 si sigue mantieniendo ese nombre.

 

Luego vienen los sufijos al modelo: LE, XT, Ultra, etcétera. Unánimemente con "Ultra" se designa a un modelo mejorado, por ejemplo, una FX5200 Ultra es una versión potenciada de la FX5200 a secas de la misma forma que una GeForce 6800 Ultra tiene muchas más prestaciones que una simple 6800. En los modelos de NVIDIA el sufijo XT designa a un modelo recortado ¡cuidado con eso! En ATI es exactamente al revés y XT equivale a una Ultra de NVIDIA: una 9600XT es superior a una 9600 y una X800XT a una X800 Pro.

 

Por lo general, sufijos como LE, SE, XT, ZT... lo que sea, designan modelos recortados en NVIDIA. Adicionalmente, los sufijos GT en las 6800 y 6600 se refieren a versiones extendidas de las mismas tarjetas: una 6600 viene con el reloj por defecto a 300 Mhz y una 6600GT lo tiene a 500 Mhz. Todo esto va en consonancia con el resto de componentes de la tarjeta gráfica: modelos GT y Ultra llevarán memorias más rápidas e incluso alimentación y funcionalidades adicionales mientras que los modelos LE, XT, SE... montan memorias más lentas y no requieren en muchos casos de un conector extra de alimentación.

 

:lol: Descripción de GPUs NVIDIA

Fuentes: WikiPedia, MVKTech.NET, acervo popular.

Fuera de serie: NV1 (Diamond Edge 3D), NV2 (chip gráfico Dreamcast). Mencionados porque NVIDIA denominó internamente sus GPUs usando el modelo NVxx en honor a sus dos primeros chipsets gráficos.

 

Serie DirectX 6. Aportaciones clave: NVIDIA define su concepto de GPU, Hardware Transform & Lightning, multitexturización.

 

Modelo // núcleo/memorias // pipeline // bus // shaders // memoriaGeForce 256 SDR // 120/166 // 4x1 // 128 bits // no // 32 o 64 Mb

GeForce 256 SDR // 120/1501 // 4x1 // 128 bits // no // 32 o 64 Mb

 

Al emplear memoria DDR, efectivamente el doble de velocidad: 300 Mhz.

 

Serie DirectX 7. Aportaciones clave: Hardware Transform, Clipping and Lightning (TCL/T&L), soporte embrionario de HDTV, primer soporte multimonitor (TwinView).

 

Con memoria DDR

Modelo // núcleo/memorias // pipeline // bus // shaders // memoria

GeForce2 MX400 // 200/366 // 2x2 // 64/128 bits // no // 32,64,128 Mb

GeForce2 GTS // 200/333 // 4x2 // 128 bits // no // 64 Mb

GeForce2 Pro // 200/400 // 4x2 // 128 bits // no // 64 Mb (128)

GeForce2 Ti VX // 220/400 // 4x2 // 128 bits // no // 64 Mb (128)

GeForce2 Ti // 250/400 // 4x2 // 128 bits // no // 64 Mb (128)

GeForce2 Ultra // 250/460 // 4x2 // 128 bits // no // 64 Mb (128)

 

Gama baja, memoria DDR

Modelo // núcleo/memorias // pipeline // bus // shaders // memoria

GeForce2 MX100 // 143/166 // 2x2 // 32 bits // no // 32, 64 Mb

GeForce2 MX200 // 143/166 // 2x2 // 64 bits // no // 32, 64 Mb

GeForce2 MX // 143/166 // 2x2 // 128 bits // no // 32, 64, 128 Mb

 

Gama GeForce4 MX, rediseños del GeForce2 (NV17, NV18)

Modelo // núcleo/memorias // pipeline // bus // shaders // memoria

GeForce4 MX420 // 250/333 // 2x2 // 128 bits SDR // no // 64, 128 Mb

GeForce4 MX440SE // 270/333 // 2x2 // 64 bits DDR // no // 64, 128 Mb

GeForce4 MX440 // 270/333 // 2x2 // 128 bits DDR // no // 64, 128 Mb

GeForce4 MX460 // 300/550 // 2x2 // 128 bits DDR // no // 64, 128 Mb

GeForce4 MX4000 // 275/400 // 2x2 // 128 bits DDR // no // 64, 128 Mb

 

Serie DirectX 8. Aportaciones principales: Shader model 1.0, se introducen los shaders programables, primera técnica de optimización del uso de memoria y Z-Buffer, multisampling antialiasing.

 

Modelo // núcleo/memorias // pipeline // bus // shaders // memoria

GeForce3 // 200/460 // 4x2 // 128 bits // 1 // 64 Mb

GeForce3 Ti 200 // 175/400 // 4x2 // 128 bits // 1 // 64,1281 Mb

GeForce3 Ti 500 // 250/500 // 4x2 // 128 bits // 1 // 64,128 Mb

 

1.- Los modelos de 128 Mb de GeForce3 eran extremadamente raros.

 

Serie DirectX 8.1. Aportaciones principales: se actualizan los Vertex Shaders a la especificación 1.1 y los Pixel Shaders a la 1.3/1.4, estructura de unidades de VP en paralelo, soporte multimonitor genérico, se introduce el nuevo bus AGP8X.

 

Modelo // núcleo/memorias // pipeline // bus // shaders // memoria

GeForce4 Ti 4200 // 250/4441 // 4x2 // 128 bits // 2 // 64, 128 Mb

GeForce4 Ti 4400 // 275/550 // 4x2 // 128 bits // 2 // 128 Mb

GeForce4 Ti 4600 // 300/650 // 4x2 // 128 bits // 2 // 64, 128 Mb

GeForce4 Ti 4200-8X2 // 250/514 // 4x2 // 128 bits // 2 // 64, 128 Mb

GeForce4 Ti 4800SE2 // 250/514 // 4x2 // 128 bits // 2 // 64, 128 Mb

GeForce4 Ti 48002 // 300/650 // 4x2 // 128 bits // 2 // 128 Mb

 

1.- Los modelos de 64 Mb inicialmente tendrían una frecuencia de 444 Mhz en las memorias y los de 128 Mb, de 515 Mhz. Casi todos los modelos acabaron teniendo 515 Mhz de frecuencia por decisión de los integradores.

2.- En bus AGP8X

 

Serie FX (DirectX 9). Aportaciones principales: soporte Shader Model 2.0, proceso de vídeo por hardware (VPE). Se migra a proceso de 0,13 micras a partir de la FX5800.

 

Modelo // núcleo/memorias // pipeline // bus // shaders // memoria

FX5200 // 250/400 // 2x2 // 64,128 bits // 1 // 64, 128, 256 Mb

FX5200 Ultra // 325/650 // 2x2 // 128 bits // 1 // 128 Mb

FX5500 // 270/400 // 2x2 // 64,128 bits // 1 // 64, 128, 256 Mb

FX5600 // 325/550 // 4x1 // 128 bits // 1 // 128, 256 Mb

FX5600XT // 325/400 // 4x1 // 128 bits // 1 // 128, 256 Mb

FX5600 Ultra // 350/700 // 4x1 // 128 bits // 1 // 128 Mb

FX5600 Ultra model 2 // 400/800 // 4x1 // 128 bits // 1 // 128 Mb

FX5700 // 425/550 // 4x1 // 128 bits // 3 // 128, 256 Mb

FX5700LE // 250/400 // 4x1 // 128 bits // 3 // 128, 256 Mb

FX5700 Ultra1 // 475/900 // 4x1 // 128 bits // 3 // 128 Mb

FX5700 Ultra DDR3 // 475/950 // 4x1 // 128 bits // 3 // 128 Mb

FX58001 // 400/800 // 4x2 // 128 bits // 2 // 128 Mb

FX5800 Ultra1 // 500/1000 // 4x2 // 128 bits // 2 // 128 Mb

FX5900 // 400/850 // 4x2 // 256 bits // 3 // 128 Mb

FX5900XT2 // 400/700 // 4x2 // 256 bits // 3 // 128 Mb

FX5900 Ultra // 450/850 // 4x2 // 256 bits // 3 // 128, 256 Mb

FX5950 Ultra // 475/950 // 4x2 // 256 bits // 3 // 256 Mb

1.- Con memoria DDR-2.

2.- Muchos fabricantes lanzaron modelos remarcados de FX5900 XT con diversas denominaciones: SE, ZT, LE... variando las frecuencias de reloj sugeridas por nVIDIA. En cualquier caso, montan la misma GPU NV35

 

Serie PCX (DirectX 7 y 9). Aportaciones principales: primeras tarjetas PCI Express NVIDIA, pensadas para el mercado OEM y para cubrir cuota de mercado inicial en la gama PCI Express entonces disponible. Usan un puente HSI y no gozaron de demasiada aceptación, aunque muchas workstations se abastecieron con estas tarjetas.

 

Modelo // núcleo/memorias // pipeline // bus // shaders // memoria

PCX4300 // 275/333 // 2x2 // 128 bits // 1 // 128 Mb

PCX5300 // 250/400 // 2x2 // 64,128 bits // 1 // 128 Mb

PCX5750 // 425/500 // 4x1 // 128 bits // 1 // 128 Mb

PCX5950 // 475/900 // 4x2 // 256 bits // 1 // 256 Mb

 

Serie GeForce6 AGP (DirectX 9.0c). Aportaciones principales: primera GPU doméstica con soporte Shader Model 3.0, PureVideo, HD Playback, aparece el puente HSI. Se migra a proceso de 0,11 micras en los modelos PCIe nativos.

 

Modelo // núcleo/memorias // pipeline // bus memoria

6200 (NV43)1 // 300/400 // 4x1x3 // 64,128 bits // 128, 256 Mb

6200 (NV44A)1 // 300/533 // 4x1x3 // 64,128 bits // 64, 128, 256, 512 Mb

6600 (NV43)1 // 300/500 // 8x1x3 // 128 bits // 128, 256 Mb

6600GT (NV43)1 // 500/900 // 8x1x3 // 128 bits // 128, 256 Mb

6800LE (NV40) // 325/700 // 8x1x4 // 256 bits // 128 Mb

6800XT (NV41) // 325/700 // 8x1x4 // 256 bits // 128, 256, 512 Mb

6800 (NV40) // 350/750 // 12x1x5 // 256 bits // 128, 256 Mb

6800GS (NV40) // 350/1000 // 12x1x5 // 256 bits // 256 Mb

6800GT (NV40) // 350/1000 // 16x1x6 // 256 bits // 128, 256 Mb

6800 Ultra (NV40) // 400/1100 // 16x1x6 // 256 bits // 256 Mb

6800 Ultra Extreme (NV40) // 425/1100 // 16x1x6 // 256 bits // 256 Mb

 

1.- Estas tarjetas tienen un puente HSI (High Speed Interconnect) que permite usar una GPU con soporte nativo PCI Express en una placa AGP. El HSI necesita un mínimo de refrigeración para funcionar adecuadamente, en caso de sobrecalentamiento se notarán problemas de ralentización, cuelgues e incluso daños permanentes en la tarjeta.

:lol: Optimizaciones drivers NVIDIA

 

En el sistema

Fastwrites: consiste en una técnica en la que el bus AGP se comunica directamente con la CPU sin pasar antes por la RAM. Esta característica fue introducida por NVIDIA en la GeForce256 y ya entonces daba muchos problemas. En general, el FW entorpece el overclocking, aunque mejora un poco el rendimiento sin OC en sistemas en los que la CPU no sea un factor limitante. En general, es mejor desactivarlo.

 

Sideband addressing: un modo de transferencia especial introducido en el AGP2X. Consiste básicamente en permitir al AGP usar 8 direcciones adicionales de datos para comunicarse con la CPU además de las 32 principales. En general no interfiere en el overclocking y aumenta ligeramente el rendimiento (falta que tanto la GPU como la placa lo soporten) pero en placas viejas da problemas. Recomiendo activarlo y después comprobar que el equipo sigue siendo estable.

 

En los drivers

Modos Anti Aliasing: Hasta la GeForce 4 Ti, disponemos de varios modos de antialiasing a pantalla completa.

El primero es el 2xAA, que se trata de un antialias muy ligerito que proporciona una discreta mejora visual con poco impacto sobre el framerate. Prácticamente cualquier tarjeta GeForce puede hacer esto sin sudar.

Después tenemos el modo Quincunx 2xAA que usa una disposición en la misma forma que el 5 de un dado como sample para realizar AA que mejora bastante el 2xAA sin costar demasiado en rendimiento; pero a costa de empeorar la calidad de las texturas y hacer que parezcan borrosas.

Ahora pasamos al modo 4xAA. Cuatro samples ya son caña para una GeForce de estas características, de todas maneras, en estas GeForce cuatro samples a pelo parecen caer fatal. El rendimiento baja muchísimo pero no se aprecian grandes cambios desde el modo Quincunx.

El modo 4xAA+9 tap se caracteriza por mejorar más el suavizado de líneas pero a menudo a costa de desenfocar aún más las texturas.

 

:lol: Introducción GeForce<->Quadro

 

Todos sabemos que NVIDIA mantiene dos líneas principales de tarjetas gráficas tanto para ordenadores de sobremesa como para portátiles. La línea doméstica son las tarjetas GeForce y la profesional las Quadro. Ya desde la primera GeForce256/Quadro se comprobó que NVIDIA se limitaba a bloquear las capacidades profesionales en las GPU Quadro y remarcarlas como GeForce. En realidad parece ser al revés, NVIDIA diseña sus GPU con las GeForce en mente y después mete la parte Quadro.

 

Por tanto, como en otros tantos casos, es posible convertir una GeForce a una tarjeta Quadro. ¿Para qué? Pues para poder usar aplicaciones profesionales con la tarjeta que de otra forma no funcionarían o lo harían a un rendimiento considerablemente más bajo. Además, las Quadro tienen sus propios drivers cuyo desarrollo es paralelo a los de las GeForce pero que tienen optimizaciones pensadas para las aplicaciones propias de las aplicaciones gráficas profesionales y no videojuegos exclusivamente.

 

No todos los micros GeForce tienen equivalente Quadro, como basta deducir de echar un simple vistazo a los catálogos de ambas líneas de producto. Como norma general, sólo las principales GPU GeForce tienen equivalente Quadro. La forma más sencilla de pasar una GeForce es usar RivaTuner y su driver NVStrap (Unwinder es la hostia) que lo hace por software bajo Windows. En esto no me detendré porque payoranye ya sabe hacerlo y es un tema tratadísimo en otros foros y guías. También puedo editarlo luego si alguien lo necesita realmente.

 

Este método software comparte el mismo inconveniente que suelen tener los softmod: sólo funciona bajo Windows. Igual para desbloquear las pipes de una 6800 nos da igual tener 8 que 16 en otro SO porque al fin y al cabo vamos a jugar en Windows pero ese razonamiento no es aplicable a las Quadro: la gama de aplicaciones que usan estas tarjetas es tan vasta que NVIDIA edita drivers para todas las versiones de 32 y 64 bits de Windows, Linux, Linux-64, FreeBSD, Solaris (SunOS) e incluso Linux IA64 y otras variaciones UNIX.

 

Para realizar un hardmod que nos cambie totalmente la tarjeta a Quadro, generalmente debemos de modificar físicamente la tarjeta ya sea en el PCB o en la GPU. Esto comporta un riesgo mayor que un flash de BIOS así que aquí viene la advertencia bien seria:

 

Modificar una GeForce a Quadro NO te dará mayor rendimiento en videojuegos.

 

Es más: los videojuegos te irán PEOR con la tarjeta convertida a Quadro.

 

Si ciscas tu tarjeta aplicando alguno de estos métodos no me conoces :risa2:

 

:lol: Guía de equivalencias GeForce<->Quadro

 

Si nuestra tarjeta no tiene equivalente Quadro, nanay: no podremos hacer nada con eso. La mejor forma de comprobarlo es instalar el driver NVStrap del RivaTuner, y probar si se convierte a algo. Sólo aparecen los modelos más recientes, a partir de DX7/8 luego igual edito con todos los modelos pero no veo ningún sitio donde aparezcan todos juntos y va a ser un cachondeo.

 

Si aparece una S, sólo es convertible con RivaTuner (se usan distintas placas en GeForce y en Quadro o no se ha descubierto el hardmod), si aparece una H es que las placas son iguales y además se sabe como hacerles el mod. Si aparecen las dos, pues mejor para todos. Esto lo iré actualizando también si eso.

 

Serie GeForce

*GeForce DDR -> Quadro

 

Serie GeForce 2 DX7

* GeForce 2 MX 200 -> Quadro2 MXR

* GeForce 2 GTS -> Quadro2

* GeForce2 Ti/Ultra -> Quadro2 Pro

Notas:

Las GeForce2 GTS, Ultra y Ti son convertibles al NV15GL, Quadro2. La única diferencia entre las versiones Ultra y Ti son las frecuencias de memoria.[/size]

 

Serie GeForce 2 DX7

* GeForce 3 -> Quadro DCC

 

Notas:

Las GeForce3 tienen todas las mismas GPU. Mutarán a una Quadro DCC con la única diferencia de distintos valores para la frecuencia de GPU y memorias.[/size]

 

Serie GeForce4 DX7/8

* GeForce4 MX440 -> Quadro4 FX550 S

* GeForce 440 Go -> Quadro FX500 S (obvio)

* GeForce4 Ti 4200 -> Quadro 700 XGL S H

* GeForce4 Ti 4400 -> Quadro 750/780 XGL S H

* GeForce4 Ti 4600 -> Quadro 900 XGL S H

* GeForce4 Ti 4800 -> Quadro 980 XGL S H

 

Notas:

Obviamente, las Ti 4200/4400/4600/4800 como en realidad llevan la misma GPU mutan todas. La Quadro 700 XGL es una 4200 con 64 Mb de RAM, no hay equivalente preciso para una 4200 con 128 Mb en Quadro.

 

Serie GeForceFX DX9

* GeForce FX5200 -> QuadroFX 500 S

* GeForce FX5600 -> QuadroFX 700 S

* Geforce FX5600 Go -> QuadroFX 700 Go S

* GeForce FX700 Ultra -> QuadroFX 1100 S H

* GeForce FX5800 -> QuadroFX 1000 S H

* GeForce FX5800 Ultra -> QuadroFX 2000 S H

* GeForce FX5900 -> QuadroFX 3000 S H

* GeForce 5950PCX -> Quadro FX1300 S H

* GeForce FX5950 -> QuadroFX 3000 S

 

Notas:

Las 5900/5900XT pueden modificarse por hardmod si comparten la placa QuadroFX 3000. Si no, sólo NVStrap, un ejemplo de esto es la FX5900ZT de MSI.

Parece que las versiones DDR-3 de la FX5700 Ultra NO pueden convertirse por hardmod por culpa del controlador de memoria.

 

Serie GeForce 6 DX9 HDR

* GeForce 6600 PCI-E NV43 A1 A2 A3 -> Quadro FX 540 PCI-E

* GeForce 6800 PCI-e NV41 -> Quadro FX3400

* GeForce 6800 Ultra NV40 -> Quadro FX4000 (12 pipelines)

* GeForce 6800 Ultra NV41 512 Mb -> Quadro FX4400

 

 

Notas:

Parece que las 6600 más modernas, la revisión A4, no hay Diox que las haga cambiar a FX 540.

Siempre y cuando sea AGP y tenga la GPU NV40, cualquier 6800LE/6800/6800GT o 6800 Ultra será convertible por software a Quadro FX4000 con 128 o 256 Mb de RAM.

 

:lol: Hardmods

GeForce256 a Quadro

El que tenga una de las primeras GeForce y se ponga a trastear con ella es para matarlo a mi juicio, pero oye, que cada uno haga con la información lo que quiera :risa2:

 

Sólo hay que mover un par de resistencias para hacerla reconocer como Quadro. No hay, hasta donde tengo constancia, otros modelos que se diferencien claramente del de referencia de NVIDIA.

 

:lol: GeForce256 SDR => R101 -> R97, R102 -> R98

:lol: Modelos no estándar

ASUS V6600 GeForce SDR => R64 -> R63, R66 -> R65

ASUS V6600 Pro64 GeForce SDR 64MB => R49 -> R48, R47 -> R51

ELSA ERAZOR X GeForce SDR rev.1 => R101 -> R97, R102 -> R98

ELSA ERAZOR X GeForce SDR rev.2 => R558 -> R557, R568 -> R567

GUILLEMOT HERCULES 3D Prophet GeForce SDR (y SE) => R101 -> R97, R102 -> R98, R103 -> papelera (tíralo)

 

:lol: GeForce256 DDR => R102 -> R98

 

GeForce2 a Quadro2

Bueeeeeeno, ¿qué pasa? Aún en estos tiempos una GeForce2 puede ser útil para un AutoCAD y tal, aún más si la modeamos. Convertirla a Quadro añade a la GeForce2 estas funcionalidades: puntos y líneas antialias por hardware, shared back buffer, shading rasterizer y 3d Windows rasterizer. Por cierto que sólo la Quadro2 Pro gorda y la GeForce2 MX 400 tienen memoria de 128 Mb.

 

Vamos al ajo, como siempre el asunto está en mover resistencias de un lado a otro. He encontrado dos, me queda pendiente ver dónde tienen las resistencias la Ti y la Ultra:

 

:lol: GeForce2 GTS => R121 -> R122, R123 -> R124

;) GeForce2 MX => R121 -> R122, R123 -> R124

 

FX5700 Ultra a Quadro FX1100

 

Parece que funciona de dos formas: o bien quitas los condensadores del lado Quadro y dejas la GPU con dos condensadores menos o mueves los condensadores a la izquierda. De cualquier modo después supongo que tocará flash de BIOS.

 

Lo discontinuo representa la posición original de los condensadores en la FX5700 Ultra.

quadrofx1100condensadores2oy.th.png Aquí un pantallazo de cómo queda la GPU FX5700 Ultra sin los condensadores.

fx5700ultrasincondensadores0qt.th.jpg

 

GeForce 6800 NV40 AGP a Quadro FX4000

Ignoro si rula con las PCI Express NV41 podría aprovechar y mirarlo ya que tengo una GT y mi Ultra PCIe aquí.

 

Aquí la vistas trasera y delantera de una 6800GT sin modificar y las posiciones de las resistencias.

6800gtcardresistenciasdelanter.th.jpg 6800gtcardresistenciastraseras.th.jpg

 

Estas resistencias controlan la identidad de nuestra NV40 - Vamos a hacer una recopilación de esas resistencias comparando las GT y Ultra con la FX4000. Recuerdo a todos que la placa original de la Quadro FX 4000 es la de una 6800 Ultra pero por defecto vienen a 12 pipelines y 375/450 de frecuencias. Afortunadamente parece que ninguna cuaterna de pipelines viene defectuosas en las QFX4000. Activarlas no aumenta extraordinariamente el rendimiento en SPECperf.

 

Posiciones de resistencias en una GT, una Ultra y una Quadro FX4000.

6800gtresistencias0qo.jpg6800uresistencias4bv.jpgfx4000resistencias1rb.jpg

 

 

Sí, esto también puede usarse para convertir nuestra 6800/LE en GT o Ultra pero tened cuidado con estas cosas.

 

Imágenes de la GT del insigne Rui de Guru3D convertida a Quadro FX 4000. Flash de BIOS necesario para funcionalidad 100%, por supuesto.

 

Por delante 6800gtquadromodresistenciasdel.th.jpg y por detrás 6800gtquadromodresistenciastra.th.jpg

Enlace al comentario
Compartir en otros sitios web

Ya he mutado mi 6600 a FX540 ja ja!!!

 

La historia es que tenia una FX540 y se la cambie a mis colegas del taller, ya que les debia unos favores, entre otros la mecanizacion de mis dispadores del XEON pasivo, con la idea de pronto buscar una quadro mas potente (por vicio, ya que estoy empezando en en diseño de piezas). En su dia me habian pedido consejo para una grafica y habia leido que eran lo mismo, pero no se atrevieron a comprar una nvidia normal, ya que trabajan todo el dia con el Solid y no puede fallarles, pero me quedo el gusanillo.

 

Cuando les hice el cambio, ya me fije que eran practicamente iguales, le meto el rivatuner y pumba, arranco y tengo de nuevo mi FX540, y el Solid va perfecto y mas rapido me parece, me falta hacer unos test.

 

Ademas tengo una Quadro 700 XGL y tiene 64mb en AGP4x, y tambien me sonaba que era igualita a las ti4200 que habia visto por el foro.

 

Ahora a esperar a ver si aprendo eso de los pipilines, porque yo puse todo por defecto... ahh y como se hacen los test.(por pedir que no quede)

 

Jolly Roger eres la caña!!!!!

Enlace al comentario
Compartir en otros sitios web

Invitado Jolly Roger

Para probar las Quadro tienes que probar el SPECViewperf por ejemplo y compararlo con los resultados de la página de NVIDIA. Ten en cuenta que micro y memorias también hacen oscilar el resultado.

 

Para probar las pipelines el buen y viejo 3DMark20003. Compara los resultados con y sin pipes.

 

;) Guía rápida pipelines

Ejecuta "RivaTuner". En la primera pantalla que te aparece, en la mitad superior izquierda aparece una sección "Target adapter" y tu tarjeta. En mi caso "NVIDIA 6800LE". En la zona sombreada de más abajo te aparecerá algo así como "256-bit NV40 (A1, 8x1, 4vp with 128MB DDR". Eso quiere decir que tienes 256 bits de bus de memoria y un NV40 revisión A1 con 8 pipelines y 4 unidades de proceso de vertex además del tamaño de memoria. Ahora hay una pestaña al lado que dice "Customize..." y un primer icono "Low-level settings".

 

Dentro de esa pantalla, selecciona "NVStrap". Pulsa "Install". Aquí puedes cambiar las PCI IDs para que te reconozca la tarjeta como Quadro y la opción "Unlock professional capabilities" que es también imprescindible para poder usar una GeForce como softmod Quadro. Para las pipes, que es a lo que vamos, primero tienes que poner "custom" en "Active pixels/vertex configuration " y después seleccionar "Allow enabling hardware masked units". Plsa en el botón de al lado "Customize". Ahora puedes activar/desactivar pipelines y unidades vertex.

Enlace al comentario
Compartir en otros sitios web

Invitado Jolly Roger

Sigo aquí, me hace falta:

 

* Info para las GeForce3

* Infor para las GeForce4

* ¿Se pudo al final parchear el resto de FX?

* ¿Qué está pasando con las GeForce7? ¿Disfrutaremos de Quadro?

 

Y por supuesto que me comuniquéis cualquier error que haya en la guía esta.

Enlace al comentario
Compartir en otros sitios web

De momento perfecto....

 

Aparte de pasar la 6600 a FX540 con 256 y dar unos test aceptables (tengo menos maquina que la de referencia), pase tambien una 5200 con 128 a FX540, y lo bueno que esta es pasiva en vez de la quadro4 700 que tenia..., mis problemas con las graficas resueltos por un largo tiempo (estuve 4 años con una ATI7000)

 

Gracias de nuevo

Enlace al comentario
Compartir en otros sitios web

Invitado Jolly Roger

Tengo que publicar ahora la forma de saber si tu tarjeta se ha quedado completamente convertida a Quadro, mañana ya lo edito. Pero si da unos resultados aceptables, es suficiente. Si no te hubiera pasado totalmente, ni arrancarías la mitad de los tests.

 

Serie GeForce 3 DX8  

* GeForce 3 -> Quadro DCC

 

¿Pero qué pasa con esto? No hay manera de arreglarlo

 

:P ya he visto las diferencias entre una GeForce3 y una Quadro DCC. En cuanto tenga la Quadro 980 XGL en mis manos ya sigo mirando los condensadores y actualizo la guía.

:risa2: por sugerencia de PGM se añade guía de nomeclaturas y se empieza la descripción de las distintas GPUs.

Enlace al comentario
Compartir en otros sitios web

  • 2 weeks later...
  • 1 month later...
  • 1 month later...
  • 2 years later...

Vaya post! llevo un tiempo buscando una guía y info y más cosas para pasar una geforce a quadro por doscientosmil foros perdidos de la mano del señor teniendo los favoritos llenos de links para akordarme y voy y cnd me iba a acostar encuentro esto en el forito de ventas entre colegas que estoy todo el puto día metido!!!!!

 

Manda cojones mi alma ke llevo mil años!!!! FELIZMENTE VOY A RESKATAR ESTE PEDAZO DE POST

 

ARRIBA!!!!

Enlace al comentario
Compartir en otros sitios web

BUAH VA Y SE ME OLVIDA COMENTAR TODAS LAS DUDA QUE TENÍA!

 

ahí van:

 

1º ¿No existe ningun problema con ninguna de las 6800gt de AGP?? segun tengo entendido todas las version AGP son mutables.

 

2º ¿hay que realizar para una perfecta mutación el mod con las soldaduras?? ¿¿ O se obtiene el mismo resultado con el soft-mod del rivatuner?? ¿¿o este modo solamente lo hace a medias??

 

Tengo más dudas pero a estas horas ya m cabeza no da más de si.

 

Espero que el dueño de este post siga vivo!!!! han pasado años!

Editado por Blinker69
Enlace al comentario
Compartir en otros sitios web

Por favor conéctate para comentar

Podrás dejar un comentario después de iniciar sesión



Conectar ahora
 Compartir

×
×
  • Crear nuevo...