microprocesadores

MICROPROCESADORES
Todos los transistores son iguales?
No todos son iguales, ni siquiera de tamaño. Por ejemplo, dentro de un microchip los transistores necesitan tener una alimentación. Esta, esta controlada por unos transistores de carga. Estos deben de ser capaces de llevar por su interior toda la corriente que alimenta los distintos bloques. Por lo tanto estos deben de ser de un tamaño mayor que los transistores normales.
¿Cómo funciona un transistor?
Un transistor es un dispositivo que tiene 3 conexiones. La corriente pasa a través de dos ellas siempre y cuando la tercera tenga un voltaje aplicado.
En definitiva, un transistor no es más que un interruptor. Esta sencilla funcionalidad le permite ser capaz de llevar a cabo cualquier tipo de operación lógica o matemática.
Al ser capaz de controlar una corriente usando un voltaje el transistor es capaz de jugar con estas dos magnitudes. De aquí surge su nombre, ya que transistor viene de juntar las palabras transfer resistor es decir es capaz de transferir una determinada resistencia. Puede en un momento bloquear una corriente, funcionando entonces como una resistencia muy grande, o dejarla correr pasando a tener una pequeña resistencia.
La conexión entre los transistores puede ser entre cualquiera de sus tres terminales. Dependiendo de cómo se conecten serán capaces de realizar una u otra función.
RISC

Si te es complicado llegar a ver como un dispositivo con tres terminales es capaz de hacer tanto, piensa que un microprocesador puede tener sin problemas mil millones de transistores, con lo cual lo que en esencia es un sencillo elemento se complica más y más.



En arquitectura computacionalRISC (del inglés Reduced Instruction Set Computer, en español Computador con Conjunto de Instrucciones Reducidas) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales:
  1. Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
  2. Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.
Además estos procesadores suelen disponer de muchos registros de propósito general.
El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentación y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de construcción de microprocesadores. PowerPCDEC AlphaMIPS,ARMSPARC son ejemplos de algunos de ellos.
RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeñas y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.
La idea fue inspirada por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria.


Terminología más moderna se refiere a esos diseños como arquitecturas de carga-almacenamiento.

FUENTES DE PODER

Cuando se habla de fuente de poder, (o, en ocasiones, de fuente de alimentación y fuente de energía), se hace referencia al sistema que otorga la electricidad imprescindible para alimentar a equipos como ordenadores o computadoras. Generalmente, en las PC de escritorio, la ya citada fuente de poder se localiza en la parte posterior del gabinete y es complementada por un ventilador que impide que el dispositivo se recalienteLa fuente de poder, por lo tanto, puede describirse como una fuente de tipo eléctrico que logra transmitir corriente eléctrica por la generación de una diferencia de potencial entre sus bornes. Se desarrolla en base a una fuente.



TARJETAS DE EXPANSION
Tarjeta de circuitos integrados conectable al bus (trayectoria principal de transferencia de datos) de una computadora a través de los zócalos de expansión. Las tarjetas de expansión típicas sirven para añadir memoria, controladoras de unidad de disco, controladoras de vídeo, puertos serie o paralelo y dispositivos de módem internos. Por lo general, se suelen utilizar indistintamente los términos placa y tarjeta para referirse a todas las tarjetas de expansión. Véase también Ordenador o computadora; Placa de circuito impreso.

BUS DE EXPANSION: es un elemento de la placa base de un ordenador que permite conectar a ésta una tarjeta adaptadora adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX los slots de expansión no se encuentran sobre la placa sino en un conector especial denominado risercard.


Tipos de tarjetas de expansión
Dependiendo la función de cada una, es posible clasificarlas de la siguiente manera (por supuesto no se descarta la existencia de mas tipos), sin embargo las mas utilizadas son las siguientes que se enlistan en las ligas:
·                     Tarjetas aceleradoras de gráficos.
·                     Tarjetas red local cableada.
·                     Tarjetas de red inalámbrica.
·                     Tarjetas de red ópticas (para fibra óptica).
·                     Tarjetas PCMCIA.
·                     Tarjetas de sonido.
·                     Tarjetas controladoras IDE.
·                     Tarjetas controladoras SCSI.


Interrupción (IRQ):es una señal recibida por el procesador de un ordenador, indicando que debe "interrumpir" el curso de ejecución actual y pasar a ejecutar código específico para tratar esta situación.Una interrupción es una suspensión temporal de la ejecución de un proceso, para pasar a ejecutar una subrutina de servicio de interrupción, la cual, por lo general, no forma parte del programa (generalmente perteneciente al sistema operativo, o al BIOS). Luego de finalizada dicha subrutina, se reanuda la ejecución del programa. Las interrupciones surgen de las necesidades que tienen los dispositivos periféricos de enviar información al procesador principal de un sistema de computación. La primera técnica que se empleó fue que el propio procesador se encargara de sondear (polling) los dispositivos cada cierto tiempo para averiguar si tenía pendiente alguna comunicación para él. Este método presentaba el inconveniente de ser muy ineficiente.

UNIDADES DE ALMACENAMIENTO
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente. La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador

Partes del disco duro

Dentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos.

Características  principales de rendimiento de un disco duro
Cada plato posee dos ojos, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros).
Interfaces del disco duro: Tipos de interfaz:
•  IDE (IntegratedDeviceElectronics: o ATA (AdvancedTechnologyAttachment), controla los dispositivos de almacenamiento masivo de datos como los discos duros y ATAPI (AdvancedTechnologyAttachmentPacket Interface). 
•  SCSI: Son discos duros de gran capacidad de almacenamiento. Se presentan bajo tres especificaciones: 
•  SCSI estándar (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 5 Mbps) 
•  SCSI rápido (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 10 Mbps) 
•  SCSI ancho-rápido (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 20 Mbps) 
•  SATA: serial ATA. Utiliza un bus de serie para la transmisión de datos. Más rápidos y eficientes que los IDE. 
•  SAS (Serial AttachedScsi): evolución de la interfaz SCSI, utilizada habitualmente en entornos empresariales de alto rendimiento. Mejora la velocidad de transferencia, actualmente son 3 GB/s nominales y en un futuro no muy lejano se esperan alcanzar los 6 GB/s.
Organizan los datos en un disco duro
En los ordenadores o computadoras, unidad de almacenamiento permanente de gran capacidad. Está formado por varios discos apilados —dos o más—, normalmente de aluminio o vidrio, recubiertos de un material ferromagnético. Como en los disquetes, una cabeza de lectura/escritura permite grabar la información, modificando las propiedades magnéticas del material de la superficie, y leerla posteriormente; esta operación se puede hacer un gran número de veces. La mayor parte de los discos duros son fijos, es decir, están alojados en el ordenador de forma permanente. Existen también discos duros removibles, como los discos Jaz de Iomega, que se utilizan generalmente para hacer backup —copias de seguridad de los discos duros— o para transferir grandes cantidades de información de un ordenador a otro.
Unidad de disco flexible: la unidad de disco— donde una cabeza de lectura/escritura puede escribir información alterando la orientación magnética de las partículas de su superficie. Por un procedimiento similar, esta cabeza es capaz de leer la información almacenada.,y pronto se convirtieron en el medio más utilizado para intercambiar información —software y archivos— entre ordenadores. La complejidad de los programas y el tamaño de algunos archivos de bases de datos o imágenes, hizo que los disquetes fuesen insuficientes para esta tarea y, a mediados de la década de 1990, fueron progresivamente sustituidos por CD-ROM.

Medio flexible: en ordenadores o computadoras, un elemento plano, de forma circular, elaborado sobre un material plástico, denominado mylar, y recubierto por una sustancia magnetizable, normalmente óxido de hierro. Se utilizan para almacenar información de naturaleza informática, para lo cual se insertan en un dispositivo —la unidad de disco— donde una cabeza de lectura/escritura puede escribir información alterando la orientación magnética de las partículas de su superficie. Por un procedimiento similar, esta cabeza es capaz de leer la información almacenada.
Unidad óptica: En informática, una unidad de disco óptico es una unidad de disco que usa una luz láser u ondas electromagnéticas cercanas al espectro de la luzcomo parte del proceso de lectura o escritura de datos desde un archivo a discos ópticos. Algunas unidades solo pueden leer discos, pero las unidades más recientes usualmente son tanto lectoras como grabadoras. Para referirse a las unidades con ambas capacidades se suele usar el término lectograbadora. Los discos compactos (CD), DVD, y Blu-ray Disc son los tipos de medios ópticos más comunes que pueden ser leídos y grabados por estas unidades.
Medio óptico: ordenador o computadora que utiliza un haz luminoso para detectar los patrones de luz y oscuridad (o los colores) de la superficie del papel, convirtiendo la imagen en señales digitales que se pueden manipular por medio de un software de tratamiento de imágenes o con reconocimiento óptico de caracteres. Un tipo de escáner utilizado con frecuencia es el flatbed, que significa que el dispositivo de barrido se desplaza a lo largo de un documento fijo.
Velocidades de las diferentes unidades de almacenamiento


También existen discos duros externos que permiten almacenar grandes cantidades de información. Son muy útiles para intercambiar información entre dos equipos. Normalmente se conectan al PC mediante un conector USB. Para intercambiar información con otros equipos (si no están conectados en red) se tienen que utilizar unidades de disco, como los disquetes, los discos ópticos (CD, DVD), los discos magneto-ópticosmemorias USB o las memorias flash, entre otros.El disco duro almacena casi toda la información que manejamos al trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que permite arrancar la máquina, los programasarchivos de texto, imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa(portátil), dependiendo del lugar que ocupe en el gabinete o caja de computadora.Un disco duro está formado por varios discos apilados sobre los que se mueve una pequeña cabeza magnética que graba y lee la información.
                                            núcleo en un procesador
Las mejoras producidas en las tecnologías de fabricación permiten a los fabricantes reducir el tamaño de los elementos que componen los procesadores. La meta final es que el micro se convierta en unSOC y todo el sistema, o al menos la placa base, este integrada en su interior.

¿Qué es por tanto un núcleo?

Un procesador funciona leyendo instrucciones y datos, los procesa y da lugar a resultados. Un núcleo, no es más que el bloque encargado de ejecutar las instrucciones.
La disminución en el tamaño de los transistores con los que se crea todo dentro de un micro permite a los ingenieros tener más espacio libre. Esto les permite poder duplicar o incluso triplicar estos bloques. De esta forma pasamos de poder ejecutar una sola tarea a trabajar con varias al mismo tiempo.
Esta tecnología no es del todo nueva. Antes de que se pudieran integrar dos o más núcleos en el interior del chip ya existían equipos multiprocesadores. En estos convivian más de un chip sobre la misma placa base. Como te puedes imaginar eran muy caros y necesitaban placas bases especiales para hacerlos funcionar. La idea en esencia es la misma pero mucho mas eficiente al estar todo incluido dentro del mismo chip.
                                               
                           Qué es un GPU y cuales existen en el momento  


Que es un GPU?(Unidad de Procesamiento Grafico) 

Todos ( o por lo menos yo ),nos hacemos preguntas sobre la PC,una de estas,a veces,es que un GPU,unidad de procesamiento grafico,placa de video o tarjeta grafica,aqui la respuesta: 

La unidad de procesamiento gráfico o GPU (acrónimo del inglés graphics processing unit) es un procesador dedicado exclusivamente al procesamiento de gráficos, para aligerar la carga de trabajo del procesador central en aplicaciones como los videojuegos y o aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la CPU puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos). 

Una GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos. 

Ejemplo: 

 

Historia: 

Las modernas GPU son descendientes de los chips gráficos monolíticos de finales de la década de 1970 y 1980. Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de "display" y podían usar DMA para reducir la carga en el procesador anfitrión; un ejemplo temprano es el coprocesador ANTIC usado en el Atari 800 y el Atari 5200. Hacia finales de los 80 y principios de los 90, microprocesadores de propósito general de alta velocidad fueron muy populares para implementar los GPUs más avanzados. Muchas (muy caras) tarjetas gráficas para PCs y Estaciones de Trabajo usaban Procesadores Digitales de Señales (DSP por sus siglas en inglés) tales como la serie TMS340 de Texas Instruments, para implementar funciones de dibujo rápidas y muchas impresoras laser contenían un procesador de barrido de imágenes "PostScript" (un caso especial de GPU) corriendo en un procesador RISC como el AMD 29000. 

Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de buffer de "marcos"(frames), tal como VGA. Estos aceleradores gráficos de 2D "reducidos" no eran tan flexibles como los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de las primeras tarjetas de video para PC en implementar primitivas 2D en hardware. 

Diferencias con la CPU: 

Si bien en un computador genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy potentes y pueden incluso superar la frecuencia de reloj de una CPU antigua (más de 500MHz). Pero la potencia de las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para cálculo con valores en coma flotante, predominantes en los gráficos 3D. 

Por otro lado, muchas aplicaciones gráficas conllevan un alto grado de paralelismo inherente, al ser sus unidades fundamentales de cálculo (vértices y píxeles) completamente independientes. Por tanto, es una buena estrategia usar la fuerza bruta en las GPU para completar más calculos en el mismo tiempo. Los modelos actuales de GPU suelen tener una media docena de procesadores de vértices (que ejecutan Vertex Shaders), y hasta dos o tres veces más procesadores de fragmentos o píxeles (que ejecutan Pixel Shaders (O Fragment Shaders)). De este modo, una frecuencia de reloj de unos 600-800MHz (el estándar hoy en día en las GPU de más potencia), muy baja en comparación con lo ofrecido por las CPU (3.8-4 GHz en los modelos más potentes[no necesariamente más eficientes]), se traduce en una potencia de cálculo mucho mayor gracias a su arquitectura en paralelo. 

Una de las mayores diferencias con la CPU estriba en su arquitectura. A diferencia del procesador central, que tiene una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en paralelo, y la gran segmentación que posee la GPU para sus tareas. 

Arquitetura de la GPU: 

Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles. Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU. 

Adicionalmente, y no con menos importancia, se encuentra la memoria. Ésta destaca por su rapidez, y va a jugar un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen. 

Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de las figuras. Tras esto, se define la parte de estos vértices que se va a ver (clipping), y los vértices se transforman en píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU. 

Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado todo esto, y antes de almacenar los píxeles en la caché, se aplican algunos efectos como el antialiasing, blending y el efecto niebla. 

Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el frame buffer. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o generar una señal analógica a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un DAC, Digital-Analog Converter, para ser finalmente mostrados en pantalla. 

Programacion de la GPU: 

Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la BIOS. Tras esto, la programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a cada modelo. Posteriormente, se situó un nivel más entre el hardware y el software, diseñando las API (Application Program Interface), que proporcionaban un lenguaje más homogéneo para los modelos existentes en el mercado. El primer API usado ampliamente fue estándar abierto OpenGL (Open Graphics Language), tras el cuál Microsoft desarrolló DirectX. 

Tras el desarrollo de APIs, se decidió crear un lenguaje más natural y cercano al programador, es decir, desarrollar un lenguajes de alto nivel para gráficos. Por ello, de OpenGL y DirectX surgieron estas propuestas. El lenguaje estándar de alto nivel, asociado a la biblioteca OpenGL es el "OpenGL Shading Language", GLSL, implementado en principio por todos los fabricantes. La empresa californiana NVIDIA creó un lenguage propietario llamado Cg (del inglés, "C for graphics", con mejores resultados que GLSL en las pruebas de eficiencia. En colaboración con NVIDIA, Microsoft desarrolló su "High Level Shading Language", HLSL, prácticamente idéntico a Cg, pero con ciertas incompatibilidades menores. 

Fuente de Info:Wikipedia,Unidad de procesamiento Grafico o GPU. 

Bien,ahora viene la Info mia: 

Muchos creen,que porque una placa de video tiene 1 o 2GB de memoria,le va a andar el PES 2011,el GTA IV,y todos los juegos del 2010 y del 2011,esto no es cierto,lo que mas importa de la Placa de Video es el Reloj del Procesador. 
Muchos,en mercadolibre.com.ar han preguntado lo siguiente: 
-Hola,tenes placas de video de 512MB o de 1GB? 
Sin saber la marca,el modelo de la GPU o la velocidad del Reloj. 
Ahora bien,yo conozco gente que ha comprado la version hack de la GeForce2,a la misma le adhierieron 256MB de Video,y los clientes,desesperados por devolverla o por venderla o por pegarse un tiro en las bolas. 
Los parametros más importantes de la memoria de una placa de video son velocidad de reloj y ancho de la interfaz de memoria. Estos dos parametros en conjunto definen el ancho de banda de la memoria de una placa de video. No importa cuanta memoria tenga una placa de video, si su ancho de banda es precario y no satisface las necesidades de la GPU el rendimiento va a ser pobre. El ancho de banda de la memoria es igual a (FxB / 8 ) MB/s. En donde: 
F=Frecuencia efectiva DDR en MHz de la memoria. 
B=Numero de bits de la interfaz de memoria. 

Por ejemplo calculemos el ancho de banda de memoria de una Geforce 6800GS. Su velocidad de reloj efectiva DDR es 1000MHz y su interfaz de memoria es de 256 bits, entonces su ancho de banda es (1000MHz*256bits/8bits) = 32000MB/s = 32 GB/s. 

Recomendaciones a la hora de comprar una Placa de Video: 

1)Si ven una GeForce 9800 GX2 DDR3 512MB,y una ATI HD 4670 DDR2 de 1GB,escojan la GeForce,ya que esta cuenta con una memoria DDR3,que es superior a la DDR2,ya que esta cuenta con una velocidad mas potente. 
2)Una GPU debe estar acompañada de una memoria de calidad y con ancho de banda suficiente para satisfacer las necesidades de flujo de información que la misma exige. Por ejemplo la radeon X1300 512MB puede poseer una interfaz de memoria de 64bits, lo cual es muy malo, y una velocidad de la misma de 500MHz lo que da como resultado un precario ancho de banda de 4GB/s, En contraste una placa Media como una Radeon 9800PRO con 128MB de RAM( que posee una interfaz de memoria de 256bits y velocidad de la misma de 600Mhz, lo que da un ancho de banda de 19.2GB/s!!! (diferencia abismal) el cual es adecuado para los requerimientos de la GPU 9800PRO y nótese que aunque la X1300 tiene el cuádruple de memoria, la 9800PRO es mas de dos veces mas potente, no sólo por el ancho de banda de la memoria sino porque la GPU es mucho más potente. Ahora una placa de rango alto, digamos una 7800GT posee una ancho de banda de memoria de más de 30GB/s, adecuado a las necesidades de esa GPU que posee 20 render pipelines. 
3)Turbocache de nvidia e Hypermemory de ATI: 

Turbocache e Hypermemory son dos esquemas que han implementado nvidia y ATI para bajar los costos de fabricacion de sus placas low end. Estos dos esquemas por el momento solo estan presentes en la 6200TC de nvidia y la X1300 Hypermemory de ATI y solo aplica a PCI-e. Estos esquemas consisten en compartir parte de la memoria del sistema y utilizarla como memoria de video, de hecho las placas con estas tecnologias incluyen su memoria integrada, pero es un buffer mas pequeño y de 64 bits , sin embargo los fabricantes anuncian las placas como si tuvieran toda la memoria. Por ejemplo la 6200TC 256MB incluye solo 64MB de memoria en la placa , el resto tendran que ser compartidos con la memoria del sistema, esto reduce el rendimiento del sistema significativamente al correr un juego medianamante exigente. En conclusion las placas que utilzan estos esquemas no estan hechas para jugar ni para aplicaciones 3D exigentes, si se van a usar para cosas de oficina o video esta bien, pero para uso 3D debe quedar totalmente. descartadas. 

No hay comentarios:

Publicar un comentario