MICROPROCESADORES
Todos los transistores son iguales?
No todos son iguales, ni siquiera de tamaño. Por
ejemplo, dentro de un microchip los transistores necesitan tener una
alimentación. Esta, esta controlada por unos transistores de carga. Estos deben
de ser capaces de llevar por su interior toda la corriente que alimenta los
distintos bloques. Por lo tanto estos deben de ser de un tamaño mayor que los
transistores normales.
¿Cómo funciona un transistor?
Un transistor es un dispositivo que tiene 3
conexiones. La corriente pasa a través de dos ellas siempre y cuando la tercera
tenga un voltaje aplicado.
En definitiva, un transistor no es más que un
interruptor. Esta sencilla funcionalidad le permite ser capaz de llevar a cabo
cualquier tipo de operación lógica o matemática.
Al ser capaz de controlar una corriente usando un
voltaje el transistor es capaz de jugar con estas dos magnitudes. De aquí surge
su nombre, ya que transistor viene de juntar las palabras transfer resistor es
decir es capaz de transferir una determinada resistencia. Puede en un momento
bloquear una corriente, funcionando entonces como una resistencia muy grande, o
dejarla correr pasando a tener una pequeña resistencia.
La conexión entre los transistores puede ser entre
cualquiera de sus tres terminales. Dependiendo de cómo se conecten serán capaces
de realizar una u otra función.
RISCSi te es complicado llegar a ver como un dispositivo con tres terminales es capaz de hacer tanto, piensa que un microprocesador puede tener sin problemas mil millones de transistores, con lo cual lo que en esencia es un sencillo elemento se complica más y más.
En arquitectura computacional, RISC (del inglés Reduced Instruction Set Computer, en español Computador con Conjunto de Instrucciones Reducidas) es un tipo de diseño de CPU generalmente utilizado en microprocesadores o microcontroladores con las siguientes características fundamentales:
- Instrucciones de tamaño fijo y presentadas en un reducido número de formatos.
- Sólo las instrucciones de carga y almacenamiento acceden a la memoria de datos.
Además estos procesadores suelen disponer de muchos registros de propósito general.
El objetivo de diseñar máquinas con esta arquitectura es posibilitar la segmentación y el paralelismo en la ejecución de instrucciones y reducir los accesos a memoria. Las máquinas RISC protagonizan la tendencia actual de construcción de microprocesadores. PowerPC, DEC Alpha, MIPS,ARM, SPARC son ejemplos de algunos de ellos.
RISC es una filosofía de diseño de CPU para computadora que está a favor de conjuntos de instrucciones pequeñas y simples que toman menor tiempo para ejecutarse. El tipo de procesador más comúnmente utilizado en equipos de escritorio, el x86, está basado en CISC en lugar de RISC, aunque las versiones más nuevas traducen instrucciones basadas en CISC x86 a instrucciones más simples basadas en RISC para uso interno antes de su ejecución.
La idea fue inspirada por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta. Esto conllevó la aparición de numerosas técnicas para reducir el procesamiento dentro del CPU, así como de reducir el número total de accesos a memoria.
Terminología más moderna se refiere a esos diseños como arquitecturas de carga-almacenamiento.
FUENTES DE PODER
Cuando se habla de fuente de
poder, (o, en ocasiones, de fuente de alimentación y fuente de energía), se hace referencia al sistema que otorga
la electricidad imprescindible para alimentar a equipos como ordenadores
o computadoras. Generalmente, en las PC de
escritorio, la ya citada fuente de poder se localiza en la parte posterior del
gabinete y es complementada por un ventilador que impide que el dispositivo se
recaliente. La fuente de poder, por lo tanto, puede describirse
como una fuente de tipo eléctrico que logra transmitir
corriente eléctrica por la generación de una diferencia de potencial entre sus
bornes. Se desarrolla en base a una fuente.
Publicado
por luz angelalopez peñafiel en 12:37 No hay
comentarios:
![http://img2.blogblog.com/img/icon18_edit_allbkg.gif](file:///C:/Users/TERCER/AppData/Local/Temp/msohtmlclip1/01/clip_image001.gif)
TARJETAS DE EXPANSION
Tarjeta
de circuitos integrados conectable al bus (trayectoria principal de
transferencia de datos) de una computadora a través de los zócalos de
expansión. Las tarjetas de expansión típicas sirven para añadir memoria,
controladoras de unidad de disco, controladoras de vídeo, puertos serie o
paralelo y dispositivos de módem internos. Por lo general, se suelen utilizar
indistintamente los términos placa y tarjeta para referirse a todas las
tarjetas de expansión. Véase también Ordenador o computadora;
Placa de circuito impreso.
BUS
DE EXPANSION: es un elemento de la placa base de un
ordenador que permite conectar a ésta una tarjeta adaptadora adicional o de
expansión, la cual suele realizar funciones de control de dispositivos
periféricos adicionales, tales como monitores, impresoras o unidades de disco.
En las tarjetas madre del tipo LPX los slots de expansión no se encuentran
sobre la placa sino en un conector especial denominado risercard.
Tipos
de tarjetas de expansión
Dependiendo la
función de cada una, es posible clasificarlas de la siguiente manera (por
supuesto no se descarta la existencia de mas tipos), sin embargo las mas
utilizadas son las siguientes que se enlistan en las ligas:
Interrupción
(IRQ):es una señal
recibida por el procesador de un ordenador, indicando que debe
"interrumpir" el curso de ejecución actual y pasar a ejecutar código
específico para tratar esta situación.Una interrupción es una suspensión
temporal de la ejecución de un proceso, para pasar a ejecutar una subrutina
de servicio
de interrupción, la cual, por lo general, no forma parte del
programa (generalmente perteneciente al sistema operativo, o al BIOS). Luego de finalizada dicha subrutina, se reanuda
la ejecución del programa. Las interrupciones
surgen de las necesidades que tienen los dispositivos
periféricos de enviar información al procesador principal de un sistema de
computación. La primera técnica que se empleó fue que el propio procesador se
encargara de sondear (polling)
los dispositivos cada cierto tiempo para averiguar si tenía pendiente alguna
comunicación para él. Este método presentaba el inconveniente de ser muy
ineficiente.
UNIDADES DE
ALMACENAMIENTO
Cuando
se ejecuta un programa, el registro de la CPU, llamado contador de programa,
lleva la cuenta de la siguiente instrucción, para garantizar que las
instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la
CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la
siguiente instrucción desde la memoria. En una secuencia típica, la CPU
localiza la instrucción en el dispositivo de almacenamiento correspondiente. La
instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena
en el registro de instrucción. Entretanto, el contador de programa se
incrementa en uno para prepararse para la siguiente instrucción. A
continuación, la instrucción actual es analizada por un descodificador
Partes del disco duro
Dentro de un disco duro hay
uno o varios discos (de aluminio o cristal) concéntricos
llamados platos (normalmente entre 2 y 4, aunque pueden ser
hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al
que están unidos. El cabezal (dispositivo de lectura y
escritura) está formado por un conjunto de brazos paralelos a los
platos, alineados verticalmente y que también se desplazan de forma simultánea,
en cuya punta están las cabezas de lectura/escritura. Por norma general hay una
cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales
pueden moverse hacia el interior o el exterior de los platos, lo cual combinado
con la rotación de los mismos permite que los cabezales puedan alcanzar
cualquier posición de la superficie de los platos.
Características principales de rendimiento de
un disco duro
Cada plato posee dos ojos, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros).
Interfaces del disco duro: Tipos de interfaz:
• IDE (IntegratedDeviceElectronics: o ATA (AdvancedTechnologyAttachment), controla los dispositivos de almacenamiento masivo de datos como los discos duros y ATAPI (AdvancedTechnologyAttachmentPacket Interface).
• SCSI: Son discos duros de gran capacidad de almacenamiento. Se presentan bajo tres especificaciones:
• SCSI estándar (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 5 Mbps)
• SCSI rápido (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 10 Mbps)
• SCSI ancho-rápido (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 20 Mbps)
• SATA: serial ATA. Utiliza un bus de serie para la transmisión de datos. Más rápidos y eficientes que los IDE.
• SAS (Serial AttachedScsi): evolución de la interfaz SCSI, utilizada habitualmente en entornos empresariales de alto rendimiento. Mejora la velocidad de transferencia, actualmente son 3 GB/s nominales y en un futuro no muy lejano se esperan alcanzar los 6 GB/s.
Organizan los datos en un disco duro
Cada plato posee dos ojos, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros).
Interfaces del disco duro: Tipos de interfaz:
• IDE (IntegratedDeviceElectronics: o ATA (AdvancedTechnologyAttachment), controla los dispositivos de almacenamiento masivo de datos como los discos duros y ATAPI (AdvancedTechnologyAttachmentPacket Interface).
• SCSI: Son discos duros de gran capacidad de almacenamiento. Se presentan bajo tres especificaciones:
• SCSI estándar (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 5 Mbps)
• SCSI rápido (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 10 Mbps)
• SCSI ancho-rápido (T. medio de acceso 7 mseg y velocidad de transmisión secuencial de información 20 Mbps)
• SATA: serial ATA. Utiliza un bus de serie para la transmisión de datos. Más rápidos y eficientes que los IDE.
• SAS (Serial AttachedScsi): evolución de la interfaz SCSI, utilizada habitualmente en entornos empresariales de alto rendimiento. Mejora la velocidad de transferencia, actualmente son 3 GB/s nominales y en un futuro no muy lejano se esperan alcanzar los 6 GB/s.
Organizan los datos en un disco duro
En
los ordenadores o computadoras, unidad de almacenamiento permanente de gran
capacidad. Está formado por varios discos apilados —dos o más—, normalmente de
aluminio o vidrio, recubiertos de un material ferromagnético. Como en los
disquetes, una cabeza de lectura/escritura permite grabar la información,
modificando las propiedades magnéticas del material de la superficie, y leerla
posteriormente; esta operación se puede hacer un gran número de veces. La mayor
parte de los discos duros son fijos, es decir, están alojados en el ordenador
de forma permanente. Existen también discos duros removibles, como los
discos Jaz de Iomega, que se utilizan generalmente para hacer backup —copias
de seguridad de los discos duros— o para transferir grandes cantidades de
información de un ordenador a otro.
Unidad de disco flexible: la unidad de disco— donde
una cabeza de lectura/escritura puede escribir información alterando la
orientación magnética de las partículas de su superficie. Por un procedimiento
similar, esta cabeza es capaz de leer la información almacenada.,y pronto se convirtieron
en el medio más utilizado para intercambiar información —software y
archivos— entre ordenadores. La complejidad de los programas y el tamaño de
algunos archivos de bases de datos o imágenes, hizo que los disquetes fuesen
insuficientes para esta tarea y, a mediados de la década de 1990, fueron
progresivamente sustituidos por CD-ROM.
Medio
flexible: en ordenadores o computadoras, un
elemento plano, de forma circular, elaborado sobre un material plástico,
denominado mylar, y recubierto por una sustancia magnetizable,
normalmente óxido de hierro. Se utilizan para almacenar información de
naturaleza informática, para lo cual se insertan en un dispositivo —la unidad
de disco— donde una cabeza de lectura/escritura puede escribir información
alterando la orientación magnética de las partículas de su superficie. Por un
procedimiento similar, esta cabeza es capaz de leer la información almacenada.
Unidad óptica: En informática, una unidad de disco óptico es
una unidad de
disco que
usa una luz láser u ondas electromagnéticas cercanas al espectro de la luzcomo parte del proceso de lectura o
escritura de datos desde un archivo a discos
ópticos.
Algunas unidades solo pueden leer discos, pero las unidades más recientes
usualmente son tanto lectoras como grabadoras.
Para referirse a las unidades con ambas capacidades se suele usar el
término lectograbadora. Los discos
compactos (CD), DVD, y Blu-ray Disc son
los tipos de medios ópticos más comunes que pueden ser leídos y grabados por
estas unidades.
Medio
óptico: ordenador o computadora que
utiliza un haz luminoso para detectar los patrones de luz y oscuridad (o los
colores) de la superficie del papel, convirtiendo la imagen en señales
digitales que se pueden manipular por medio de un software de
tratamiento de imágenes o con reconocimiento óptico de caracteres. Un tipo de
escáner utilizado con frecuencia es el flatbed, que significa
que el dispositivo de barrido se desplaza a lo largo de un documento fijo.
Velocidades
de las diferentes unidades de almacenamiento
También existen discos duros externos que
permiten almacenar grandes cantidades de información. Son muy útiles para
intercambiar información entre dos equipos. Normalmente se conectan al PC mediante
un conector USB.
Para intercambiar información con otros equipos (si no están conectados en red)
se tienen que utilizar unidades de disco, como los disquetes, los discos
ópticos (CD,
DVD), los discos magneto-ópticos, memorias
USB o las memorias flash,
entre otros.El disco duro almacena casi toda la información que manejamos al
trabajar con una computadora. En él se aloja, por ejemplo, el sistema operativo que
permite arrancar la máquina, los programas, archivos de texto,
imagen, vídeo, etc. Dicha unidad puede ser interna (fija) o externa(portátil),
dependiendo del lugar que ocupe en el gabinete o caja de computadora.Un
disco duro está formado por varios discos apilados sobre los que se mueve una
pequeña cabeza magnética que graba y lee la información.
núcleo en un procesador
Las mejoras producidas en las tecnologías de fabricación permiten a los fabricantes reducir el tamaño de los elementos que componen los procesadores. La meta final es que el micro se convierta en unSOC y todo el sistema, o al menos la placa base, este integrada en su interior.
¿Qué es por tanto un núcleo?
Un procesador funciona leyendo instrucciones y datos, los procesa y da lugar a resultados. Un núcleo, no es más que el bloque encargado de ejecutar las instrucciones.
La disminución en el tamaño de los transistores con los que se crea todo dentro de un micro permite a los ingenieros tener más espacio libre. Esto les permite poder duplicar o incluso triplicar estos bloques. De esta forma pasamos de poder ejecutar una sola tarea a trabajar con varias al mismo tiempo.
Esta tecnología no es del todo nueva. Antes de que se pudieran integrar dos o más núcleos en el interior del chip ya existían equipos multiprocesadores. En estos convivian más de un chip sobre la misma placa base. Como te puedes imaginar eran muy caros y necesitaban placas bases especiales para hacerlos funcionar. La idea en esencia es la misma pero mucho mas eficiente al estar todo incluido dentro del mismo chip.
Qué es un GPU y cuales existen en el momento
Qué es un GPU y cuales existen en el momento
Que es un GPU?(Unidad de Procesamiento Grafico)
Todos ( o por lo menos yo ),nos hacemos preguntas sobre la PC,una de estas,a veces,es que un GPU,unidad de procesamiento grafico,placa de video o tarjeta grafica,aqui la respuesta:
La unidad de procesamiento gráfico o GPU (acrónimo del inglés graphics processing unit) es un procesador dedicado exclusivamente al procesamiento de gráficos, para aligerar la carga de trabajo del procesador central en aplicaciones como los videojuegos y o aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la CPU puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).
Una GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos.
Ejemplo:
Historia:
Las modernas GPU son descendientes de los chips gráficos monolíticos de finales de la década de 1970 y 1980. Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de "display" y podían usar DMA para reducir la carga en el procesador anfitrión; un ejemplo temprano es el coprocesador ANTIC usado en el Atari 800 y el Atari 5200. Hacia finales de los 80 y principios de los 90, microprocesadores de propósito general de alta velocidad fueron muy populares para implementar los GPUs más avanzados. Muchas (muy caras) tarjetas gráficas para PCs y Estaciones de Trabajo usaban Procesadores Digitales de Señales (DSP por sus siglas en inglés) tales como la serie TMS340 de Texas Instruments, para implementar funciones de dibujo rápidas y muchas impresoras laser contenían un procesador de barrido de imágenes "PostScript" (un caso especial de GPU) corriendo en un procesador RISC como el AMD 29000.
Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de buffer de "marcos"(frames), tal como VGA. Estos aceleradores gráficos de 2D "reducidos" no eran tan flexibles como los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de las primeras tarjetas de video para PC en implementar primitivas 2D en hardware.
Diferencias con la CPU:
Si bien en un computador genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy potentes y pueden incluso superar la frecuencia de reloj de una CPU antigua (más de 500MHz). Pero la potencia de las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para cálculo con valores en coma flotante, predominantes en los gráficos 3D.
Por otro lado, muchas aplicaciones gráficas conllevan un alto grado de paralelismo inherente, al ser sus unidades fundamentales de cálculo (vértices y píxeles) completamente independientes. Por tanto, es una buena estrategia usar la fuerza bruta en las GPU para completar más calculos en el mismo tiempo. Los modelos actuales de GPU suelen tener una media docena de procesadores de vértices (que ejecutan Vertex Shaders), y hasta dos o tres veces más procesadores de fragmentos o píxeles (que ejecutan Pixel Shaders (O Fragment Shaders)). De este modo, una frecuencia de reloj de unos 600-800MHz (el estándar hoy en día en las GPU de más potencia), muy baja en comparación con lo ofrecido por las CPU (3.8-4 GHz en los modelos más potentes[no necesariamente más eficientes]), se traduce en una potencia de cálculo mucho mayor gracias a su arquitectura en paralelo.
Una de las mayores diferencias con la CPU estriba en su arquitectura. A diferencia del procesador central, que tiene una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en paralelo, y la gran segmentación que posee la GPU para sus tareas.
Arquitetura de la GPU:
Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles. Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU.
Adicionalmente, y no con menos importancia, se encuentra la memoria. Ésta destaca por su rapidez, y va a jugar un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.
Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de las figuras. Tras esto, se define la parte de estos vértices que se va a ver (clipping), y los vértices se transforman en píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU.
Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado todo esto, y antes de almacenar los píxeles en la caché, se aplican algunos efectos como el antialiasing, blending y el efecto niebla.
Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el frame buffer. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o generar una señal analógica a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un DAC, Digital-Analog Converter, para ser finalmente mostrados en pantalla.
Programacion de la GPU:
Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la BIOS. Tras esto, la programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a cada modelo. Posteriormente, se situó un nivel más entre el hardware y el software, diseñando las API (Application Program Interface), que proporcionaban un lenguaje más homogéneo para los modelos existentes en el mercado. El primer API usado ampliamente fue estándar abierto OpenGL (Open Graphics Language), tras el cuál Microsoft desarrolló DirectX.
Tras el desarrollo de APIs, se decidió crear un lenguaje más natural y cercano al programador, es decir, desarrollar un lenguajes de alto nivel para gráficos. Por ello, de OpenGL y DirectX surgieron estas propuestas. El lenguaje estándar de alto nivel, asociado a la biblioteca OpenGL es el "OpenGL Shading Language", GLSL, implementado en principio por todos los fabricantes. La empresa californiana NVIDIA creó un lenguage propietario llamado Cg (del inglés, "C for graphics", con mejores resultados que GLSL en las pruebas de eficiencia. En colaboración con NVIDIA, Microsoft desarrolló su "High Level Shading Language", HLSL, prácticamente idéntico a Cg, pero con ciertas incompatibilidades menores.
Fuente de Info:Wikipedia,Unidad de procesamiento Grafico o GPU.
Bien,ahora viene la Info mia:
Muchos creen,que porque una placa de video tiene 1 o 2GB de memoria,le va a andar el PES 2011,el GTA IV,y todos los juegos del 2010 y del 2011,esto no es cierto,lo que mas importa de la Placa de Video es el Reloj del Procesador.
Muchos,en mercadolibre.com.ar han preguntado lo siguiente:
-Hola,tenes placas de video de 512MB o de 1GB?
Sin saber la marca,el modelo de la GPU o la velocidad del Reloj.
Ahora bien,yo conozco gente que ha comprado la version hack de la GeForce2,a la misma le adhierieron 256MB de Video,y los clientes,desesperados por devolverla o por venderla o por pegarse un tiro en las bolas.
Los parametros más importantes de la memoria de una placa de video son velocidad de reloj y ancho de la interfaz de memoria. Estos dos parametros en conjunto definen el ancho de banda de la memoria de una placa de video. No importa cuanta memoria tenga una placa de video, si su ancho de banda es precario y no satisface las necesidades de la GPU el rendimiento va a ser pobre. El ancho de banda de la memoria es igual a (FxB / 8 ) MB/s. En donde:
F=Frecuencia efectiva DDR en MHz de la memoria.
B=Numero de bits de la interfaz de memoria.
Por ejemplo calculemos el ancho de banda de memoria de una Geforce 6800GS. Su velocidad de reloj efectiva DDR es 1000MHz y su interfaz de memoria es de 256 bits, entonces su ancho de banda es (1000MHz*256bits/8bits) = 32000MB/s = 32 GB/s.
Recomendaciones a la hora de comprar una Placa de Video:
1)Si ven una GeForce 9800 GX2 DDR3 512MB,y una ATI HD 4670 DDR2 de 1GB,escojan la GeForce,ya que esta cuenta con una memoria DDR3,que es superior a la DDR2,ya que esta cuenta con una velocidad mas potente.
2)Una GPU debe estar acompañada de una memoria de calidad y con ancho de banda suficiente para satisfacer las necesidades de flujo de información que la misma exige. Por ejemplo la radeon X1300 512MB puede poseer una interfaz de memoria de 64bits, lo cual es muy malo, y una velocidad de la misma de 500MHz lo que da como resultado un precario ancho de banda de 4GB/s, En contraste una placa Media como una Radeon 9800PRO con 128MB de RAM( que posee una interfaz de memoria de 256bits y velocidad de la misma de 600Mhz, lo que da un ancho de banda de 19.2GB/s!!! (diferencia abismal) el cual es adecuado para los requerimientos de la GPU 9800PRO y nótese que aunque la X1300 tiene el cuádruple de memoria, la 9800PRO es mas de dos veces mas potente, no sólo por el ancho de banda de la memoria sino porque la GPU es mucho más potente. Ahora una placa de rango alto, digamos una 7800GT posee una ancho de banda de memoria de más de 30GB/s, adecuado a las necesidades de esa GPU que posee 20 render pipelines.
3)Turbocache de nvidia e Hypermemory de ATI:
Turbocache e Hypermemory son dos esquemas que han implementado nvidia y ATI para bajar los costos de fabricacion de sus placas low end. Estos dos esquemas por el momento solo estan presentes en la 6200TC de nvidia y la X1300 Hypermemory de ATI y solo aplica a PCI-e. Estos esquemas consisten en compartir parte de la memoria del sistema y utilizarla como memoria de video, de hecho las placas con estas tecnologias incluyen su memoria integrada, pero es un buffer mas pequeño y de 64 bits , sin embargo los fabricantes anuncian las placas como si tuvieran toda la memoria. Por ejemplo la 6200TC 256MB incluye solo 64MB de memoria en la placa , el resto tendran que ser compartidos con la memoria del sistema, esto reduce el rendimiento del sistema significativamente al correr un juego medianamante exigente. En conclusion las placas que utilzan estos esquemas no estan hechas para jugar ni para aplicaciones 3D exigentes, si se van a usar para cosas de oficina o video esta bien, pero para uso 3D debe quedar totalmente. descartadas.
Todos ( o por lo menos yo ),nos hacemos preguntas sobre la PC,una de estas,a veces,es que un GPU,unidad de procesamiento grafico,placa de video o tarjeta grafica,aqui la respuesta:
La unidad de procesamiento gráfico o GPU (acrónimo del inglés graphics processing unit) es un procesador dedicado exclusivamente al procesamiento de gráficos, para aligerar la carga de trabajo del procesador central en aplicaciones como los videojuegos y o aplicaciones 3D interactivas. De esta forma, mientras gran parte de lo relacionado con los gráficos se procesa en la GPU, la CPU puede dedicarse a otro tipo de cálculos (como la inteligencia artificial o los cálculos mecánicos en el caso de los videojuegos).
Una GPU implementa ciertas operaciones gráficas llamadas primitivas optimizadas para el procesamiento gráfico. Una de las primitivas más comunes para el procesamiento gráfico en 3D es el antialiasing, que suaviza los bordes de las figuras para darles un aspecto más realista. Adicionalmente existen primitivas para dibujar rectángulos, triángulos, círculos y arcos. Las GPU actualmente disponen de gran cantidad de primitivas, buscando mayor realismo en los efectos.
Ejemplo:
![](https://blogger.googleusercontent.com/img/b/R29vZ2xl/AVvXsEjJOlyNPq80iEJc7s61GoextT7nBj0lRdvM2IBBnWVaZnFBYFOaaMBNExObsZtSFa8QqGXzvryfAHN2GhekjURpzGDeTOxrDvXZvcuVEzCJEquRGLNp5Psu0Glh41NNSy6Q-r7nEfH6CkgC/s1600/gbt-6600gt-3d.jpg)
Historia:
Las modernas GPU son descendientes de los chips gráficos monolíticos de finales de la década de 1970 y 1980. Estos chips tenían soporte BitBLT limitado en la forma de sprites (si es que tenían dicho soporte del todo), y usualmente no tenían soporte para dibujo de figuras. Algunos GPU podían ejecutar varias operaciones en una lista de "display" y podían usar DMA para reducir la carga en el procesador anfitrión; un ejemplo temprano es el coprocesador ANTIC usado en el Atari 800 y el Atari 5200. Hacia finales de los 80 y principios de los 90, microprocesadores de propósito general de alta velocidad fueron muy populares para implementar los GPUs más avanzados. Muchas (muy caras) tarjetas gráficas para PCs y Estaciones de Trabajo usaban Procesadores Digitales de Señales (DSP por sus siglas en inglés) tales como la serie TMS340 de Texas Instruments, para implementar funciones de dibujo rápidas y muchas impresoras laser contenían un procesador de barrido de imágenes "PostScript" (un caso especial de GPU) corriendo en un procesador RISC como el AMD 29000.
Conforme la tecnología de proceso de semiconductores fue mejorando, eventualmente fue posible mover las funciones de dibujo y las BitBLT a la misma placa y posteriormente al mismo chip a manera de un controlador de buffer de "marcos"(frames), tal como VGA. Estos aceleradores gráficos de 2D "reducidos" no eran tan flexibles como los basados en microprocesadores, pero eran mucho más fáciles de hacer y vender. La Commodore AMIGA fue la primera computadora de producción en masa que incluía una unidad blitter y el sistema gráfico IBM 8514 fue una de las primeras tarjetas de video para PC en implementar primitivas 2D en hardware.
Diferencias con la CPU:
Si bien en un computador genérico no es posible reemplazar la CPU por una GPU, hoy en día las GPU son muy potentes y pueden incluso superar la frecuencia de reloj de una CPU antigua (más de 500MHz). Pero la potencia de las GPU y su dramático ritmo de desarrollo reciente se deben a dos factores diferentes. El primer factor es la alta especialización de las GPU, ya que al estar pensadas para desarrollar una sola tarea, es posible dedicar más silicio en su diseño para llevar a cabo esa tarea más eficientemente. Por ejemplo, las GPU actuales están optimizadas para cálculo con valores en coma flotante, predominantes en los gráficos 3D.
Por otro lado, muchas aplicaciones gráficas conllevan un alto grado de paralelismo inherente, al ser sus unidades fundamentales de cálculo (vértices y píxeles) completamente independientes. Por tanto, es una buena estrategia usar la fuerza bruta en las GPU para completar más calculos en el mismo tiempo. Los modelos actuales de GPU suelen tener una media docena de procesadores de vértices (que ejecutan Vertex Shaders), y hasta dos o tres veces más procesadores de fragmentos o píxeles (que ejecutan Pixel Shaders (O Fragment Shaders)). De este modo, una frecuencia de reloj de unos 600-800MHz (el estándar hoy en día en las GPU de más potencia), muy baja en comparación con lo ofrecido por las CPU (3.8-4 GHz en los modelos más potentes[no necesariamente más eficientes]), se traduce en una potencia de cálculo mucho mayor gracias a su arquitectura en paralelo.
Una de las mayores diferencias con la CPU estriba en su arquitectura. A diferencia del procesador central, que tiene una arquitectura de von Neumann, la GPU se basa en el Modelo Circulante. Este modelo facilita el procesamiento en paralelo, y la gran segmentación que posee la GPU para sus tareas.
Arquitetura de la GPU:
Una GPU está altamente segmentada, lo que indica que posee gran cantidad de unidades funcionales. Estas unidades funcionales se pueden dividir principalmente en dos: aquéllas que procesan vértices, y aquéllas que procesan píxeles. Por tanto, se establecen el vértice y el píxel como las principales unidades que maneja la GPU.
Adicionalmente, y no con menos importancia, se encuentra la memoria. Ésta destaca por su rapidez, y va a jugar un papel relevante a la hora de almacenar los resultados intermedios de las operaciones y las texturas que se utilicen.
Inicialmente, a la GPU le llega la información de la CPU en forma de vértices. El primer tratamiento que reciben estos vértices se realiza en el vertex shader. Aquí se realizan transformaciones como la rotación o el movimiento de las figuras. Tras esto, se define la parte de estos vértices que se va a ver (clipping), y los vértices se transforman en píxeles mediante el proceso de rasterización. Estas etapas no poseen una carga relevante para la GPU.
Donde sí se encuentra el principal cuello de botella del chip gráfico es en el siguiente paso: el pixel shader. Aquí se realizan las transformaciones referentes a los píxeles, tales como la aplicación de texturas. Cuando se ha realizado todo esto, y antes de almacenar los píxeles en la caché, se aplican algunos efectos como el antialiasing, blending y el efecto niebla.
Otras unidades funcionales llamadas ROP toman la información guardada en la caché y preparan los píxeles para su visualización. También pueden encargarse de aplicar algunos efectos. Tras esto, se almacena la salida en el frame buffer. Ahora hay dos opciones: o tomar directamente estos píxeles para su representación en un monitor digital, o generar una señal analógica a partir de ellos, para monitores analógicos. Si es este último caso, han de pasar por un DAC, Digital-Analog Converter, para ser finalmente mostrados en pantalla.
Programacion de la GPU:
Al inicio, la programación de la GPU se realizaba con llamadas a servicios de interrupción de la BIOS. Tras esto, la programación de la GPU se empezó a hacer en el lenguaje ensamblador específico a cada modelo. Posteriormente, se situó un nivel más entre el hardware y el software, diseñando las API (Application Program Interface), que proporcionaban un lenguaje más homogéneo para los modelos existentes en el mercado. El primer API usado ampliamente fue estándar abierto OpenGL (Open Graphics Language), tras el cuál Microsoft desarrolló DirectX.
Tras el desarrollo de APIs, se decidió crear un lenguaje más natural y cercano al programador, es decir, desarrollar un lenguajes de alto nivel para gráficos. Por ello, de OpenGL y DirectX surgieron estas propuestas. El lenguaje estándar de alto nivel, asociado a la biblioteca OpenGL es el "OpenGL Shading Language", GLSL, implementado en principio por todos los fabricantes. La empresa californiana NVIDIA creó un lenguage propietario llamado Cg (del inglés, "C for graphics", con mejores resultados que GLSL en las pruebas de eficiencia. En colaboración con NVIDIA, Microsoft desarrolló su "High Level Shading Language", HLSL, prácticamente idéntico a Cg, pero con ciertas incompatibilidades menores.
Fuente de Info:Wikipedia,Unidad de procesamiento Grafico o GPU.
Bien,ahora viene la Info mia:
Muchos creen,que porque una placa de video tiene 1 o 2GB de memoria,le va a andar el PES 2011,el GTA IV,y todos los juegos del 2010 y del 2011,esto no es cierto,lo que mas importa de la Placa de Video es el Reloj del Procesador.
Muchos,en mercadolibre.com.ar han preguntado lo siguiente:
-Hola,tenes placas de video de 512MB o de 1GB?
Sin saber la marca,el modelo de la GPU o la velocidad del Reloj.
Ahora bien,yo conozco gente que ha comprado la version hack de la GeForce2,a la misma le adhierieron 256MB de Video,y los clientes,desesperados por devolverla o por venderla o por pegarse un tiro en las bolas.
Los parametros más importantes de la memoria de una placa de video son velocidad de reloj y ancho de la interfaz de memoria. Estos dos parametros en conjunto definen el ancho de banda de la memoria de una placa de video. No importa cuanta memoria tenga una placa de video, si su ancho de banda es precario y no satisface las necesidades de la GPU el rendimiento va a ser pobre. El ancho de banda de la memoria es igual a (FxB / 8 ) MB/s. En donde:
F=Frecuencia efectiva DDR en MHz de la memoria.
B=Numero de bits de la interfaz de memoria.
Por ejemplo calculemos el ancho de banda de memoria de una Geforce 6800GS. Su velocidad de reloj efectiva DDR es 1000MHz y su interfaz de memoria es de 256 bits, entonces su ancho de banda es (1000MHz*256bits/8bits) = 32000MB/s = 32 GB/s.
Recomendaciones a la hora de comprar una Placa de Video:
1)Si ven una GeForce 9800 GX2 DDR3 512MB,y una ATI HD 4670 DDR2 de 1GB,escojan la GeForce,ya que esta cuenta con una memoria DDR3,que es superior a la DDR2,ya que esta cuenta con una velocidad mas potente.
2)Una GPU debe estar acompañada de una memoria de calidad y con ancho de banda suficiente para satisfacer las necesidades de flujo de información que la misma exige. Por ejemplo la radeon X1300 512MB puede poseer una interfaz de memoria de 64bits, lo cual es muy malo, y una velocidad de la misma de 500MHz lo que da como resultado un precario ancho de banda de 4GB/s, En contraste una placa Media como una Radeon 9800PRO con 128MB de RAM( que posee una interfaz de memoria de 256bits y velocidad de la misma de 600Mhz, lo que da un ancho de banda de 19.2GB/s!!! (diferencia abismal) el cual es adecuado para los requerimientos de la GPU 9800PRO y nótese que aunque la X1300 tiene el cuádruple de memoria, la 9800PRO es mas de dos veces mas potente, no sólo por el ancho de banda de la memoria sino porque la GPU es mucho más potente. Ahora una placa de rango alto, digamos una 7800GT posee una ancho de banda de memoria de más de 30GB/s, adecuado a las necesidades de esa GPU que posee 20 render pipelines.
3)Turbocache de nvidia e Hypermemory de ATI:
Turbocache e Hypermemory son dos esquemas que han implementado nvidia y ATI para bajar los costos de fabricacion de sus placas low end. Estos dos esquemas por el momento solo estan presentes en la 6200TC de nvidia y la X1300 Hypermemory de ATI y solo aplica a PCI-e. Estos esquemas consisten en compartir parte de la memoria del sistema y utilizarla como memoria de video, de hecho las placas con estas tecnologias incluyen su memoria integrada, pero es un buffer mas pequeño y de 64 bits , sin embargo los fabricantes anuncian las placas como si tuvieran toda la memoria. Por ejemplo la 6200TC 256MB incluye solo 64MB de memoria en la placa , el resto tendran que ser compartidos con la memoria del sistema, esto reduce el rendimiento del sistema significativamente al correr un juego medianamante exigente. En conclusion las placas que utilzan estos esquemas no estan hechas para jugar ni para aplicaciones 3D exigentes, si se van a usar para cosas de oficina o video esta bien, pero para uso 3D debe quedar totalmente. descartadas.
No hay comentarios:
Publicar un comentario