Avisar de contenido inadecuado

Monitores, impresoras y microprocesadores

{
}

Una impresora es un periférico de ordenador que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnología láser. Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen un interfaz de red interno (típicamente wireless o Ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.

Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas Compact Flash, Secure Digital o Memory Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.

Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y el coste por página es relativamente alto.

Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más.

Las impresoras han aumentado su calidad y rendimiento, lo que ha permitido que los usuarios puedan realizar en su impresora local trabajos que solían realizarse en tiendas especializadas en impresión.

 

Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su coste.

Tres años más tarde surgió el monitor EGA (Enhaced Graphics Adapter) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.

Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.

Tipos de monitores

Monitores CRT

Artículo principal: Monitor de tubo de rayos catódicos

Los primeros monitores eran monitores de tubo de rayos catódicos (CRT), completamente analógicos, realizaban un barrido de la señal a lo largo de la pantalla produciendo cambios de tensión en cada punto, generando así imágenes.

Monitores plasma

No mucho más tarde que los LCD se desarrolló la tecnología del plasma, que parecía iba a desbancar al LCD, sin embargo actualmente siguen ambas tecnologías vivas. En el presente se están desarrollando monitores de unas 30 pulgadas de plasma, normalmente estos monitores tienden a ser más grandes que los LCD ya que cuanto más grandes son estos monitores mejor es la relación tamaño-calidad/precio y marca.

Monitores LED [editar]

Hace poco surgió una nueva tecnología usando LED , disponiéndolos como forma de retroalimentación LED a los LCD, sustituyendo al fluorescente , más conocido como LED backlight. No hay que confundirlos con las pantallas OLED, completamente flexibles, económicas y de poco consumo, que se utilizan para dispositivos pequeños como PDA o móviles.

Ya han salido al mercado los primeros monitores LED económicos, aunque más caros que los actuales LCD. Rondan tamaños de entre 20 y 24 pulgadas, tienen un consumo menor, mejor contraste y son algo más ecológicos en su fabricación. Su aspecto es muy similar a los LCD, un poco más finos.

Por otra parte se están desarrollando pantallas LED basada también en LED, estas pantallas tienen tres LED de cada color RGB para formar los pixels, encendiéndose a distintas intensidades.

Tecnologías

Monitores analógicos

Los monitores CRT usan las señales de vídeo analógico roja, verde y azul en intensidades variables para generar colores en el espacio de color RGB. Éstos han usado prácticamente de forma exclusiva escaneo progresivo desde mediados de la década de los 80.

Mientras muchos de los primeros monitores de plasma y cristal líquido tenían exclusivamente conexiones analógicas, todas las señales de estos monitores atraviesan una sección completamente digital antes de la visualización.

Los estándares más conocidos de vídeo analógico son VGA,SVGA éste último desarrollado Video Electronics Standards Association (VESA), soportan resoluciones de 800x600 píxeles y 24 bits de profundidad de color siguiendo la codificación RGB, siguiendo la especificación VESA cuyo estándar es abierto.

Mientras que conectores similares (13W3, BNC, etc…) se fueron usando en otras plataformas, el IBM PC y los sistemas compatibles se estandarizaron en el conector VGA.

Todos estos estándares fueron diseñados para dispositivos CRT (tubo de rayos catódicos o tubo catódico). La fuente varía su tensión de salida con cada línea que emite para representar el brillo deseado. En una pantalla CRT, esto se usa para asignar al rayo la intensidad adecuada mientras éste se va desplazando por la pantalla.

 

Desde el punto de vista funcional, un microprocesador es un circuito integrado que incorpora en su interior una unidad central de proceso (CPU) y todo un conjunto de elementos lógicos que permiten enlazar otros dispositivos como memorias y puertos de entrada y salida (I/O), formando un sistema completo para cumplir con una aplicación específica dentro del mundo real. Para que el sistema pueda realizar su labor debe ejecutar paso a paso un programa que consiste en una secuencia de números binarios o instrucciones, almacenandolas en uno o más elementos de memoria, generalmente externos al mismo. La aplicación más importante de los microprocesadores que cambió totalmente la forma de trabajar, ha sido la computadora personal o microcomputadora.[1]

El microprocesador es el microchip más importante en una computadora, se le considera el cerebro de una computadora. Esta constituido por millones de transistores integrados (circuito integrado). Puede definirse, como un chip (tamaño micro), un tipo de componente electrónico en cuyo interior existen miles o en ocasiones millones, según su complejidad, de elementos llamados transistores cuyas interacciones permiten realizar las labores o funciones que tenga encomendado el chip.

Así mismo es la parte de la computadora diseñada para llevar acabo o ejecutar los programas. Este ejecuta instrucciones que se le dan a la computadora a muy bajo nivel haciendo operaciones lógicas simples, como sumar, restar, multiplicar y dividir. Este dispositivo se ubica generalmente en un zócalo especial en la placa o tarjeta madre y dispone para su buen funcionamiento de un sistema de enfriamiento (generalmente un ventilador).[2]

Lógicamente funciona como la unidad central de procesos (CPU/Central Procesing Unit), que está constituida por registros, la unidad de control y la unidad aritmético-lógica. En el microprocesador se procesan todas las acciones de la computadora.

Su "velocidad" es medida por la cantidad de operaciones por segundo que puede realizar: también llamada frecuencia de reloj. La frecuencia de reloj se mide en MHz (megahertz) o gigahertz (GHz).

Una computadora personal o más avanzada puede estar soportada por uno o varios microprocesadores, y un microprocesador puede soportar una o varias terminales (redes). Un núcleo suele referirse a una porción del procesador que realiza todas las actividades de una CPU real.

La tendencia de los últimos años ha sido la de integrar más núcleos dentro de un mismo empaque, además de componentes como memorias cache y controladores de memoria, elementos que antes estaban montados sobre la placa base como dispositivos individuales.[3]

{
}
{
}

Deja tu comentario Monitores, impresoras y microprocesadores

Identifícate en OboLog, o crea tu blog gratis si aún no estás registrado.

Avatar Tu nombre