Leer Ensayo Completo Manual De Ensamble Y Configuracion Del Equipo De Computo

Manual De Ensamble Y Configuracion Del Equipo De Computo

Imprimir Documento!
Suscríbase a ClubEnsayos - busque más de 2.113.000+ documentos

Categoría: Tecnología

Enviado por: karlo 13 abril 2011

Palabras: 33478 | Páginas: 134

...

sera del equipo de cómputo se encuentran todas las conexiones de entrada y salida, como son el Mouse, teclado, tarjeta de video, impresora, Red, sonido y todo lo que el equipo requiera para conectarse. También por esta parte del gabinete es donde se encuentran los medios de conexión de todas las tarjetas de expansión q se le instalen al equipo.

Su importancia radica en que en esta parte se encuentran administradas todas las conexiones de la placa base, así como también de las ranuras de expansión, y sin esta parte del gabinete, no se podrían administrad mejor los cables.

LA PLACA BASE

(mainboard), o "placa madre" (motherboard), es el elemento principal de todo ordenador, en el que se encuentran o al que se conectan todos los demás aparatos y dispositivos.

Físicamente, se trata de una "oblea" de material sintético, sobre la cual existe un circuito electrónico que conecta diversos elementos que se encuentran anclados sobre ella; los principales son:

el microprocesador, "pinchado" en un elemento llamado zócalo;

la memoria, generalmente en forma de módulos;

los slots o ranuras de expansión donde se conectan las tarjetas;

diversos chips de control, entre ellos la BIOS.

Una placa base moderna y típica ofrece un aspecto similar al siguiente:

El microprocesador

O simplemente el micro, es el cerebro del ordenador. Es un chip, un tipo de componente electrónico en cuyo interior existen miles (o millones) de elementos llamados transistores, cuya combinación permite realizar el trabajo que tenga encomendado el chip.

Los micros, como los llamaremos en adelante, suelen tener forma de cuadrado o rectángulo negro, y van o bien sobre un elemento llamado zócalo (socket en inglés) o soldados en la placa o, en el caso del Pentium II, metidos dentro de una especie de cartucho que se conecta a la placa base (aunque el chip en sí está soldado en el interior de dicho cartucho).

A veces al micro se le denomina "la CPU" (Central Process Unit, Unidad Central de Proceso), aunque este término tiene cierta ambigüedad, pues también puede referirse a toda la caja que contiene la placa base, el micro, las tarjetas y el resto de la circuitería principal del ordenador.

La velocidad de un micro se mide en megahertzios (MHz) o gigahertzios (1 GHz = 1.000 MHz), aunque esto es sólo una medida de la fuerza bruta del micro; un micro simple y anticuado a 500 MHz puede ser mucho más lento que uno más complejo y moderno (con más transistores, mejor organizado...) que vaya a "sólo" 400 MHz. Es lo mismo que ocurre con los motores de coche: un motor americano de los años 60 puede tener 5.000 cm3, pero no tiene nada que hacer contra un multiválvula actual de "sólo" 2.000 cm3.

Memoria RAM

Viene de Random Access Memory (Memoria de Acceso Aleatorio). La memoria RAM es el lugar donde el computador almacena la información mientras la procesa. Es un componente fundamental del PC.

Cuando la cantidad de memoria RAM disponible es menor que la cantidad de información en proceso, el procesador usa al disco duro como memoria temporal. Aquí hay un problema; la RAM es muchísimo más rápida que cualquier disco duro, por lo tanto el desempeño general del equipo cae notablemente.

Por eso se recomienda tener la mayor cantidad de RAM posible, sobre todo cuando se acostumbra a tener más de un programa abierto al mismo tiempo.

Los equipos modernos se equipan con un mínimo de 32 Mb en RAM, aunque es aconsejable instalar por lo menos 64 Mb.

La memoria también tiene diferentes velocidades, donde las más comunes son de 100 y de 133 Mhz. Nuevamente, en este caso entre más es mejor.

Disco Duro

El disco duro, o también llamado disco fijo (Hard disk) es el depósito del computador, donde se almacenan todos los archivos de programas para ser usados y sus resultados. Un disco duro se mide por varios aspectos, como son:

Capacidad de Almacenamiento: Es la cantidad de información que permite almacenar. Hoy en día se mide en Gygabytes (Gb) (Cada gygabyte vale 1024 megabytes). El disco duro más pequeño que puede encontrarse actualmente es el de 4 Gb, mientras que el más grande es 25 Gb. Con estas cifras, cualquiera de estos discos puede servirnos si lo que queremos es instalar Windows, Office y uno que otro programa extra, y aún nos sobrará capacidad para, digamos, unas 50.000 cartas y varios millones de apuntes bancarios.

Velocidad: La velocidad de un disco duro se determina por la velocidad de rotación del disco y la interfase que utiliza.

Estos parámetros no son tan sencillos de explicar, pero los discos más utilizados actualmente para computadores NO servidores usan la interfase IDE, en su versión ATA/100 o ATA/66, y velocidades de rotación de 5.400 RPM (revoluciones por minuto). una velocidad de rotación mayor probablemente dará mayor velocidad al disco duro.

Los computadores Servidores, que requieren mucha mayor velocidad, normalmente utilizan discos duros SCSI (en lugar de IDE), cuya velocidad de rotación puede ser de 10.000 RPM. El costo de los discos SCSI es muchísimo más elevado que el de los IDE. Sin embargo, gracias a la aplicación en los discos IDE de los modos UltraDMA (o más correctamente, del bus mastering), los discos IDE modernos no bloquean tanto como antes a la CPU durante la escritura/lectura de los datos. Claro que no se ha llegado (ni se llegará) a la eficacia de SCSI, pero el avance es notable y para muchos usos más que suficiente. Incluso existen casos límite en los cuales, en PCs con sólo 1 disco duro y escaso uso de la multitarea, puede ser un poco más rápido utilizar IDE que SCSI, ya que se evita la capa de comandos que permite a SCSI manejar simultáneamente hasta 15 dispositivos. En resumen: si no piensa utilizar su PC para "aplicaciones altamente profesionales" (aplicaciones gráficas, edición de audio/vídeo, servidores...), no necesita Disco Duro SCSI; un buen disco duro IDE será más que suficiente.

Ranuras de expansión.

Todas las placas que contine el ordenador están montadas sobre su correspondiente ranura, aunque se denominan propiamente de extensión las sobrantes. Es decir, un ordenador llevará una ranura AGP porque es necesaria para la tarjeta gráfica, pero no conozco ninguno que lleve dos, luego no sería en sí misma una ranura de expansión, no expande nada, sólo que es necesaria. Es la diferencia, quizás ligeramente sutil, entre slot o ranura (el significado es idéntico) y la de expansión.

Entre estas, y en las placas que habitualmente se utilizan en estos momentos, se dejan sobrantes ranuras del tipo PCI e ISA, a pesar de que las tarjetas ISA (Industry Standard Architecture) fueron un complemento de las AT de 8 bits que dejaron de fabricarse hace años, y entraron en fiuncionamientos las ISA de 16, aunque cada vez son menos los periféricos que las utilizan, y más las placas base que no las incorporan. A pesar de ello, no se extinguen, incluso se modificaron pues las antiguas había que configurarlas "a mano" a través de puentes, mientras que las actuales son Plug&Play. Las PCI (Peripheral Component Interconnect), por contra, es el estándar, y aunque originariamente llevan un bus de 32 bits también se especificó y se incluyen las de 62 bits, aunque es normal que exista compatibilidad entre ambas.

Ejemplos claros de las utilidades de ranuras de extensión son los modems internos, con conexión PCI. Las tarjetas de red, sean del tipo que sean, deberían ser también PCI. Las de sonido, que aún quedan en el mercado bastantes ISA, son de las más complejas y los modelos altos ya se fabrican todos sobre el estándar, pero no fue hasta el 1.998 que el más importante fabricante de estas tarjetas no abandonó ISA. En video, aunque también hay placas para ranuras PCI es normal, y más efectivo, las propias AGP para estos dispositivos.

En cualquier caso estamos hablando de los más utilizado, que son las placas base PCI, y en ellas los programas de la BIOS (los de configuración del ordenador) tienen un apartado concreto de configuración de las PCI y Plug&Play, necesario a pesar de que una tarjeta PCI incorporada a una ranura de este tipo es automáticamente localizada sin necesidad de más complicaciones, pero aparte de ser detectadas, las hay que es necesario que sean configuradas, como pueden ser las de red.

Resumiendo, en tanto no cambien los estándares, lo ideal es una placa PCI, con el mayor número posible de ranuras de este tipo libres (dejo de lado lo que es la arquitectura SCSI). Son muy fáciles de identificar, pues suelen ser blancas mientras las ISA las hay blancas o negras, tienen 188 contactos, si la placa contiene ambos tipos, las ISA son mucho más grandes con lo que no habrá problema, ambos tipos estarán situados en paralelo. Todas las ranuras están preparadas para que las tarjetas se sujeten a presión y posteriormente se fijen a la caja con un tornillo por la parte trasera, por lo que no se pueden confundir con los puertos de memoria, que tienen algún parecido, pero las placas (en este caso, módulos) se sujetan por abrazaderas metálicas en los extremos.

La tarjeta gráfica

La tarjeta gráfica va a permitir que veamos todos los datos que nos muestre el ordenador. Dependiendo de la calidad de la misma disfrutaremos de mayores velocidades de refresco (para que la imagen no parpadee), mayor número de cuadros por segundo en los juegos, efectos tridimensionales o por el contrario, terminará doliéndonos la cabeza por ver como las ventanas del Windows dejan restos por la pantalla porque nuestra tarjeta no puede mostrar gráficos tan rápidamente.

Hasta hace poco, las tarjetas se conectaban a un slot PCI de nuestro ordenador, con lo que alcanzaban los 66 Mhz de velocidad, pero ahora tenemos el nuevo bus AGP (Accelerated Graphics Port) que en su especificación 1.0 da velocidades de 133 Mhz (AGP 1X) y de 266 Mhz (AGP 2X). Las placas base con chipset 440 LX o BX llevan un bus AGP 1.0, al igual que las placas con chipset VIA VP-3 o MVP-3 para socket 7. Con la aparición de los próximos chipsets de Intel, los 810 y 820, llegaremos al AGP 4X.

Tarjeta de red

Dispositivo que permite a un ordenador o impresora acceder a una red local. Hay diversos tipos de adaptadores en función del tipo de cableado que se utilice en la red, pero actualmente el más comun es del tipo ethernet utilizando un interfaz o conector rj45.

Las tarjetas de red ethernet pueden variar en función de la velocidad de transmisión, normalmente 10 MB o 10/100 MB. Otro tipo de adaptador muy extendido hasta hace poco era el que usaba conector BNC.

Tarjetas de sonido

En el mundo de los ordenadores compatibles el estandar en sonido lo ha marcado la empresa Creative Labs y su saga de tarjetas Sound Blaster.

Si escojemos una tarjeta que no sea de esta marca, y queremos ejecutar todo tipo de software es importante comprobar que sea SB compatible a nivel de hardware, y si así es, informarnos de con que modelo es compatible.

En el caso de que sólo nos interese que funcione con programas Windows 95, esta precaución no será importante, entonces sería mas interesante saber que dispone de drivers de calidad, y de que Microsoft la soporte a nivel hardware en sus DirectX.

Otro factor a tener en cuenta es si la tarjeta admite la modalidad "full duplex", es decir si admite "grabar" y "reproducir" a la vez, o lo que es lo mismo, si puede procesar una señal de entrada y otra de salida al mismo tiempo. Esto es importante si queremos trabajar con algún programa de videoconferencia tipo "Microsoft NetMeeting" el cual nos permite mantener una conversación con otras personas, pues la tarjeta se comporta como un teléfono, y nos deja oir la voz de la otra persona aunque en ese momento estemos hablando nosotros. Muchas de las tarjetas de Creative no poseen este soporte a nivel de hardware, pero si a nivel de software con los drivers que suministra la casa para algunos S.O.

También es importante el soporte de "MIDI". Este es el estandar en la comunicación de instrumentos musicales electronicos, y nos permitirá reproducir la "partitura" generada por cualquier sintetizador y a la vez que nuestra tarjeta sea capaz de "atacar" cualquier instrumento que disponga de dicha entrada.

Hay que tener claro que el formato MIDI realmente no "graba" el sonido generado por un instrumento, sino sólo información referente a que instrumento estamos "tocando", que "nota" , y que características tiene de volumen, velocidad, efectos, etc..., con lo que el sonido final dependerá totalmente de la calidad de la tarjeta.

Otro punto importante es la memoria. Esta suele ser de tipo ROM, y es utilizada para almacenar los sonidos en las tarjetas de tipo "síntesis por tabla de ondas". Este tipo de tarjetas nos permiten "almacenarr" el sonido real obtenido por el instrumento, con lo que la reproducción gana mucho en fidelidad. Cuanta más memoria dispongamos, más instrumentos será capaz de "guardar" en ella y mayor será la calidad obtenida.

En las tarjetas de síntesis FM este datos no es importante.

Puertos

Los ordenadores personales actuales aún conservan prácticamente todos los puertos heredados desde que se diseñó el primer PC de IBM. Por razones de compatibilidad aún seguiremos viendo este tipo de puertos, pero poco a poco irán apareciendo nuevas máquinas en las que no contaremos con los típicos conectores serie, paralelo, teclado, etc... y en su lugar sólo encontraremos puertos USB, Fireware (IEE 1394) o SCSI.

Un ejemplo típico lo tenemos en las máquinas iMac de Apple, que aunque no se trate de máquinas PC-Compatibles, a nivel hardware comparten muchos recursos, y nos están ya marcando lo que será el nuevo PC-2000 en cuanto a que sólo disponen de bus USB para la conexión de dispositivos a baja-media velocidad, como son el teclados, ratón, unidad ZIP, módem, etc..

Tampoco hay que olvidar otro tipo de conectores que son ya habituales en los ordenadores portátiles como los puertos infrarrojos, que pueden llegar a alcanzar velocidades de hasta 4 Mbps y que normalmente cumplen con el estándar IrDA, o las tarjetas PC-Card (antiguamente conocidas como PCMCIA) ideales para aumentar la capacidad de dichas máquinas de una manera totalmente estándar.

U.S.B.

Desde que nació el PC de la mano de I.B.M., por motivos de compatibilidad, algunas de sus características han permanecido inalterables al paso del tiempo.

Conectores como el de la salida paralelo (o Centronics), la salida serie (RS-232) o el conector del teclado han sufrido muy pocas variaciones.

Si bien es cierto que estos conectores todavía hoy cumplen su función correctamente en casos como la conexión de un teclado, un ratón o un modem, se han quedado ya desfasados cuando tratamos de conectar dispositivos más rápidos como por ejemplo una cámara de video digital.

USB nace como un estandar de entrada/salida de velocidad media-alta que va a permitir conectar dispositivos que hasta ahora requerían de una tarjeta especial para sacarles todo el rendimiento, lo que ocasionaba un encarecimiento del producto además de ser productos propietarios ya que obligaban a adquirir una tarjeta para cada dispositivo.

Pero además, USB nos proporciona un único conector para solventar casi todos los problemas de comunicación con el exterior, pudiendose formar una auténtica red de periféricos de hasta 127 elementos.

Mediante un par de conectores USB que ya hoy en día son estandar en todas las placas base, y en el espacio que hoy ocupa un sólo conector serie de 9 pines nos va a permitir conectar todos los dispositivos que tengamos, desde el teclado al modem, pasando por ratones, impresoras, altavoces, monitores, scaners, camaras digitales, de video, plotters, etc... sin necesidad de que nuestro PC disponga de un conector dedicado para cada uno de estos elementos, permitiendo ahorrar espacio y dinero.

Al igual que las tarjeta ISA tienden a desaparecer, todos los conectores anteriormente citados también desaparecerán de nuestro ordenador, eliminando además la necesidad de contar en la placa base o en una tarjeta de expansión los correspondientes controladores para dispositivos serie, paralelo, ratón PS/2, joystick, etc...

Como podeis ver, realmente es un estándar que es necesario para facilitarnos la vida, ya que además cuenta con la famosa característica PnP (Plug and Play) y la facilidad de conexión "en caliente", es decir, que se pueden conectar y desconectar los periféricos sin necesidad de reiniciar el ordenador.

Paralelo

Tras la acentuada falta de estandarización del interfaz paralelo, surgió Centronics como un standard en este tipo de conexión, debido a la facilidad de uso y la comodidad a la hora de trabajar con él.

A raíz de este interfaz, posteriormente apareció una norma standard (IEEE 1284) para el interfaz paralelo en los ordenadores personales, en la cual se tratan varios tipos de protocolos los cuales se verán a lo largo de este trabajo.

La transmisión en paralelo entre un ordenador y un periférico, se basa en la transmisión de datos simultáneamente por varios canales, generalmente 8 bits. Por esto se necesitan 8 cables para la transmisión de cada bit, mas otros tantos cables para controles del dispositivo, el numero de estos dependerá del protocolo de transmisión utilizado.

Los principales tipos y nombres de canales que son utilizados como control son:

STROBE - a través de el, el ordenador comunica al periférico que esta preparado para transmitir.

BUSY - el periférico comunica a través de el, que NO esta preparado para recibir datos.

ACK - el periférico comunica a través de el, que esta preparado para recibir datos.

SELECT Y SELECTIN - indican el tipo de error producido en el periférico.

ERROR - indica que se ha producido un error en el periférico.

PE - depende del tipo del periférico, en el caso de la impresora indica que no tiene papel.

Algunos de estos canales pueden ser utilizados para alguna acción adicional o cambiar la anteriormente descrita, según el protocolo que se utilice.

Serie ó Serial

El puerto serie de un ordenador es un adaptador asíncrono utilizado para poder intercomunicar varios ordenadores entre sí.

Un puerto serie recibe y envía información fuera del ordenador mediante un determinado software de comunicación o un driver del puerto serie.

El software envía la información al puerto carácter a carácter, conviertiéndolo en una señal que puede ser enviada por un cable serie o un módem.

Cuando se ha recibido un carácter, el puerto serie envía una señal por medio de una interrupción indicando que el carácter está listo. Cuando el ordenador ve la señal, los servicios del puerto serie leen el carácter.

El modem

El modem es otro de los periféricos que con el tiempo se ha convertido ya en imprescindible y pocos son los modelos de ordenador que no estén conectados en red que no lo incorporen. Su gran utilización viene dada básicamente por dos motivos: Internet y el fax, aunque también le podemos dar otros usos como son su utilización como contestador automático incluso con funciones de centralita o para conectarnos con la red local de nuestra oficina o con la central de nuestra empresa.

Aún en el caso de estar conectado a una red, ésta tampoco se libra de éstos dispositivos, ya que en este caso será la propia red la que utilizará el modem para poder conectarse a otras redes o a Internet estando en este caso conectado a nuestro servidor o a un router.

Lo primero que hay que dejar claro es que los modem se utilizan con líneas analógicas, ya que su propio nombre indica su principal función, que es la de modular-demodular la señal digital proveniente de nuestro ordenador y convertirla a una forma de onda que sea asimilable por dicho tipo de líneas.

El modem serie externo

Este es el modem "clásico" por antonomasia y posiblemente aún el más utilizado, a pesar de que la competencia de los modelos basados en USB es cada vez más fuerte. Por tanto, los mejores modelos se suelen encontrar aún en este formato y es ya habitual encontrarse en ellos funciones de contestador automático, fax y centralita telefónica, actuando incluso en el caso de que nuestro ordenador esté apagado, gracias a la memoria que incorporan. Algunos modelos también integran un altavoz y un micrófono, por lo que se convierten en plenamente autónomos...

En éste tipo de dispositivos es muy importante utilizar un puerto serie que implemente una UART del tipo 16550 o alguna de sus variaciones como la 16550AF que nos permitirá un flujo de datos con el ordenador de 115.000 bps. UART más antiguas como las 16540 o peor aún las 8250 son hoy día inaceptables por su baja velocidad. (Consultar nuestra sección de Puertos)

La forma más sencilla de conocer qué UART implementan nuestros puertos serie es mediante el programa MSD que viene con casi todas las versiones de MS-DOS y Windows (si no está en tu disco duro busca en el CD o los disquetes de instalación)

Hay que tener en cuenta que la velocidad de comunicación del modem con el puerto serie debe ser bastante mayor de la que éste es capaz de transmitir a través de la línea telefónica, entre otros motivos por la compresión hardware que es capaz de realizar a los datos que le llegan.

El modem interno

En este tipo de configuración normalmente encontramos modelos de gama baja y prestaciones recortadas, como ocurre en el caso de los "Winmodem", también llamados "softmodem" o HSP. Sin embargo esto no es más que una estrategia de los fabricantes debido a que este tipo de modem suelen resultar más económicos que los externos.

Aquí igualmente podremos hacer una segunda distinción dependiendo del tipo de bus al que vayan conectados. Encontraremos modelos para ranura ISA, para PCI o para las mas novedosas AMR. Debido a que el primero está tendiendo a desaparecer, cada vez es más dificil encontrar modelos para él, siendo lo habitual los dispositivos PCI, que además tienen la ventaja del Plug and Play (PnP) que siempre es una ayuda en el momento de su instalación.

Los modelos basados en AMR sólo podremos utilizarlos en las placas más modernas como las que utilizan el chipset i810, y están orientados al mercado de gama baja, debido a que la mayor parte de la funcionalidad del dispositivo está ya implementada en la propia placa base y al igual que ocurre en el caso de los Winmodem su funcionamiento está más basado en el software que en el hardware, lo que repercute en un menor precio de coste pero por el contrario su utilización consume ciclos de CPU y su portabilidad está limitada ya que no todos los sistemas operativos disponen del soporte software adecuado para hacerlos funcionar

Disqueteras

Refiriendonos exclusivamente al mundo del PC, en las unidades de disquette sólo han existido dos formatos físicos considerados como estandar, el de 5 1/4 y el de 3 1/2.

En formato de 5 1/4, el IBM PC original sólo contaba con unidades de 160 Kb., esto era debido a que dichas unidades sólo aprovechaban una cara de los disquettes.

Luego, con la incorporación del PC XT vinieron las unidades de doble cara con una capacidad de 360 Kb.(DD o doble densidad), y más tarde, con el AT, la unidad de alta densidad (HD) y 1,2 Mb.

El formato de 3 1/2 IBM lo impuso en sus modelos PS/2. Para la gama 8086 las de 720 Kb. (DD o doble densidad) y para el resto las de 1,44 Mb. (HD o alta densidad) que son las que hoy todavía perduran.

En este mismo formato, también surgió un nuevo modelo de 2,88 Mb. (EHD o Extra alta densidad), pero no consiguió cuajar

CD-Rom y CD-RW

La unidad de CD-ROM ha dejado de ser un accesorio opcional para convertirse en parte integrante de nuestro ordenador, sin la cual no podríamos ni siquiera instalar la mayor parte del software que actualmente existe, por no hablar ya de todos los programas multimedia y juegos.

Pero vayamos a ver las características más importantes de estas unidades.

En primer lugar vamos a diferenciar entre lectores, grabadores y regrabadores. Diremos que los más flexibles son los últimos, ya que permiten trabajar en cualquiera de los tres modos, pero la velocidad de lectura, que es uno de los parámetros más importantes se resiente mucho, al igual que en los grabadores.

Así tenemos que en unidades lectoras son habituales velocidades de alrededor de 34X (esto es 34 veces la velocidad de un lector CD de 150 Kps.), sin embargo en los demás la velocidad baja hasta los 6 ó 12X.

Dado que las unidades lectoras son bastante económicas, suele ser habitual contar con una lectora, y una regrabadora, usando la segunda sólo para operaciones de grabación.

En cuanto a las velocidades de grabación suelen estar sobre las 2X en regrabadoras y las 2 ó 4X en grabadoras).

Y después de la velocidad de lectura y grabación nos encontramos con otro tema importante como es el tipo de bus. Al igual que en los discos, este puede ser SCSI o EIDE. Aconsejamos SCSI (Ultra Wide) para entornos profesionales y EIDE (Ultra DMA) para los demás. Para saber más, acudir a la sección de Discos.

Otro aspecto que vamos a comentar es el tipo de formatos que será capaz de leer / grabar. Es interesante que sea capaz de cumplir con todos:

- ISO 9660: Imprescindible. La mayor parte de los demás son modificadores de este formato.

- CD-XA y CD-XA entrelazado: CD's con mezcla de música y datos.

- CD Audio: Para escuchar los clásico Compact Disc de música.

- CD-i: Poco utilizado.

- Vídeo-CD: Para peliculas en dicho formato.

- Photo-CD Multisesión: Cuando llevas a revelar un carrete puedes decir que te lo graben en este formato.

Y para las regrabadoras el formato utilizado es el UDF.

DVD ROM

DVD "Digital Versatil Disc". En su modalidad de DVD - Video es el nuevo formato de distribución de películas de vídeo, el formato tambien permite el copiado de datos en general incluido el audio.

Su tamaño fisico es igual al de un CD-ROM pero su capacidad de almacenamiento va de los 3.9- 4.5GB hasta los 17GB dependiendo de si se usan una o dos capas y una o dos caras.

Teclado

El teclado es un componente al que se le da poca importancia, especialmente en los ordenadores clónicos. Si embargo es un componente esencial, pues es el que permitirá que nuestra relación con el ordenador sea fluida y agradable, de hecho, junto con el ratón son los responsables de que podamos interactuar con nuestra máquina.

Así, si habitualmente usamos el procesador de textos, hacemos programación, u alguna otra actividad en la que hagamos un uso intensivo de este componente, es importante escoger un modelo de calidad. En el caso de que seamos usuarios esporádicos de las teclas, porque nos dediquemos más a juegos o a programas gráficos, entonces cualquier modelo nos servirá, eso sí, que sea de tipo mecánico. No acepteis ningún otro.

Parámetros importantes a tener en cuenta son el tacto, no debe de ser gomoso, y el recorrido, no debe de ser muy corto. También es importante la ergonomía, es aconsejable que disponga de una amplia zona en la parte anterior, para poder descansar las muñecas. Y hablando de la ergonomía, este es uno de los parámetros que más destaca en un teclado, uno de los ya clasicos en este aspecto es el "Natural keyboard" de Microsoft.

Los mejores teclados que yo haya visto jamás son los de IBM, sobre todo los antiguos, aunque para entornos no profesionales, quizá puedan resultar incluso incómodos, por la altura de las teclas, su largo recorrido, y sus escandalosos "clicks". Estos teclados, fabricados después por Lexmark, y ahora por Unicomp, tienen una bien ganada fama de "indestructibles".

Y ya pasando a aspectos más técnicos, vamos a describir en detalle sus características.

Actualmente sólo quedan dos estándares en cuanto a la distribución de las teclas, el expandido, que IBM lo introdujo ya en sus modelos AT, y el de Windows95, que no es más que una adaptación del extendido, al que se le han añadido tres teclas de más, que habitualmente no se usan, y que sólo sirven para acortar la barra espaciadora hasta límites ridículos.

En cuanto al conector, también son dos los estándares, el DIN, y el mini-DIN. El primero es el clásico de toda la vida, y aún es el habitual en equipos clónicos.

El segundo, introducido por IBM en sus modelos PS/2, es usado por los fabricantes "de marca" desde hace tiempo, y es el habitual en las placas con formato ATX.

De todas formas, no es un aspecto preocupante, pues hay convertidores de un tipo a otro.

Nos dejamos otro tipo de conector cada vez más habitual, el USB, pero la verdad es que de momento apenas hay teclados que sigan este estándar

Ratón o mouse

Ratón (Mouse), dispositivo señalador muy común, popularizado gracias a estar incluido en el equipamiento estándar del Apple Macintosh. Fue desarrollado por Xerox en el parque de investigación de Palo Alto (EE. UU.). La aparición de este dispositivo y de la interfaz gráfica de usuario, que une un puntero en la pantalla de la computadora al movimiento del ratón o mouse, ha abierto el potente mundo de las computadoras a una población anteriormente excluida de él a causa de la oscuridad de los lenguajes de computadora y de la interfaz de línea de comandos. Existen muchas variaciones en su diseño, con formas distintas y distinto número de botones, pero todos funcionan de un modo similar. Cuando el usuario lo mueve, una bola situada en la base hace girar un par de ruedas que se encuentran en ángulo recto. El movimiento de las ruedas se convierte en señales eléctricas, contando puntos conductores o ranuras de la rueda. El ratón optomecánico de reciente aparición elimina el costo de las reparaciones y el mantenimiento que requiere uno puramente mecánico.

Monitor

El monitor es una parte del ordenador a la que muchas veces no le damos la importancia que se merece.

Hay que tener en cuenta que junto con el teclado y el ratón son las partes que interactúan con nuestro cuerpo, y que si no le prestamos la atención debida, podremos llegar incluso a perjudicar nuestra salud.

Evidentemente no en el caso de personas que hacen un úso esporádico, pero si en programadores impenitentes o navegadores incansables, que puedan pasarse muchas horas diarias al frente de la pantalla.

Vamos a explicar los parámetros que influyen en la calidad de un monitor:

Tamaño:

El tamaño de los monitores se mide en pulgadas, al igual que los televisores. Hay que tener en cuenta que lo que se mide es la longitud de la diagonal, y que además estamos hablando de tamaño de tubo, ya que el tamaño aprovechable siempre es menor.

El tamaño es importante porque nos permite tener varias tareas a la vez de forma visible, y poder trabajar con ellas de manera cómoda.

También es importante en el caso de que se manejen documentos de gran tamaño o complejidad, tales como archivos de CAD, diseño, 3D, etc que requieren de gran detalle. En estos casos son aconsejables tamaños de 21".

También es importante tener en cuenta que con Windows 98 ya es posible conectar varios monitores al mismo PC, por lo que en el caso de requerir la visualización de varias tareas a la vez puede ser importante, por ejemplo, sustituir un monitor de 27 pulgadas por dos de 15, que será una solución más barata y quizás más cómoda.

Nunca hemos de aceptar menos de 15" (pulgadas). Hoy en día es el estándar, y es lo mínimo exigible, además de ser los que mejor precio ofrecen.

Tubo:

Otro aspecto importante es la marca del tubo y el tipo, así como otros detalles relacionados con él. Fabricantes de monitores hay muchos, pero de tubos son contados, con lo que si sabemos que modelo de tubo lleva nuestro monitor sabremos ya bastantes cosas importantes de él.

Fabricantes de tubos son: Sony, Mitsubishi, Nec, Phillips, etc...

Y normalmente cada fabricante se identifica con un tipo de tubo, por ejemplo Sony con el Trinitron (que sigue siendo punto de referencia), Mitsubishi con el DiamondTron, etc...

El tubo nos definirá si la pantalla es más o menos plana y cuadrada, el tamaño del punto (dot pix) si tiene tratamiento antirreflejos, etc...

También nos servirá para comparar entre diferentes marcas, ya que si encontramos dos con el mismo tubo, pues ya sabemos que son iguales en casi todas las características más importantes, y por tanto no debería haber mucha diferencia en cuanto a precio, a no ser que uno contara con muchos aditivos como controles digitales y características multimedia y el otro no. Tengamos presente que casi todo el coste del monitor es debido al tubo.

Tamaño de punto:

Esta es una de las características que depende del tubo, y define el tamaño que tendrá cada uno de los puntos que forman la imagen, por tanto cuanto más pequeño más preciso será.

No hay que confundir el tamaño de punto con el "pixel". El pixel depende de la resolución de la pantalla, y puede variar, mientras que el punto es fijo, y depende exclusivamente del tubo.

Tamaños "normales" son alrededor de 0,28 mm. y es aconsejable que no sea de mayor tamaño, en todo caso menor, como los 0,25 de los tubos Trinitron.

Frecuencia de refresco:

Aquí si que podemos decir claramente que cuanto más mejor. La frecuencia de refresco está proporcionalmente ligada a la estabilidad de la imagen, y por tanto al descanso y confort de nuestra vista.

Nunca deberíamos escoger valores por debajo de los 75 Hz en modos de 1.024 x 768 puntos, aunque un valor óptimo sería de 90 Hz., que sería el mínimo exigible en resoluciones menores.

En resoluciones mayores, seguramente nos tengamos que conformar con valores más bajos.

También hay que tener claro que la tarjeta de video debe ser capaz de proporcionar esos valores, ya que de no ser así, de nada nos servirá que el monitor los soporte.

Resoluciones:

Resolución de pantalla se denomina a la cantidad de pixels que se pueden ubicar en un determinado modo de pantalla. Estos pixels están a su vez distribuidos entre el total de horizontales y el de verticales.

Todos los monitores pueden trabajar con múltiples modos, pero dependiendo del tamaño del monitor, unos nos serán más útiles que otros:

Scanner

Los sistemas de captura de imagen constituyen el ojo electrónico por el que vamos a obtener imágenes para nuestro trabajo. En esta página veremos la descripción y los conceptos básicos acerca de los dispositivos de captura de imágenes

La unidad de resolución empleadas en digitalización (escaneo) de las imágenes destinadas a ser imprimidas es el ppp (punto por pulgada). También se usan las siglas inglesas dpi (Dips Per Inche). Cuando nos referimos a imágenes visualizadas en un monitor o capturadas con una cámara hablamos de líneas que es una medida directa de la anchura de la imagen en número de pixeles.

SCANER PLANO

Utilizado para escanear, fotografías, geles, autorradiografías y textos. Para la mayoría de los trabajos es suficiente con 300 ppp, el ojo humano es incapaz de distinguir poco más de 300 ppp. No conviene usar resoluciones mayores, a menos que vayamos a hacer ampliaciones, porque para una resolución doble el espacio ocupado por el archivo es cuatro veces mayor.

SCANER DE DIAPOSITIVAS

Nos permite digitalizar diapositivas de 35 mm con una alta resolución (2800 ppp). Para escanear imágenes de alta calidad lo haremos a alta resolución, como la resolución máxima de trabajo es de 300 ppp (ver más adelante) debemos engañar al sistema convirtiendo la imagen de 35x24 mm a 2800 ppp en otra 9,33 veces más grande con una resolución de 300 ppp (9,33 es el cociente de dividir 2800 entre 300).

Impresoras

Tipos de Impresoras

Según la tecnología que empleen se puede hacer una primera clasificación. Los más comunes son los siguientes: Matricial, de inyección de tinta (o inkjet) y láser.

Matriciales.

Las impresoras matriciales han sido muy empleadas durante muchos años, ya que las otras tecnologías han sido desarrolladas posteriormente, y en un principio eran muy caras. Hoy en día han sido sustituidas en muchos entornos por sus competidoras, pero todavía son irreemplazables en algunas tareas.

Asi pues, son las únicas que permiten obtener varias copias de un mismo impreso. Esto resulta muy conveniente cuando tenemos la necesidad de realizar varias copias de un mismo documento con la mayor rapidez y que se ejecuten en distintos impresos.

Por ejemplo, cuando necesitamos que cada copia esté hecha en un papel de distinto color, y con algún texto identificativo. En este caso, mediante papel autocopiativo de varias hojas lo podemos realizar de una forma rápida y barata, principalmente cuando la información es de tipo textual.

Al igual que los otros tipos de impresora, sus características básicas a considerar son la velocidad, la calidad y la posibilidad de impresión en color. La velocidad se mide en cps o caracteres por segundo, ya que como hemos dicho esta es la principal función que suelen realizar. La calidad normalmente viene marcada por el número de agujas, que suelen oscilar entre las 8 y las 24, siendo mejor cuanto de mayor número disponga.

A pesar de que en un principio se desarrolló la tecnología matricial en color como competencia directa con las de inyección de tinta, actualmente las impresoras que encontramos suelen ser monocromas, ya que no es la tecnología más adecuada para la impresión de colores, sobretodo en modos gráficos.

Sus principales características son su elevado ruido, y su poca definición, pero en la vertiente de ventajas podemos considerar su economía tanto en compra como en mantenimiento. Aunque hoy en día sus precios de compra van parejos a los de las inkjet, ofreciendo éstas más ventajas. Son sólo aconsejables para la impresión de texto, siempre que éste no requiera gran calidad, y mayormente cuando empleamos papel continuo.

Inyección de tinta (inkjet)

Aunque en un principio tuvo que competir duramente con sus adversarias matriciales, hoy son las reinas indiscutibles en el terreno domestico, ya que es un entorno en el que la economía de compra y la calidad, tanto en color como en blanco y negro son factores más importantes que la velocidad o la economía de mantenimiento, ya que el número de copias realizadas en estos entornos es bajo.

Su funcionamiento se basa en la expulsión de gotas de tinta líquida a través de unos inyectores que impactan en el papel formando los puntos necesarios para la realización de gráficos y textos.

La tinta se obtiene de unos cartuchos reemplazables que dependiendo del tipo de impresora pueden ser más o menos.

Algunas impresoras utilizan dos cartuchos, uno para la tinta negra y otro para la de color, en donde suelen están los tres colores básicos. Estas impresoras tienen como virtud la facilidad de manejo, pero en contra, si utilizamos más un color que otro, nos veremos obligados a realizar la sustitución del cartucho cuando cualquiera de los tres colore se agote, aunque en los demás compartimentos todavía nos quede tinta de otros colores.

Esto hace que estas impresoras sean bastante más caras de mantenimiento que las que incorporan un cartucho para cada color, pero también suelen ser más económicas en el precio de compra.

También podemos encontrar las famosas impresoras con calidad fotográfica, que suelen contar con cartuchos de 4 colores en vez de 3.

Las características principales de una impresora de inyección de tinta son la velocidad, que se mide en páginas por minuto (ppm) y que suele ser distinta dependiendo de si imprimimos en color o en monocromo, y la resolución máxima, que se mide en puntos por pulgada (ppp). En ambos valores, cuanto mayores mejor.

Como en otros componentes, es importante disponer de los "drivers" adecuados, y que estos estén convenientemente optimizados.

Láser.

Las últimas impresoras que vamos a ver van a ser las de tecnología láser. Esta tecnología es la misma que han utilizado mayormente las máquinas fotocopiadoras desde un principio, y el material que se utiliza para la impresión es un polvo muy fino que pasa a un rodillo que previamente magnetizado en las zonas que contendrán la parte impresa, es pasado a muy alta temperatura por encima del papel, que por acción de dicho calor se funde y lo impregna.

Estas impresoras suelen ser utilizadas en el mundo empresarial, ya que su precio de coste es más alto que el de las de inyección de tinta, pero su coste de mantenimiento es más bajo, y existen dispositivos con una muy alta velocidad por copia y calidad y disponibilidad superiores, así como también admiten una mayor carga de trabajo.

Una pega es que aun y existiendo modelos en color, su precio todavía sigue siendo astronómico para la mayor parte de economías, y su velocidad relativamente baja, siendo los modelos más habituales los monocromos.

Una de las características más importantes de estas impresoras es que pueden llegar a velocidades muy altas, medidas en páginas por minuto. Su resolución también puede ser muy elevada y su calidad muy alta. Empiezan a ser habituales resoluciones de 1.200 ppm (puntos por pulgada) y velocidades de 16 ppm, aunque esta velocidad puede ser mucho mayor en modelos preparados para grupos de trabajo, hasta 40 ppm y más.

Otras características importantes son la cantidad de memoria disponible y el modelo de procesador, que suele ser de tipo RISC. La memoria es importante para actuar como "buffer" en donde almacenar los trabajos que le van llegando y para almacenar fuentes y otros motivos gráficos o de texto que permitan actuar como "preimpresos" e imprimirlos en cada una de las copias sin necesidad de mandarlos en cada página.

webcam

De todas las atracciones que internet ofrece a sus navegantes hay pocas capaces de ejercer el magnetismo de las webcams. También llamadas "cámaras espías" y "netcams", tienen esa indefinible fascinación de mostrarnos escenas cotidianas de lugares remotos tal como las ven sus pobladores en el mismo instante.

Esencialmente son una combinación de equipamiento sencillo y hasta barato comparado con los resultados que permite. Para poner una webcam en marcha se necesitan tres elementos y, por supuesto, una página disponible en internet para mostrar las imágenes.

Cámara

Cualquier cámara de video, de aficionado o profesional, de la norma y el formato de cinta que se quiera o se tenga, sirve.

Plaqueta digitalizadora (frame grabber)

Instalada en una PC común, recibe la imagen captada por la cámara y se encarga de "tomar la fotografía". Para eso "congela" o digitaliza una sola de las 25 a 30 pantallas que genera la cámara cada segundo, tal como si escogiera uno de los cuadros o fotogramas de una película de cine.

Software

Controla la plaqueta digitalizadora. Básicamente "aprieta el disparador", es decir, ordena a la plaqueta en qué instante digitalizar, según el intervalo fijado por el usuario. Obtenida la imagen, la convierte en un formato compatible con los browsers de internet (GIF o JPG) y graba el archivo resultante en el servidor conectado a la red mundial.

Cómo funciona

Las webcams hoy por hoy son uno de los recursos lúdicos más conocidos que nos proporciona internet. Con ellas es posible ver qué está ocurriendo en cualquier parte del mundo, la piscina de los Brown, a Samantha -una recien nacida, mientras duerme-, cómo nadan los peces tropicales de un acuario, el tiempo que hace en la Antártida y hasta se pudo ver la superficie del planeta Marte desde la famosa Pathfinder... y todo ello sentados delante del ordenador en nuestra habitación favorita. La fascinación que esto supone no se puede dejar de resaltar.

La imagen tomada por una cámara pasa a un ordenador que la transforma a formato binario. Por medio de una URL, esta imagen puede ser visualizada por todo aquel que lo desee.

El funcionamiento de una webcam es muy simple: una cámara de vídeo toma imágenes y las pasa a un ordenador que las traduce a lenguaje binario y las envía a internet para disfrute de todo aquel que quiera verlas. Estos son los pasos:

Una cámara toma imágenes que envía regularmentre a un ordenador, algunas se actualizan cada pocos segundos y otras cada varias horas.

El ordenador mediante hardware/software adecuado traduce las imágenes a formato binario, generalmente ficheros jpeg, dada su buena relación calidad/tamaño.

Las imágenes ya traducidas son incluídas dentro de una dirección URL que proporciona la posibilidad de ser vistas en la WWW, de manera que está siempre disponible la imagen más reciente. Así, cuando alguién solicita la página de la webcam, puede ver en su navegador la última imagen.

Existen webcams cuyo ritmo de refresco es muy alto y pueden llegar a dar la sensación de transmitir imágenes de vídeo en directo. Sin embargo, son fotogramas sueltos que se actualizan normalmente al pulsar o pasar el ratón por el enlace.

Fuente de alimentación

De nuevo prima el silencio: no queremos que nuestra fuente de alimentación esté contínuamente bufando, así que lo ideal es apostar por un modelo que ofrezca potencia suficiente – a ser posible, con cierto margen para que siempre tengamos de sobra – y que además sea lo más silenciosa posible. Como en otros apartados aquí existen una buena cantidad de opciones de fabricantes como BeQuiet, SeaSonic, Antec y un largo etcétera, pero yo aposté por una BeQuiet StraightPower de 550W con la que estoy impresionado: no se oye nada. Cero.

Cámara web

Una cámara web o web cam es una pequeña cámara digital conectada a una computadora, la cual puede capturar imágenes y transmitirlas a través de Internet, ya sea a una página web o a otra u otras computadoras de forma privada.

Las webcams necesitan una computadora para transmitir las imágenes. Sin embargo, existen otras cámaras autónomas que tan sólo necesitan un punto de acceso a la red informática, bien sea ethernet o inalámbrico. Para diferenciarlas de la webcam o cámaras de web se las denomina net cam o cámaras de red.

También son muy utilizadas en mensajería instantánea y chat como el Windows Live Messenger, Yahoo! Messenger, Ekiga, Skype etc. En el caso del MSN Messenger aparece un icono indicando que la otra persona tiene webcam. Por lo general puede transmitir imágenes en vivo, pero también puede capturar imágenes o pequeños vídeos (dependiendo del programa de la webcam) que pueden ser grabados y transmitidos por internet. Este dispositivo se clasifica como de entrada, ya que por medio de él podemos transmitir imágenes hacia la computadora.

En Astronomía Amateur las cámaras web de cierta calidad pueden ser utilizadas para registrar tomas planetarias, lunares y hasta hacer algunos estudios astrométricos de estrellas binarias. Ciertas modificaciones pueden lograr exposiciones prolongadas que permiten obtener imágenes de objetos tenues de cielo profundo como galaxias, nebulosas, etc.

Medios ópticos

Los medios ópticos son aquellos que se basan en propiedades ópticas generalmente relacionadas con la reflexión de la luz. En la actualidad se están utilizando como elementos reconocedores de estas propiedades dispositivos basados en rayos láser.

Soportes ópticos

Los soportes ópticos son documentos de papel, cartulina o plástico sobre los que se escriben caracteres normalizados o marcas fácilmente reconocibles tanto por las máquinas como por las personas. Dichos caracteres o marcas pueden ser escritos de forma automática por máquinas de escribir o impresoras de computadora o también de forma manual.

El documento base donde se encuentran los caracteres o marcas tiene características que dependen de la aplicación que se trate. Actualmente existen multitud de modelos de escritura y lectura y aplicaciones que los utilizan.

Uno de los modelos de caracteres que más se ha utilizado es el 7B, fundamentalmente en tarjetas de crédito y otros documentos comerciales y financieros.

Existen formatos de caracteres ópticos que se escriben a mano.

Las marcas ópticas utilizadas dependen de la aplicación que se trate, puesto que vienen condicionadas por el tipo de formato de los documentos que se utilicen. Entre otros tipos de aplicaciones podemos citar la realización de exámenes tipo test, en los que se marcan determinadas señales para indicar las respuestas que posteriormente serán reconocidas por la correspondiente lectora, y la confección de apuestas en las que por medio de signos o cruces colocamos en las mismas posiciones se realizan las mismas.

En aplicaciones comerciales se utiliza cada día más el denominado código universal de productos (universal product code-UPC), consistente en una representación de caracteres a base de barras de anchura y separación variable; también se le conoce con el nombre de código de barras.

Disco óptico

El soporte de información en disco óptico, también denominado disco compacto (compact disc-CD), aparece como consecuencia de su alta difusión en el mundo de la música y la imagen, donde recibe el nombre de compact-disk o video-disk, y se utiliza en este ámbito para el registro de señales analógicas digitalizadas, tanto musicales como de vídeo, con una alta calidad y densidad de grabación. Por lo tanto, y debido a sus características, el disco óptico configura un soporte de información de alta densidad y por ello de alta capacidad de almacenamiento de datos sensiblemente superior a la de discos magnéticos y que puede oscilar entre varios cientos de megabytes y un gigabyte por cara del disco.

La información se registra, en el caso más general, en una superficie donde se genera minúsculas perforaciones denominadas pits. Capaces de ser detectadas mediante la incisión sobre ellas de un rayo láser que será reflejado de distinta forma si existe o no dicha perforación.

Estos soportes pueden ser solo de lectura, en cuyo caso reciben el nombre de CD-ROM (Compac Disk-read Only memory), o de lectura y grabación, en cuyo caso se denominan Magneto-optical disk rewritable. Actualmente se utilizan para el registro masivo de información y presentaciones multimedia donde es necesario registrar un gran numero de imágenes y sonidos con unas grandes exigencias de memoria.

Unidades de entrada/salida para soportes ópticos.

Son maquinas capaces de reconocer un tipo determinado de caracteres o marcas ópticas y enviar a la computadora las codificaciones correspondientes.

El reconociemiento de caracteres ópticos OCR (Optical Character Recognition) se basa en el principio de reflexión de la luz: el carácter a reconocer se divide en una matriz de puntos en los que aparecerá o no marcado. Genera por cada punto un bit y se compara el conjunto de ellos con matrices parones de los caracteres que hay que reconocer.

El reconocimiento de marcas ópticas es más sencillo que el de caracteres por estar éstas en determinadas posiciones fácilmente detectables por la máquina y no necesitar comparación con patrones.

En las máquinas para el código de barras se utiliza como elemento de lectura un lápiz óptico o un haz luminoso formando por un rayo láser capaz de realizar una imagen tridimensional que permite leer el código en cualquier posición.

Con la aparición de los discos ópticos, que sé estan imponiendo poco a poco como elemento de almacenamiento en disco del futuro, tenemos unidades para lectura y escritura de los mismos; éstos utilizan una técnica avanzada de grabación y lectura donde se analizan las reflexiones de determinadas longitudes de onda sobre una superficie por medio de un haz luminoso producido por el rayo láser

Dispositivos Inalambricos Ó Wi-Fi

Punto de acceso inalámbrico.

Wi-Fi (pronunciado en inglés /waɪfaɪ/, aunque en España se pronuncia /wɪfɪ/), siglas en inglés de Wireless Fidelity, es un sistema de envío de datos sobre redes computacionales que utiliza ondas de radio en lugar de cables, además es una marca de la Wi-Fi Alliance (anteriormente la WECA: Wireless Ethernet Compatibility Alliance), la organización comercial que adopta, prueba y certifica que los equipos cumplen los estándares 802.11.

Unidades de Especiales de Entrada/salida (zip)

Dispositivos de entrada de un ordenador

En computación, entrada/salida, también abreviado E/S o I/O (del original en inglés input/output), es la colección de interfaces que usan las distintas unidades funcionales (subsistemas) de un sistema de procesamiento de información para comunicarse unas con otras, o las señales (información) enviadas a través de esas interfaces. Las entradas son las señales recibidas por la unidad, mientras que las salidas son las señales enviadas por ésta. El término puede ser usado para describir una acción; "realizar una entrada/salida" se refiere a ejecutar una operación de entrada o de salida. Los dispositivos de E/S los usa una persona u otro sistema para comunicarse con una computadora. De hecho, a los teclados y ratones se los considera dispositivos de entrada de una computadora, mientras que los monitores e impresoras son vistos como dispositivos de salida de una computadora. Los dispositivos típicos para la comunicación entre computadoras realizan las dos operaciones, tanto entrada como salida, y entre otros se encuentran los módems y tarjetas de red.

Es importante notar que la designación de un dispositivo, sea de entrada o de salida, cambia al cambiar la perspectiva desde el que se lo ve. Los teclados y ratones toman como entrada el movimiento físico que el usuario produce como salida y lo convierten a una señal eléctrica que la computadora pueda entender. La salida de estos dispositivos son una entrada para la computadora. De manera análoga, los monitores e impresoras toman como entrada las señales que la computadora produce como salida. Luego, convierten esas señales en representaciones inteligibles que puedan ser interpretadas por el usuario. La interpretación será, por ejemplo, por medio de la vista, que funciona como entrada.

En arquitectura de computadoras, a la combinación de una unidad central de procesamiento (CPU) y memoria principal (aquélla que la CPU puede escribir o leer directamente mediante instrucciones individuales) se la considera el corazón de la computadora y cualquier movimiento de información desde o hacia ese conjunto se lo considera entrada/salida. La CPU y su circuitería complementaria proveen métodos de entrada/salida que se usan en programación de bajo nivel para la implementación de controladores de dispositivos.

Los sistemas operativos y lenguajes de programación de más alto nivel brindan conceptos y primitivas de entrada/salida distintos y más abstractos. Por ejemplo, un sistema operativo brinda aplicativos que manejan el concepto de archivos. El lenguaje de programación C define funciones que les permiten a sus programas realizar E/S a través de streams, es decir, les permiten leer datos desde y escribir datos hacia sus programas.

Una alternativa para las funciones primitivas especiales es la mónada de E/S, que permite que los programas describan su E/S y que las acciones se lleven a cabo fuera del programa. Esto resulta interesante, pues las funciones de E/S introducirían un efecto colateral para cualquier lenguaje de programación, pero ahora una programación puramente funcional resultaría práctica.

Dispositivos de entrada y salida [editar]

• Entrada:

o Teclado

o Ratón

o Joystick

o Lápiz óptico

o Micrófono

o Webcam

o Escáner

o Escáner de código de barras

o Pantalla táctil

• Salida:

o Monitor

o Altavoz

o Auriculares

o Impresora

o Plotter

o Proyector

• Entrada/salida:

o Unidades de almacenamiento

o CD

o DVD

o Módem

o Fax

o Memory cards

o USB

BIBLIOGRAFIA

http://www.pchardware.org

http://www.galenored.com/nuevopc/partes/hardware.htm

http://www.conozcasuhardware.com/quees/

http://www.conocimientosweb.net/dcmt

*Sistema Básico de Entrada\salida (BIOS)

*Unidades de Disco

*Unidades de almacenamiento

*Secuencia de arranque

*Seguridad de Acceso

*Fecha y Hora

Sistema Básico de Entrada\salida (BIOS)

Ahora nos meteremos un poco con la famosa y misteriosa BIOS, también llamado el "SETUP" (recuerda que se accede pulsando la tecla SUPR mientras hace el test de memoria al arrancar, aunque en otras placas más raras se hace con F1 o combinaciones de otras teclas). Ante todo tenemos que decirte que no existe la configuración de BIOS perfecta, sino que cada una de las configuraciones posibles se hace con un propósito (conseguir la mayor velocidad en los gráficos, conseguir el funcionamiento de disco duro más eficiente, el acceso a memoria más rápido). El aumentarle en un punto le hará bajar en los demás. En realidad la configuración más ideal es la que viene por defecto, pero esta última suele traer unos valores un tanto "holgados" para ofrecer máximas compatibilidades. Pongamos un ejemplo: en las bios que soportan RAM y RAM EDO, hay una opción que permite aumentar la velocidad de este segundo tipo. Sin embargo, si esa opción la utilizamos con el primer tipo habría problemas, por lo que la opción determinada es ese acceso un poco más rápido quitado, con el fin de que vaya bien con las dos memorias.

Antes de comenzar, ten en cuenta de que hay dos métodos para restaurar los valores iniciales en caso de error: uno es la opción LOAD SETUP DEFAULTS, que permitirá cargar los valores por defecto. La otra opción es factible en el caso de que el ordenador no arranque. En este caso, habrá que cambiar el jumper de la placa base que sirve para borrar la CMOS (chip donde la BIOS guarda sus valores, recuerda que la BIOS está en una memoria ROM, Read Only Memory -> memoria de sólo lectura). Si carece de dicho jumper, habrá que quitar la pila de litio que alimenta a la CMOS. Si la pila está soldada a la placa base, lee la frase que viene a continuación:

Y nos queda por decir lo típico, que no nos responsabilizamos de los posibles problemas ocasionados por la mala utilización de estos consejos sobre la BIOS, y que se menciona con un propósito meramente informativo. Es sólo para usuarios avanzados. Así que quedas avisado. Aunque te todas formas no hay demasiado peligro. Si hay alguna opción que no entiendes, no la toques. También recuerda apuntar en papel todos los valores anteriores en caso de perder rendimiento y no verte obligado a usar la opción LOAD BIOS DEFAULTS

Dicho esto, te comentaremos todos y cada uno de los valores de la BIOS en cada una de sus secciones. Dado que no todas las BIOS son iguales, habrá opciones que estén en las antiguas o en las nuevas, aunque trataremos de decir lo más posible:

STANDARD CMOS SETUP

• Fecha y hora. Pues eso, la fecha y la hora. Recuerda que si tienes Windows 95 OSR2 o Windows 98 más una placa base de última generación ésta será la hora que te aparecerá en la barra de tareas de Windows, así que pon la correcta).

• Primary Master/Primary Slave/Seconday master/Secondary Slave: si tu BIOS es de las nuevas, déjalo en TYPE AUTO para quitarte problemas (lo detecta todo correctamente) y pasa al siguiente apartado. Si no tienes auto, sigue leyendo:

• TYPE: 1-46, son discos duros predefinidos; USER es el introducido por el usuario o el detectado por el IDE HDD AUTO DETECTION (recomendamos usarlo), y AUTO es lo que hemos dicho en el párrafo anterior.

• CYLS, HEAD, SECTOR: son los cilindros, cabezas y sectores. Es muy importante saberlo, especialmente si la opción IDE HDD AUTO DETECTION nos presenta las tres opciones del MODE (NORMAL, LARGE y LBA). Si no los sabes, ya puedes ir comenzando a desmontar el ordenador y mirar la pegatina del disco duro.

• PRECOMP Y LANDZ: son dos valores arbitrarios y casi podemos meter el número que nos dé la gana sin que afecte al rendimiento. Se puede poner un 0 (cero) en ambos casos, y en el segundo también un 65535. Por ejemplo, el LANDZ es el lugar donde se coloca el brazo lector del disco duro al principio.

• MODE: es el método de acceso a los discos duros. NORMAL es el modo de acceso tradicional, de menos de 528 Mb., LBA es para más de 528 Mb. y LARGE es para discos de 528 Mb. sin LBA. Al menos ésta es la teoría, pues nosotros tenemos un disco IDE de 6,3 Gb. y el IDE HDD AUTO DETECTION sólo muestra la opción NORMAL. También aparece una opción AUTO para que lo detecte solo.

• FLOPPY DRIVE A/FLOPPY DRIVE B. Con esto pondremos el tipo de unidad de disquete que se está utilizando en ese momento, con una relación entre el tamaño del disquete y su tamaño en pulgadas. Si tienes una sola unidad recuerda ponerla como A: y dejar la B: vacía

• BOOT SECTOR VIRUS PROTECTION: Esto también puede situarse en el apartado BIOS FEATURES SETUP. Hay que dejarlo en DISABLED sobre todo cuando instalamos el Windows.

BIOS FEATURES SETUP

Aquí suelen diferir unas BIOS de otras. Primero pondremos las opciones de una BIOS moderna y después las de una BIOS un poco más antigua:

• 1st Boot Device/2nd Boot Device/3rd Boot Device/4th Boot Device: Decide el orden en que quieres que el ordenador reconozca las unidades con los archivos de arranque (recuerda que son el COMMAND.COM, IO.SYS y MSDOS.SYS). Dichas opcionses pueden ser:

o IDE 0: Arranca desde el disco IDE maestro en el canal primario

o IDE 1: Arranca desde el disco IDE maestro en el canal segundario

o IDE 2: Arranca desde el disco IDE esclavo en el canal primario

o IDE 3: Arranca desde el disco IDE esclavo en el canal secundario

o Floppy: Arranca desde la(s) unidad(es) de disquete

o ARMD FDD/ARM HDD: Arranca desde una unidad LS-120 o ZIP, o desde un disco IDE maestro en el canal primario

o CDROM: Arranca desde una unidad CD-ROM ATAPI (según nuestras pruebas, puede ser IDE o SCSI)

o SCSI: Arranca desde una unidad SCSI (según lo tengamos en la BIOS de la controladora SCSI)

o Network: Arranca desde la red

• TRY OTHER BOOT DEVICES: Prueba otras opciones que no haya sido posible incluir en las 4 anteriores.

• QUICK BOOT: Recomendamos poner DISABLED. Lo que hace botear rápidamente cuando el ordenador está encendido. La opción DISABLED da tiempo para pulsar la tecla (es decir, SUPR) mientras hace el test de memoria, y espera durante 40 segundos a recibir alguna señal del disco duro IDE (en el caso de que lo tengamos configurado, aunque este tipo suele ser mucho menor si lo está correctamente. ENABLED hace no espere a reconocer el disco IDE, y si no recibe una señal inmediatamente no lo configurará. Tampoco podremos arrancar la BIOS pues no saldrá el mensaje de pulsar la tecla . En este último caso, para entrar en la BIOS tendremos que apagar y encender el ordenador con el botón frontal.

• ABOVE 1 MB. MEMORY TEST: SÓLO SALE SI LA ANTERIOR OPCIÓN ESTÁ EN ENABLED. Permite testear o no más allá del Mb. de memoria. Recomendamos dejarlo en ENABLED, ya que si no hace el test podemos tener problemas.

• BOOT UP NUMLOCK STATUS: ON hace que las teclas de la calculadora del teclado (a la decha del todo) funcionen como números, y OFF hace que funcionen como flechas.

• FLOPPY DRIVE SWAP: Si está en ENABLED cambia la unidad A: por la B: sin tener que hacerlo con el cable físico. Normalmente déjalo en DISABLED.

• FLOPPY ACCESS CONTROL y HARD DISK ACCESS CONTROL: Determinan el tipo