miércoles, 2 de marzo de 2011

QUE ES UNA UPS

Se puede plantear en este punto una definición de UPS, una traducción literal del termino aceptado mundialmente,
UPS ( Uninterrumpible Power Supply) seria, Fuente de poder ininterrumpido. Es un equipo o dispositivo capaz de
suministrar potencia o energía frente a alguna interrupción de lo que seria el suministro normal de la misma.
Además puede agregar otras funciones que terminan mejorando el suministro de energía eléctrica a los equipos
sofisticados o de alto riesgo eléctrico que tiene conectados a ella. Entre las cosas que agrega puede contarse un
estabilizado de la energía eléctrica entrante, aislación de la fuente de energía de eléctrica normal, filtrado de la
energía entrante, corrección de la forma de onda, corrección de la frecuencia de línea, protección a periféricos de
las CPU o incluso sus partes, como placas de red o modem’s, monitoreo de la energía de línea, para optimizar la
protección, etc. Puede darse que el agregado de funciones genere distintos tipos o topología de construcción de
estos equipos.
Una UPS nos protege, de todos los problemas eléctricos conocidos, pero no lo hace en el 100% en todos los
casos. Con mayor precisión, esto quiere decir que nos protegerá de una caída de voltaje, pero no de todas las
caidas. Para que quede más claro, una caída de voltaje tiene parámetros que la identifican, podríamos citar dos
uno la profundidad de la misma y otra el tiempo de duración de esta. Una caída de voltaje puede llegar por ejemplo
hasta 172 Voltios, pero puede durar 4 segundos o 4 milésimas de segundos, de acuerdo al tipo de UPS que
estemos usando, tendremos distintas respuestas. Lo mismo ocurre con los otros fenómenos eléctricos. El caso
más visto es el de pensar que una UPS, instalada en una zona rural, soluciona todos los problemas que se
presentan, esta es otra mentira, de la cual hay que cuidarse de no cometer, existen estrategias de protección para
estos casos y nos es tan sencillo de solucionar, como sería el caso de la instalación de una UPS. Pero no todo es
tan poco objetivo, se puede afirmar que una UPS soluciona un porcentaje muy importante de los problemas
eléctricos que se presentan, fundamentalmente los cortes repentinos, los voltajes fuera de rango, las caídas de
voltaje, en gran medida las sobre-tensiones, casi totalmente los ruidos EMI/RFI.
   

QUE ES UN REGULADOR ISOLADO

Un regulador de voltaje (también llamado estabilizador de voltaje o acondicionador de voltaje) es un equipo eléctrico que acepta una tensión eléctrica de voltaje variable a la entrada, dentro de un parámetro predeterminado y mantiene a la salida una tensión constante (regulada).
Son diversos tipos de reguladores de voltaje, los más comunes son de dos tipos: para uso doméstico o industrial. Los primeros son utilizados en su mayoría para proteger equipo de cómputo, video, o electrodomésticos. Los segundos protegen instalaciones eléctricas completasaparatos o equipo eléctrico sofisticado, fabricas, entre otros. El costo de un regulador de voltaje estará determinado en la mayoría de los casos por su calidad y vida útil en funcionamiento continuo.
Existen diversos tipos de reguladores en el mercado, los cuales se clasifican de acuerdo al principio o tecnología de regulación que utilizan. Los más importantes son:
  • Los reguladores electromecánicos basan su principio de funcionamiento en un auto transformador de columna, sobre la cual se dispone un cursor accionado por un servomotor, que en su recorrido suma o resta espiras. Este movimiento de auto ajuste es controlado por un comando electrónico, que se activa cada vez que la tensión de salida se desvía de su valor de calibración, ajustándose automáticamente y con ello mantiene permanentemente la tensión de salida estable. Las ventajas que ofrece este principio son que cuenta con una alta precisión (1,5%) y eficiencia del 99%, teniendo capacidad de sobrecarga de hasta 500% sin generación de contenido armónico, sin embargo aunque no genera ruido armónico tampoco lo elimina. Su vida útil es mayor a 25 años en funcionamiento continuo a plena carga por su diseño y robustez.
  • Los reguladores electrónicos basan su regulación en un control electrónico, pueden llevar microprocesador para regular o simplemente un circuito de control que detecta las variaciones del voltaje y hace la corrección a través de relevadores para regular la tensión. Su tiempo de respuesta y velocidad de regulación son rápidos además de ser económicos en comparación a los otros tipos. Sin embargo, los rangos de tensión de entrada son reducidos y la precisión de la tensión de salida es baja de +/- 3% a +/- 5%. Su diseño propicia que se desconecten para autoprotegerse en condiciones extremas de alta y baja tensión, lo que genera costos de mantenimiento haciendolos equipos de corta duracion. En la mayoría de los casos solo ofrecen regulación en la fase y no en la línea de neutro, se autoprotegen utilizando varistores a la salida para provocar un corto circuito y activar su fusible.
  • Los reguladores ferroresonantesLa ferroresonancia es la propiedad del diseño de un transformador en el cual el transformador contiene dos patrones magnéticos separados con acoplamiento limitado entre ellos. La salida contiene un circuito resonante paralelo que toma su potencia del primario para reemplazar la potencia entregada a la carga. Hay que notar que la resonancia en la ferroresonancia es similar a aquella en los circuitos lineales con capacitores o inductores en serie o paralelo, en donde la impedancia tiene un pico a una frecuencia en particular. En un circuito no lineal, como el que se usa en los transformadores ferroresonantes, la resonancia se usa para reducir los cambios en el voltaje de alimentación para suministrar un voltaje más consistente, en la carga.
 

QUE ES UNA FUENTE ATX

El estándar ATX (Advanced Technology Extended) se desarrollo como una evolución del factor de forma de Baby-AT, para mejorar la funcionalidad de los actuales E/S y reducir el costo total del sistema. Este fue creado por Intel en 1995. Fue el primer cambio importante en muchos años en el que las especificaciones técnicas fueron publicadas por Intel en 1995 y actualizadas varias veces desde esa época, la versión más reciente es la 2.2 publicada en 2004.
Una placa ATX tiene un tamaño de 305 mm x 244 mm (12" x 9.6"). Esto permite que en algunas cajas ATX quepan también placas microATX.
Otra de las características de las placas ATX son el tipo de conector a la fuente de alimentación, el cual es de 24 (20+4) contactos que permiten una única forma de conexión y evitan errores como con las fuentes AT y otro conector adicional llamado P4, de 4 contactos. También poseen un sistema de desconexión por software.
           

QUE ES UNA FUENTE AT

En los modelos para máquinas AT es también imprescindible que incorporen un interruptor para encender y apagar la máquina, no así en las basadas en ATX, pues la orden de encendido le llegará a través de una señal desde la propia placa base. Todo y así es bastante habitual encontrar uno para "cortar" el fluido eléctrico a su interior, pues los ordenadores basados en éste estándar están permanentemente      alimentados, aun    cuando están apagados. Es por ello que siempre que trasteemos en su interior es  IMPRESCINDIBLE   que o bien utilicemos el interruptor comentado o bien desenchufemos el cable de alimentación.
ESQUEMA DE LOS CONCTORES
Este es el esquema de los dos conectores que provienen de la fuente de alimentación y que se utilizan para suministra energía eléctrica a las placas base de tipo AT. Normalmente vienen marcados como P8 y P9. Es importante recordar que no se pueden intercambiar entre sí, debiendo quedar siempre los cables negros juntos y en el centro.
Son del tipo MOLEX 90331-0001 o equivalente
 

 

GENERACIONES DE LOS COMPUTADORES

Primera Generación (1951 a 1958)
Las computadoras de la primera Generación emplearon bulbos para procesar información



La programación se realizaba a través del lenguaje de máquina. Las memorias estaban construidas con finos tubos de mercurio liquido y tambores magnéticos. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas.
Estos computadores utilizaban la válvula de vacío. Por lo que eran equipos sumamente grandes, pesados y generaban mucho calor.
La Primera Generación se inicia con la instalación comercial del UNIVAC construida por Eckert y Mauchly. El procesador de la UNIVAC pesaba 30 toneladas y requería el espacio completo de un salón de 20 por 40 pies.
Segunda Generación (1959-1964)
El Transistor Compatibilidad Limitada sustituye la válvula de vacío utilizada en la primera generación. Los computadores de la segunda generación erán más rápidas, más pequeñas y con menores necesidades de ventilación. Estas computadoras también utilizaban redes de núcleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales podían almacenarse datos e instrucciones.
Los programas de computadoras también mejoraron. COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación.
Tercera Generación (1964-1971)
Circuitos Integrados, Compatibilidad con Equipo Mayor, Multiprogramación, Minicomputadora
Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes.
Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexibilidad de los programas, y estandarizan los modelos.
Cuarta Generación (1971 a 1981)
Microprocesador, Chips de memoria, Microminiaturización
Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de chips de silicio y la colocación de Muchos más componentes en un Chip: producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesadory de chips hizo posible la creación de las computadoras personales (PC)
En 1971, intel Corporation, que era una pequeña compañía fabricante de semiconductoresubicada en Silicon Valley, presenta el primer microprocesador o Chip de 4 bits, que en un espacio de aproximadamente 4 x 5 mm contenía 2 250 transistores. Este primer microprocesador que se muestra en la figura 1.14, fue bautizado como el 4004.
Silicon Valley (Valle del Silicio) era una región agrícola al sur de la bahía de San Francisco, que por su gran producciónde silicio, a partir de 1960 se convierte en una zona totalmente industrializada donde se asienta una gran cantidad de empresas fabricantes de semiconductores y microprocesadores. Actualmente es conocida en todo el mundo como la región más importante para las industrias relativas a la computación: creación de programas y fabricación de componentes.
QUINTA GENERACIÓN Y LA INTELIGENCIA ARTIFICIAL (1982-1989)Cada vez se hace más difícil la identificación de las generaciones de computadoras, porque los grandes avances y nuevos descubrimientos ya no nos sorprenden como sucedió a mediados del siglo XX. Hay quienes consideran que la cuarta y quinta generación han terminado, y las ubican entre los años 1971-1984 la cuarta, y entre 1984-1990 la quinta. Ellos consideran que la sexta generación está en desarrollo desde 1990 hasta la fecha.
Siguiendo la pista a los acontecimientos tecnológicos en materia de computación e informática, podemos puntualizar algunas fechas y características de lo que podría ser la quinta generación de computadoras.
Con base en los grandes acontecimientos tecnológicos en materia de microelectrónica y computación (software) como CADI CAM, CAE, CASE, inteligencia artificial, sistemas expertos, redes neuronales, teoría del caos, algoritmos genéticos, fibras ópticas, telecomunicaciones, etc., a de la década de los años ochenta se establecieron las bases de lo que se puede conocer como quinta generación de computadoras.

SEXTA GENERACIÓN 1990 HASTA LA FECHAComo supuestamente la sexta generación de computadoras está en marcha desde principios de los años noventas, debemos por lo menos, esbozar las características que deben tener las computadoras de esta generación. También se mencionan algunos de los avances tecnológicos de la última década del siglo XX y lo que se espera lograr en el siglo XXI. Las computadoras de esta generación cuentan con arquitecturas combinadas Paralelo / Vectorial, con cientos de microprocesadores vectoriales trabajando al mismo tiempo; se han creado computadoras capaces de realizar más de un millón de millones de operaciones aritméticas de punto flotante por segundo (teraflops); las redes de área mundial (Wide Area Network, WAN) seguirán creciendo desorbitadamente utilizando medios de comunicación a través de fibras ópticas y satélites, con anchos de banda impresionantes. Las tecnologías de esta generación ya han sido desarrolla das o están en ese proceso. Algunas de ellas son: inteligencia / artificial distribuida; teoría del caos, sistemas difusos, holografía, transistores ópticos, etcétera. 


PRIMERA GENERACION
           
 

 

SEGUNDA GENERACION
           

TERCERA GENERACION

        

 CUARTA GENERACION

    
QUINTA GENERACION
        
SEXTA GENERACION