Seguidores

Hardware y Software

miércoles, septiembre 24, 2008 by Tanino Ferri

Filed under having 1 comentarios  

Partes del Computador (CPU)

by Tanino Ferri

UNIDAD CENTRAL DE PROCESO O CPU


(conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).

Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente.

La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.

Filed under having 2 comentarios  

HISTORIA DE LA COMPUTACION

by Tanino Ferri

Del Abaco a la tarjeta perforada

EL ABACO; quizá fue el primer dispositivo mecánico de contabilidad que existió. Se ha calculado que tuvo su origen hace al menos 5000 años y su efectividad ha soportado la prueba del tiempo.

LA PASCALINA; El inventor y pintor Leonardo Da Vencí (1452-1519) trazó las ideas para una sumadora mecánica. Siglo y medio después, el filósofo y matemático francés Balicé Pascal (1623-1662) por fin inventó y construyó la primera sumadora mecánica. Se le llamo Pascalina y funcionaba como maquinaria a base de engranes y ruedas. A pesar de que Pascal fue enaltecido por toda Europa debido a sus logros, la Pascalina, resultó un desconsolador fallo financiero, pues para esos momentos, resultaba más costosa que la labor humana para los cálculos artiméticos.

LA LOCURA DE BABBAGE, Charles Babbage (1793-1871), visionario inglés y catedrático de Cambridge, hubiera podido acelerar el desarrollo de las computadoras si él y su mente inventiva hubieran nacido 100 años después. Adelantó la situación del hardware computacional al inventar la "máquina de diferencias", capaz de calcular tablas matemáticas. En 1834, cuando trabajaba en los avances de la máquina de diferencias Babbage concibió la idea de una "máquina analítica". En esencia, ésta era una computadora de propósitos generales. Conforme con su diseño, la máquina analítica de Babbage podía suma r, substraer, multiplicar y dividir en secuencia automática a una velocidad de 60 sumas por minuto. El diseño requería miles de engranes y mecanismos que cubrirían el área de un campo de futbol y necesitaría accionarse por una locomotora. Los escépticos l e pusieron el sobrenombre de "la locura de Babbage". Charles Babbage trabajó en su máquina analítica hasta su muerte. Los trazos detallados de Babbage describían las características incorporadas ahora en la moderna computadora electrónica. Si Babbage hubiera vivido en la era de la
tecnología electrónica y las partes de precisión, hubiera adelantado el nacimiento de la computadora electrónica por varías décadas. Ironicamente, su obra se olvidó a tal grado, que algunos pioneros en el desarrollo de la computadora electrónica ignoraron por completo sus conceptos sobre memoria, impresoras, tarjetas perforadas y control de pro grama secuencia.

LA PRIMERA TARJETA PERFORADA; El telar de tejido, inventado en 1801 por el Francés Joseph-Marie Jackard (1753-1834), usado todavía en la actualidad, se controla por medio de tarjetas perforadas. El telar de Jackard opera de la manera siguiente: las tarje tarjetas se perforan estratégicamente y se acomodan en cierta secuencia para indicar un diseño de tejido en particular. Charles Babbage quiso aplicar el concepto de las tarjetas perforadas del telar de Jackard en su motor analítico. En 1843 Lady Ada Augusta Lovelace sugirió la idea de que las tarjetas perforadas pudieran adaptarse de manera que propiciaran que el motor de Babbage repitiera ciertas operaciones. Debido a esta sugerencia algunas personas consideran a Lady Lovelace la primera programadora.

Herman Hollerit (1860-1929) La oficina de censos estadounidense no terminó el censo de 1880 sino hasta 1888. La dirección de la oficina ya había llegado a la conclusión de que el censo de cada diez años tardaría mas que los mismo 10 años para terminarlo. La oficina de censos comisiono al estadística Herman Hollerit para que aplicara su experiencia en tarjetas perforadas y llevara a cabo el
censo de 1890. Con el procesamiento de las tarjetas perforadas y el tabulador de tarjetas perforadas de Hollerit, el censo se terminó en sólo 3 a años y la oficina se ahorró alrededor de $5,000,000 de dólares. Así empezó el procesamiento automatizado de datos. Hollerit no tomó la idea de las tarjetas perforadas del invento de Jackard, sino de la "fotografía de perforación" Algunas líneas ferroviarias de la época expedían boletos con descripciones físicas del pasajero; los conductores hacían orificios en los boletos que describían el color de cabello, de ojos y la forma de nariz del pasajero. Eso le dió a Hollerith la idea para hacer la fotografía perforada de cada persona que se iba a tabular. Hollertih fundó la Tabulating Machine Company y vendió sus productos en todo el mundo. La demanda de sus máquinas se extendió incluso hasta Rusia. El primer censo llevado a cabo en Rusia en 1897, se registró con el Tabulador de Hollerith. En 1911, la Tabulating Machine Company, al unirse con otras Compañías, formó la Computing-Tabulating-Recording-Company.

LASMAQUINAS ELECTROMECANICAS DE CONTABILIDAD (MEC) Los resultados de las máquinas tabuladoras tenían que llevarse al corriente por medios manuales, hasta que en 1919 la Computing-Tabulating-Recording-Company. anunció la aparición de la impresora/listadora. Esta innovación revolucionó la manera en que las Compañías efectuaban sus operaciones. Para reflejar mejor el alcance de sus intereses comerciales, en 1924 la Compañía cambió el nombre por el de international Bussines Machines Corporation (IBM) Durante décadas, desde mediados de los cincuentas la tecnología de las tarjetas perforadas se perfeccionó con la implantación de más dispositivos con capacidades más complejas. Dado que cada tarjeta contenía en general un registro (Un nombre, direcció n, etc) el procesamiento de la tarjeta perforada se conoció también como procesamiento de registro unitario. La familia de las máquinas electromecánicas de contabilidad (EAM) eloctromechanical accounting machine de dispositivos de tarjeta perforada comprende: la perforadora de tarjetas, el verificador, el reproductor, la perforación sumaria, el intérprete, e l clasificador, el cotejador, el calculador y la máquina de contabilidad. El operador de un cuarto de máquinas en una instalación de tarjetas perforadas tenía un trabajo que demandaba mucho esfuerzo físico. Algunos cuartos de máquinas asemejaban la actividad de una fábrica; las tarjetas perforadas y las salidas impresas se cambiaban de un dispositivo a otro en carros manuales, el ruido que producía eran tan intenso como el de una planta ensambladora de automóviles.

Pioneros de la computación

ATANASOFF Y BERRY Una antigua patente de un dispositivo que mucha genté creyó que era la primera computadora digital electrónica, se invalidó en 1973 por orden de un tribunal federal, y oficialmente se le dió el credito a John V. Atanasoff como el inventor de la computador a digital electrónica. El Dr. Atanasoff, catedrático de la Universidad Estatal de Iowa, desarrolló la primera computadora digital electrónica entre los años de 1937 a 1942. Llamó a su invento la computadora Atanasoff-Berry, ó solo ABC (Atanasoff Berry Com puter). Un estudiante graduado, Clifford Berry,fue una útil ayuda en la construcción de la computadora ABC.


Algunos autores consideran que no hay una sola persona a la que se le pueda atribuir el haber inventado la computadora, sino que fue el esfuezo de muchas personas. Sin embargo en el antiguo edificio de Física de la Universidad de Iowa aparece una p laca con la siguiente leyenda: "La primera computadora digital electrónica de operación automática del mundo, fue construida en este edificio en
1939 por John Vincent Atanasoff, matemático y físico de la Facultad de la Universidad, quien concibió la idea, y por Clifford Edward Berry, estudiante graduado de física."

Mauchly y Eckert, después de varias conversaciones con el Dr. Atanasoff, leer apuntes que describían los principios de la computadora ABC y verla en persona, el Dr. John W. Mauchly colaboró con J.Presper Eckert, Jr. para desarrollar una máquina que calcul ara tablas de trayectoria para el ejército estadounidense. El producto final, una computadora electrónica completamente operacional a gran escala, se terminó en 1946 y se llamó ENIAC (Electronic Numerical Integrator And Computer), ó Integrador numéric o y calculador electrónico. La ENIAC construida para aplicaciones de la Segunda Guerra mundial, se terminó en 30 meses por un equipo de científicos que trabajan bajo reloj. La ENIAC, mil veces más veloz que sus predecesoras electromecánicas, irrumpió como un importante descubrimiento en la tecnología de la computación. Pesaba 30 toneladas y ocupaba un espacio de 450 mts cuadrados, llenaba un cuarto de 6 m x 12 m y con tenía 18,000 bulbos, tenía que programarse manualmente conectándola a 3 tableros que contenían más de 6000 interruptores. Ingresar un nuevo programa era un proceso muy tedioso que requería días o incluso semanas. A diferencia de las computadoras actuales que operan con un sistema binario (0,1) la ENIAC operaba con uno decimal (0,1,2..9) La ENIAC requería una gran cantidad de electricidad. La leyenda cuenta que la ENIAC, construida en la Universidad de Pensilvania, bajaba las luces de Filadelfia siempre que se activaba. La imponente escala y las numerosas aplicaciones generales de la ENIAC señalaron el comienzo de la primera generación de computadoras.

En 1945, John von Neumann, que había trabajado con Eckert y Mauchly en la Universidad de Pennsylvania, publicó un artículo acerca del almacenamiento de programas. El concepto de programa almacenado permitió la lectura de un programa dentro de la memoria d e la computadora, y después la ejecución de las instrucciones del mismo sin tener que volverlas a escribir. La primera computadora en usar el citado concepto fue la la llamada EDVAC (Eletronic Discrete-Variable Automatic Computer, es decir computadora aut omática electrónica de variable discreta), desarrollada por Von Neumann, Eckert y Mauchly. Los programas almacenados dieron a las computadoras una flexibilidad y confiabilidad tremendas, haciéndolas más rápidas y menos sujetas a errores que los programas mecánicos. Una computadora con capacidad de programa almacenado podría ser utilizada para v arias aplicaciones cargando y ejecutando el programa apropiado. Hasta este punto, los programas y datos podría ser ingresados en la computadora sólo con la notación binaria, que es el único código que las computadoras "entienden". El siguiente desarrollo importante en el diseño de las computadoras fueron los programas intérpretes, que permitían a las personas comunicarse con las computadoras utilizando medios distintos a los numeros binarios. En 1952 Grace Murray Hoper una oficial de la Marina de E.U., desarrolló el primer compilador, un programa que puede traducir enunciados parecidos al inglés en un código binario comprensible para la maquina llamado COBOL (COmmon Business-Oriented Langu aje).



















Generaciones de computadoras

Primera Generación de Computadoras

(de 1951 a 1958) Las computadoras de la primera Generación emplearon bulbos para procesar información. Los operadores ingresaban los datos y programas en código especial por medio de tarjetas perforadas. El almacenamiento interno se lograba con un tambor que giraba rápida mente, sobre el cual un dispositivo de lectura/escritura colocaba marcas magnéticas. Esas computadoras de bulbos eran mucho más grandes y generaban más calor que los modelos contemporáneos. Eckert y Mauchly contribuyeron al desarrollo de computadoras de la 1era Generación formando una Cia. privada y construyendo UNIVAC I, que el Comité del censó utilizó para evaluar el de 1950. La IBM tenía el monopolio de los equipos de procesamiento de datos a base de tarjetas perforadas y estaba teniendo un gran auge en productos como rebanadores de carne, básculas para comestibles, relojes y otros artículos; sin embargo no había logrado el c ontrato para el Censo de 1950.


Comenzó entonces a construir computadoras electrónicas y su primera entrada fue con la IBM 701 en 1953. Después de un lento pero exitante comienzo la IBM 701 se conviertió en un producto comercialmente viable. Sin embargo en 1954 fuen introducido e l modelo IBM 650, el cual es la razón por la que IBM disfruta hoy de una gran parte del mercado de las computadoras. La administración de la IBM asumió un gran riesgo y estimó una venta de 50 computadoras. Este número era mayor que la cantidad de computadoras instaladas en esa época en E.U. De hecho la IBM instaló 1000 computadoras. El resto es historia. Aunque caras y de uso limitado las computadoras fueron aceptadas rápidamente por las Compañías privadas y de Gobierno. A la mitad de los años 50 IBM y Remington Rand se consolidaban como líderes en la fabricación de computadoras.


Segunda Generación


(1959-1964) Transistor Compatibilidad limitada El invento del transistor hizo posible una nueva generación de computadoras, más rápidas, más pequeñas y con menores necesidades de ventilación. Sin embargo el costo seguia siendo una porción significativa del presupuesto de una Compañia. Las computadoras de la segunda generación también utilizaban redes de nucleos magnéticos en lugar de tambores giratorios para el almacenamiento primario. Estos núcleos contenían pequeños anillos de material magnético, enlazados entre sí, en los cuales pod podrian almacenarse datos e instrucciones. Los programas de computadoras también mejoraron. El COBOL desarrollado durante la 1era generación estaba ya disponible comercialmente. Los programas escritos para una computadora podían transferirse a otra con un mínimo esfuerzo. El escribir un programa ya no requería entender plenamente el hardware de la computación. Las computadoras de la 2da Generación eran substancialmente más pequeñas y rápidas que las de bulbos, y se usaban para nuevas aplicaciones, como en los sistemas para reservación en líneas aéreas, control de tráfico aéreo y simulaciones para uso general . Las empresas comenzaron a aplicar las computadoras a tareas de almacenamiento de registros, como manejo de inventarios, nómina y contabilidad. La marina de E.U. utilizó las computadoras de la Segunda Generación para crear el primer simulador de vuelo (Whirlwind I). HoneyWell se colocó como el primer competidor durante la segunda generación de computadoras. Burroughs, Univac, NCR, CDC, HoneyWell, los más grandes competidores de IBM durante los 60s se conocieron como el grupo BUNCH (siglas).



Tercera Generación


(1964-1971) circuitos integrados Compatibilidad con equipo mayor Multiprogramación Minicomputadora Las computadoras de la tercera generación emergieron con el desarrollo de los circuitos integrados (pastillas de silicio) en las cuales se colocan miles de componentes electrónicos, en una integración en miniatura. Las computadoras nuevamente se hicieron más pequeñas, más rápidas, desprendían menos calor y eran energéticamente más eficientes. Antes del advenimiento de los circuitos integrados, las computadoras estaban diseñadas para aplicaciones matemáticas o de negocios, pero no para las dos cosas. Los circuitos integrados permitieron a los fabricantes de computadoras incrementar la flexib ilidad de los programas, y estandarizar sus modelos. La IBM 360 una de las primeras computadoras comerciales que usó circuitos integrados, podía realizar tanto análisis numéricos como administración ó procesamiento de archivos. Los clientes podían escalar sus sistemas 360 a modelos IBM de mayor tamaño y podían todavía correr sus programas actuales. Las computadoras trabajaban a tal velocidad que proporcionaban la capacidad de correr más de un programa de manera simultánea (multiprogramación).

Por ejemplo la computadora podía estar calculando la nomina y aceptando pedidos al mismo tiempo. Minicomputadoras, Con la introducción del modelo 360 IBM acaparó el 70% del mercado, para evitar competir directamente con IBM la empresa Digital Equipment Corporation DEC redirigió sus esfuerzos hacia computadoras pequeñas. Mucho menos costosas de compra r y de operar que las
computadoras grandes, las Minicomputadoras se desarrollaron durante la segunda generación pero alcanzaron su mayor auge entre 1960 y 70.


La cuarta Generación


(1971 a la fecha)

Microprocesador
Chips de memoria.
Microminiaturización

Dos mejoras en la tecnología de las computadoras marcan el inicio de la cuarta generación: el reemplazo de las memorias con núcleos magnéticos, por las de Chips de silicio y la colocación de muchos más componentes en un Chic: producto de la microminiaturi zación de los circuitos electrónicos. El tamaño reducido del microprocesador de Chips hizo posible la creación de las computadoras personales. (PC) Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacén en un clip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupara un cuarto completo.

Clasificación de las computadoras:

Supercomputadoras
Macrocomputadoras
Minicomputadoras
Microcomputadoras o PC´s



Supercomputadoras :


Una supercomputadora es el tipo de computadora más potente y más rápido que existe en un momento dado. Estas máquinas están diseñadas para procesar enormes cantidades de información en poco tiempo y son dedicadas a una tarea específica. Así mismo son las más caras, sus precios alcanzan los 30 MILLONES de dólares y más; y cuentan con un control de temperatura especial, ésto para disipar el calor que algunos componentes alcanzan a tener. Unos ejemplos de tareas a las que son expuestas las supercomputadoras son los siguientes:

1. Búsqueda y estudio de la energía y armas nucleares.
2. Búsqueda de yacimientos petrolíferos con grandes bases de datos sísmicos.
3. El estudio y predicción de tornados.
4. El estudio y predicción del clima de cualquier parte del mundo.
5. La elaboración de maquetas y proyectos de la creación de aviones, simuladores de vuelo. Etc.

Debido a su precio, son muy pocas las supercomputadoras que se construyen en un año. Macrocomputadoras o Mainframes.


macrocomputadoras :

Las macrocomputadoras son también conocidas como Mainframes. Los mainframes son grandes, rápidos y caros sistemas que son capaces de controlar cientos de usuarios simultáneamente, así como cientos de dispositivos de entrada y salida. Los mainframes tienen un costo que va desde 350,000 dólares hasta varios millones de dólares. De alguna forma los mainframes son más poderosos que las supercomputadoras porque soportan más programas simultáneamente. PERO las sup ercomputadoras pueden ejecutar un sólo programa más rápido que un mainframe. En el pasado, los Mainframes ocupaban cuartos completos o hasta pisos enteros de algún edificio, hoy en día, un Mainframe es parecido a una hilera de archiveros en algún cuarto con piso falso, ésto para ocultar los cientos de cables d e los periféricos , y su temperatura tiene que estar controlada.

Minicomputadoras :

En 1960 surgió la minicomputadora, una versión más pequeña de la Macrocomputadora. Al ser orientada a tareas específicas, no necesitaba de todos los periféricos que necesita un Mainframe, y ésto ayudo a reducir el precio y costos de mantenimiento . Las Minicomputadoras , en tamaño y poder de procesamiento, se encuentran entre los mainframes y las estaciones de trabajo. En general, una minicomputadora, es un sistema multiproceso (varios procesos en paralelo) capaz de soportar de 10 hasta 200 usuarios simultáneamente. Actualmente se usan para almacenar grandes bases de datos, automatización industrial y aplicacio nes multiusuario. Microcomputadoras o PC´s







microcomputadoras :

Las microcomputadoras o Computadoras Personales (PC´s) tuvieron su origen con la creación de los microprocesadores. Un microprocesador es "una computadora en un chic", o sea un circuito integrado independiente. Las PC´s son computadoras para uso personal y relativamente son baratas y actualmente se encuentran en las oficinas, escuelas y hogares. El término PC se deriva de que para el año de 1981 , IBM®, sacó a la venta su modelo "IBM PC", la cual se convirtió en un tipo de computadora ideal para uso "personal", de ahí que el término "PC" se estandarizó y los clones que sacaron posteriormente otras empresas fueron llamados "PC y compatibles", usando procesadores del mismo tipo que las IBM , pero a un costo menor y pudiendo ejecutar el mismo tipo de programas. Existen otros tipos de microcomputadoras , como la Macintosh®, que no son compatibles con la IBM, pero que en muchos de los casos se les llaman también "PC´s", por ser de uso personal. En la actualidad existen variados tipos en el diseño de PC´s: Computadoras personales, con el gabinete tipo minitorre, separado del monitor. Computadoras personales portátiles "Laptop" o "Notebook". Computadoras personales más comunes, con el gabinete horizontal, separado del
monitor. Computadoras personales que están en una sola unidad compacta el monitor y el CPU. Las computadoras "laptops" son aquellas computadoras que están diseñadas para poder ser transportadas de un lugar a otro. Se alimentan por medio de baterías recargables , pesan entre 2 y 5 kilos y la mayoría trae integrado una pantalla de LCD (Liquid Crys tal Display). Estaciones de trabajo o Workstations Las estaciones de trabajo se encuentran entre las Minicomputadoras y las macrocomputadoras (por el procesamiento). Las estaciones de trabajo son un tipo de computadoras que se utilizan para aplicaciones que requieran de poder de procesam iento moderado y relativamente capacidades de gráficos de alta calidad. Son usadas para: Aplicaciones de ingeniería CAD (Diseño asistido por computadora) CAM (manufactura asistida por computadora) Publicidad Creación de Software en redes, la palabra "workstation" o "estación de trabajo" se utiliza para referirse a cualquier computadora que está conectada a una red de área local.




Historia de la Computación

COMPUTADORA
Máquina capaz de efectuar una secuencia de operaciones mediante un programa, de tal manera, que se realice un procesamiento sobre un conjunto de datos de entrada, obteniéndose otro conjunto de datos de salida.
TIPOS DE COMPUTADORAS
Se clasifican de acuerdo al principio de operación de Analógicas y Digitales.
· COMPUTADORA ANALÓGICA
Aprovechando el hecho de que diferentes fenómenos físicos se describen por relaciones matemáticas similares (v.g. Exponenciales, Logarítmicas, etc.) pueden entregar la solución muy rápidamente. Pero tienen el inconveniente que al cambiar el problema a resolver, hay que realambrar la circuitería (cambiar el Hardware).
· COMPUTADORA DIGITAL
Están basadas en dispositivos biestables, i.e., que sólo pueden tomar uno de dos valores posibles: ‘1’ ó ‘0’. Tienen como ventaja, el poder ejecutar diferentes programas para diferentes problemas, sin tener que la necesidad de modificar físicamente la máquina.
HISTORIA DE LA COMPUTACIÓN
Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.
Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.
La primera computadora fue la máquina analítica creada por Charles Babbage, profesor matemático de la Universidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un proceso tedioso y propenso a errores. En 1823 el gobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas.

Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.
El mundo no estaba listo, y no lo estaría por cien años más.
En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.
En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.
El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumann (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su desarrollo posterior, que es considerado el padre de las computadoras.
La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.
La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.
Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:
· La forma en que están construidas.
· Forma en que el ser humano se comunica con ellas.
Primera Generación
En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.
Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:
· Estas máquinas estaban construidas por medio de tubos de vacío.
· Eran programadas en lenguaje de máquina.
En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).
En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.
En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).
Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.
Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.
La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.
Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.
Segunda Generación
Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.
Las características de la segunda generación son las siguientes:
· Están construidas con circuitos de transistores.
· Se programan en nuevos lenguajes llamados lenguajes de alto nivel.
· reducía su tamaño y crecía su capacidad de procesamiento.
En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.
Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas “programar” (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, “corriendo” el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el “programa” resultante había que “guardarlo” (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.
El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema “constante” es que ninguna solución para el uso de los programas es “constante”. Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.
Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.
La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.
Tercera generación
Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3
Las características de esta generación fueron las siguientes:
· Su fabricación electrónica esta basada en circuitos integrados.
· Su manejo es por medio de los lenguajes de control de los sistemas operativos.
La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).
El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.
En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.
En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.
A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.
A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.
Cuarta Generación
Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada “revolución informática”.
En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.
En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.
Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).
No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.
Quinta Generación
En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.
Japón lanzó en 1983 el llamado “programa de la quinta generación de computadoras”, con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:
· Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
· Manejo de lenguaje natural y sistemas de inteligencia artificial.
El futuro previsible de la computación es muy interesante, y se puede esperar que esta ciencia siga siendo objeto de atención prioritaria de gobiernos y de la sociedad en conjunto.
MODELO DE VON NEUMANN
Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.


Historia de la Computación
Al principio el ábaco fue considerado como una de las herramientas mecánicas para la realización de cálculos aritméticos y como uno de lo avances mas notorios del hombre hacia la modernización, fue hasta que en 1642 Blaise Pascal diseño un aparato que se le nombro “La Pascalina” que estaba basado en mecanismos de relojería que permitía efectuar las operaciones básicas (Suma y Resta).

El funcionamiento principal de La Maquina de Pascal (La Pascalina) se centra en las Ruedas o Engranes, la maquina constaba de varias Ruedas, una Representa a las Unidades, otra a las Decenas, otra a las Centenas, la idea de esta maquina era que una de las ruedas al dar un giro completo en este caso la de la centena ocasionaba que se moviera un décimo de giro la rueda de las unidades y asi sucesivamente.

En 1964, Leibnitz Creo una Maquina que Podía Multiplicar y Dividir, además de las funciones de Sumar y Restar.









William Oughtred, creo una herramienta basada en un descubrimiento matemático realizado 20 años atrás, los logaritmos. El Uso Fundamental de Los Logaritmos es Facilitar el Calculo de Multiplicaciones y Divisiones, reduciéndola a la Suma y Resta de sus logaritmos. Basado en estos resultados, Oughtred invento “La Regla de Calculo” esto fue en paralelo con la salida o descubrimiento de la Maquina de Pascal.









La persona que sentó las Bases para la Computación Moderna Fue “Charles Babbage” (matematico e Ingeniero Ingles). El propuso la construcción de una maquina para que hiciera los cálculos y para no utilizar la regla de calculo, y le llamo “La Maquina de Diferencias”, durante su desarrollo de la Maquina de Diferencias Tuvo Dos Ideas Que hasta este momento Son parte de la computación moderna y forman parte del diseño de cualquier computadora:







1.- La maquina debe de ser capaz de ejecutar varias operaciones elegibles por unas instrucción que se encuentran en un medio externo, es decir que se pueda Programar para que lleve acabo una tarea.
2.- La maquina debe de disponer de un medio para almacenar los datos intermedios y finales








Pensando en estas dos ideas, diseño y le llamo La Maquina Analítica que nunca se construyo por que la tecnología de la época no estaba lo suficientemente desarrollada para llevarla acabo, Tiempo después se realiza la construcción de la Maquina analítica.
Las Características de esta Maquina Analítica incluye una Memoria que puede almacenar hasta 1000 números de hasta 50 dígitos cada uno, las operaciones que realizaba esta maquina eran almacenadas en unas “Tarjetas Perforadas”, se estimaba que la maquina tardaba un segundo en hacer una suma y un Minuto en una Multiplicación.











La Maquina de Hollerith
En la década de 1880, la oficina del censo de los Estados Unidos, deseaba agilizar el proceso del censo de 1890, para llevar acabo esta labor, se contrato a Herman Hollerith (un experto en estadística) para que diseñara alguna técnica que pudiera acelerar el levantamiento de datos y análisis de los datos obtenidos en el censo.









Hollerith propuso la utilización de tarjetas en las que se perforarían los datos, según un estándar preestablecido, una vez perforadas las tarjetas están serian tabuladas y clasificadas por maquinas especiales.










La idea de las tarjetas perforadas no fue original de Hollerith, el se vaso en el trabajo hecho en el telar de Joseph Jacquard, Joseph ingenio un sistema donde la trama de un diseño de una tela asi como la información necesaria para realizar su confección era almacenada en Tarjetas Perforada, el telar realizaba el diseño leyendo la información contenidas en las tarjeta.
La propuesta de Hollerith resulto ser un éxito se proceso la información del censo de 1890 en tan solo 3 Años en comparación con los otros censos que en promedio se procesaban en 8 años.
Después de algún tiempo Hollerith dejo la Oficina del Censo y fundo su propia compañía que se llamo la “Tabulating Machines Company”, y que luego de algunos cambios se convertiría en IBM (International Business Machines Coporation).
En Resumen La Aportación que hizo Hollerith a la Informática fue la Introducción de Las Tarjetas Perforadas para el procesamiento de la información.



El MARK I

En 1944 Concluyo la construcción del “Primer Computador Electromecánico Universal”: “El MARK I”. El Mark I le tomaba seis segundos para efectuar una multiplicación y doce para una división, era una computadora que estaba Basada en Rieles (tenia aproximadamente 3000) con 800 Kilómetros de Cable, con Dimensiones de 17 Metros de Largo, 3 metros de alto y un metro de profundidad. Al Mark I posteriormente se le fueron haciendo mejoras obteniéndose EL MARK II, MARK III, MARK IV.















ENIAC

En 1946 aparece la Primera “Computadora Electrónica” a la cual se le llamo así por que Funcionaba con Tubos al Vació esta computadora era 1500 veces mas rápida que el Mark I, así podía efectuar 5000 sumas o 500 multiplicación en un segundo y permitía el uso de aplicaciones científicas en astronomía, meteorología, etc.











Durante el desarrollo del proyecto el Matematico Von Neumman Propuso unas Mejoras que ayudaron a Llegar a los Modelos Actuales de Computadoras:

1.- Utilizar un sistema de numeración en Base a Dos Dígitos (Binario)
2.- Hacer que las instrucciones de operación estén en la memoria, al igual que los datos.

Basado en el modelo de Von Neumman apareció en 1952 el computador EDVAC que cumplía con todas las especificaciones propuesta por el matemático.











Así Von Neumman junto con Charles Babbage son considerados los Padres de la Informática.











A partir de 1951 las computadoras dejan de ser exclusivas de las universidades, con la construcción de la UNIVAC, se inicia entonces la comercialización de las computadores y dentro de poco IBM se consolidaría como la mayor Empresa de Fabricación de Computadoras.





Generación de Computadoras

En los últimos 40 años el desarrollo de computadoras a sufrido varios cambios, se pueden distinguir diferentes generaciones de computadoras las cuales han sufrido demasiados cambios tecnológicos.
La Primera Generación (1950-1958)

la primera generación coincide con el inicio de la computación comercial, las computadoras de esta generación se caracterizan por su limitada capacidad de memoria y procesamiento. Ejecutaban los procesos secuencialmente : toda la información debería ser almacenada en memoria antes de que el programa debería ser ejecutado y no se podía alimentar a la computadora con otra información hasta que el programa actual terminara.

Como la lectura de las tarjetas era un proceso mecánico, la diferencia que existía entre la velocidad de calculo y las velocidades de lectura de tarjetas o de impresión era significativa. Esto ocasionaba, bajo el esquema secuencial que la unidad central de procesamiento de la computadora permanecería inactiva la mayor parte del tiempo.
Esta situación motivo medios alternos de almacenamiento que fueran mejores. Es entonces cuando se inicia el desarrollo de dos medios magnéticos de almacenamiento: la cinta y el disco, en esta generación empiezan a desarrollarse los primeros lenguajes de programación.

La Segunda Generación (1958-1964)

La segunda generación se inicia cuando aparece las primeras computadoras con transistores, sustituyendo a los computadores que funcionaban con tubos al vació. La tecnología de los transistores incrementaron significativamente la velocidad de procesamiento.
Entonces se idea un modelo de procesamiento conocido con el nombre de procesamiento por lotes (Batch), bajo este modelo, se podían efectuar operaciones de entrada y salida de datos simultáneamente con el proceso del calculo del computador. Esta información era almacenada en cintas magnéticas hasta que el computador se desocupara y pudiera procesar la información. Al termino del proceso, los resultados eran almacenados en otra cinta magnética, hasta que pudieran ser impresos. La implantación de este modelo requería un computador auxiliar que controlara la entrada y salida de información, así como la interacción con el computador principal.

La Tercera Generación (1965-1974)

La era del silicio había llegado, varios circuitos integrados de transistores podían ser incluidos en una pastilla de silicio que no superaba el centímetro cuadrado de tamaño. Los beneficios que se experimentaron fueron: mayor velocidad, menos calor, más memoria, menos tamaño y menos costo. En esta generación se disminuyo el tiempo de ocio introduciendo el modelo de procesamiento concurrente. Bajo este esquema, varios programas pueden residir simultáneamente en la memoria, pero uno solo utiliza el procesador en un momento dado.
Los lenguajes de programación se clasificaron en tres tipos: Los Comerciales, de los cuales el COBOL y RPG eran los que habían tenido mayor aceptación. Los Científicos, en donde el FORTTRAN era el de mayor uso, y el PASCAL el favorito en los principales centros de enseñanza y los de uso General entre los cuales destacan el PL/1, el BASIC y el C.

La Cuarta Generación (1975-?)

Esta es la generación del microcomputador actual. Debido al gran desarrollo logrado en la miniaturización de los circuitos integrados, fue posible llevar el poder de la computación hasta el desarrollo de Laptops. Se desarrollaron las computadoras personales que se caracterizaron principalmente por su bajo costo y su simplicidad de uso.
Una de las áreas que ha desarrollado en esta generación es la referente a la comunicación hombre-maquina o Interfase Amistosa. Se han diseñado interfases graficas, como iconos para representar acciones, ventanas para visualizar la información, etc.

Filed under having 4 comentarios  

COMPONENTES DE UN COMPUTADOR

by Tanino Ferri

Partes de la computadora

Unidad central de proceso o CPU
Memoria RAM
El teclado
Monitor

Unidad central de proceso o CPU
(conocida por sus siglas en inglés, CPU), circuito microscópico que interpreta y ejecuta instrucciones. La CPU se ocupa del control y el proceso de datos en las computadoras. Generalmente, la CPU es un microprocesador fabricado en un chip, un único trozo de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU está formado por una unidad aritmético-lógica que realiza cálculos y comparaciones, y toma decisiones lógicas (determina si una afirmación es cierta o falsa mediante las reglas del álgebra de Boole); por una serie de registros donde se almacena información temporalmente, y por una unidad de control que interpreta y ejecuta las instrucciones. Para aceptar órdenes del usuario, acceder a los datos y presentar los resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones llamado bus. El bus conecta la CPU a los dispositivos de almacenamiento (por ejemplo, un disco duro), los dispositivos de entrada (por ejemplo, un teclado o un mouse) y los dispositivos de salida (por ejemplo, un monitor o una impresora).

Funcionamiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, lleva la cuenta de la siguiente instrucción, para garantizar que las instrucciones se ejecuten en la secuencia adecuada. La unidad de control de la CPU coordina y temporiza las funciones de la CPU, tras lo cual recupera la siguiente instrucción desde la memoria. En una secuencia típica, la CPU localiza la instrucción en el dispositivo de almacenamiento correspondiente.
La instrucción viaja por el bus desde la memoria hasta la CPU, donde se almacena en el registro de instrucción. Entretanto, el contador de programa se incrementa en uno para prepararse para la siguiente instrucción. A continuación, la instrucción actual es analizada por un descodificador, que determina lo que hará la instrucción. Cualquier dato requerido por la instrucción es recuperado desde el dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. A continuación, la CPU ejecuta la instrucción, y los resultados se almacenan en otro registro o se copian en una dirección de memoria determinada.
Memoria RAM

La memoria principal o RAM, abreviatura del inglés Randon Access Memory, es el dispositivo donde se almacenan temporalmente tanto los datos como los programas que la CPU está procesando o va a procesar en un determinado momento. Por su función, es una amiga inseparable del microprocesador, con el cual se comunica a través de los buses de datos. Por ejemplo, cuando la CPU tiene que ejecutar un programa, primero lo coloca en la memoria y recién y recién después lo empieza a ejecutar. lo mismo ocurre cuando necesita procesar una serie de datos; antes de poder procesarlos los tiene que llevar a la memoria principal. Esta clase de memoria es volátil, es decir que, cuando se corta la energía eléctrica, se borra toda la información que estuviera almacenada en ella.
por su función, la cantidad de memoria RAM de que disponga una computadora es una factor muy importante; hay programas y juegos que requieren una gran cantidad de memoria para poder usarlos. otros andarán más rápido si el sistema cuenta con más memoria RAM.
La memoria Caché
dentro de la memoria RAM existe una clase de memoria denominada Memoria Caché que tiene la característica de ser más rápida que las otras, permitiendo que el intercambio de información entre el procesador y la memoria principal sea a mayor velocidad.
Memoria de sólo lectura o ROM
Su nombre vienen del inglés Read Only Memory que significa Memoria de Solo Lectura ya que la información que contiene puede ser leída pero no modificada. En ella se encuentra toda la información que el sistema necesita para poder funcionar correctamente ya que los fabricantes guardan allí las instrucciones de arranque y el funcionamiento coordinado de la computadora. no son volátiles, pero se pueden deteriorar a causa de campos magnéticos demasiados potentes. Al encender nuestra computadora automáticamente comienza a funcionar la memoria ROM. por supuesto, aunque se apague, esta memoria no se borra. El BIOS de una PC (Basic Input Operative System) es una memoria ROM, pero con la facultad de configurarse según las características particulares de cada máquina. esta configuración se guarda en la zona de memoria RAM que posee este BIOS y se mantiene sin borrar cuando se apaga la PC gracias a una pila que hay en la placa principal. Cuando la pila se agota se borra la configuración provocando, en algunos equipos, que la máquina no arranque.
Algunas PC tienen la pila soldada a la placa principal por lo que el cambio de la misma lo debe realizar personal técnico, ya que sino se corre el riesgo de arruinar otros componentes. Su Memoria basada en semiconductores que contiene instrucciones o datos que se pueden leer pero no modificar. En las computadoras IBM PC y compatibles, las memorias ROM suelen contener el software necesario para el funcionamiento del sistema. Para crear un chip ROM, el diseñador facilita a un fabricante de semiconductores la información o las instrucciones que se van a almacenar.
El fabricante produce entonces uno o más chips que contienen esas instrucciones o datos. Como crear chips ROM implica un proceso de fabricación, esta creación es viable económicamente sólo si se producen grandes cantidades de chips. Los diseños experimentales o los pequeños volúmenes son más asequibles usando PROM o EPROM. El término ROM se suele referir a cualquier dispositivo de sólo lectura, incluyendo PROM y EPROM.
El teclado nos permite comunicarnos con la computadora e ingresar la información. Es fundamental para utilizar cualquier aplicación. El teclado más común tiene 102 teclas, agrupadas en cuatro bloques: teclado alfanumérico, teclado numérico, teclas de función y teclas de control.
Se utiliza como una máquina de escribir, presionando sobre la tecla que queremos ingresar. Algunas teclas tienen una función predeterminada que es siempre la misma, pero hay otras teclas cuya función cambia según el programa que estemos usando
Por ejemplo: Un teclado de ordenador de 101/102 teclas lanzado por IBM mediada la vida del PC/AT de esta compañía. Este diseño se ha mantenido como teclado estándar de la línea PS/2, y se ha convertido en la norma de producción de la mayoría de los teclados de los equipos compatibles con IBM. El teclado extendido difiere de sus predecesores por tener doce teclas de función en la parte superior, en lugar de diez a la izquierda.

Tiene además teclas Control y Alt adicionales y un conjunto de teclas para el movimiento del cursor y para edición entre la parte principal del teclado y el teclado numérico. Otras diferencias incluyen cambios en la posición de determinadas teclas, como Escape y Control, y modificaciones en las combinaciones de teclas, como Pausa e Imprimir Pantalla. El teclado extendido y su homónimo de Apple son similares en configuración y diseño.
Las partes del teclado

El teclado alfanumérico: Es similar al teclado de la máquina de escribir. tiene todas las teclas del alfabeto, los diez dígitos decimales y los signos de puntuación y de acentuación. El teclado numérico: Para que funciones el teclado numérico debe estar activada la función "Bloquear teclado numérico". Caso contrario, se debe pulsar la tecla [Bloq Lock] o [Num Lock] para activarlo. Al pulsarla podemos observar que, en la esquina superior derecha del teclado, se encenderá la lucecita con el indicador [Bloq Num] o [Num Lock]. Se parece al teclado de una calculadora y sirve para ingresar rápidamente los datos numéricos y las operaciones matemáticas más comunes: suma, resta, multiplicación y división.
Las teclas de FunciónEstas teclas, de F1 a F12, sirven como "atajos" para acceder más rápidamente a determinadas funciones que le asignan los distintos programas. en general, la tecla F1 está asociada a la ayuda que ofrecen los distintos programas, es decir que, pulsándola, se abre la pantalla de ayuda del programa que se esté usando en este momento.
Las teclas de Control
Si estamos utilizando un procesador de texto, sirve para terminar un párrafo y pasar a un nuevo renglón. Si estamos ingresando datos, normalmente se usa para confirmar el dato que acabamos de ingresar y pasar al siguiente.
Estas teclas sirven para mover el cursor según la dirección que indica cada flecha. Sirve para retroceder el cursor hacia la izquierda, borrando simultáneamente los caracteres. Si estamos escribiendo en minúscula, al presionar esta tecla simultáneamente con una letra, esta última quedará en mayúscula, y viceversa, si estamos escribiendo en mayúscula la letra quedará minúscula.
Es la tecla de tabulación. En un procesador de texto sirve para alinear verticalmente tanto texto como números.
Esta tecla te permite insertar un carácter de manera que todo lo que escribamos a continuación se irá intercalando entre lo que ya tenemos escrito.
Fija el teclado alfabético en mayúscula. al pulsarla podemos podemos observar que, en la esquina superior del teclado, se encenderá la lucecita con el indicador [Blog Mayús] o [Caps Lock]. Mientras es teclado de encuentra fijado en mayúscula, al pulsar la tecla de una letra se pondrá automáticamente en mayúscula. para desactivarla basta con volverla a pulsar. La tecla alternar, al igual que la tecla control, se usa para hacer combinaciones y lograr así ejecutar distintas acciones según el programa que estemos usando. En un procesador de texto sirve para borrar el carácter ubicado a la derecha del cursor. La tecla de control se usa en combinación con otras teclas para activar distintas opciones según el programa que se esté utilizando.
Tanto el teclado como el ratón del ordenador nos permiten introducir datos o información en el sistema. De poco nos sirven si no tenemos algún dispositivo con el que comprobar que esa información que estamos suministrando es correcta. Los monitores muestran tanto la información que aportamos, como la que el ordenador nos comunica. Desde los primeros que aparecieron con el fósforo verde, la tecnología ha evolucionado junto con la fabricación de nuevas tarjetas gráficas. Ahora no se concibe un ordenador sin un monitor en color. Ahora la "guerra" está en el tamaño y en la resolución que sean capaces de mostrar.

La tecnología en la fabricación de monitores es muy compleja y no es propósito ahora de profundizar en estos aspectos. Sí los vamos a tratar superficialmente para que sepáis cuáles son los parámetros que más os van a interesar a la hora de elegir vuestro monitor. Estos parámetros son los siguientes:
Tamaño
Son las dimensiones de la diagonal de la pantalla que se mide en pulgadas. Podemos tener monitores de 9, 14, 15, 17, 19, 20 y 21 ó más pulgadas. Los más habituales son los de 15 pulgadas aunque cada vez son más los que apuestan por los de 17 pulgadas, que pronto pasarán a ser el estándar. Los de 14 pulgadas se usan cada vez menos. Todo esto se debe a que que las tarjetas gráficas que se montan ahora soportan fácilmente resoluciones de hasta 1600x1280 pixels

Resolución
Un pixel es la unidad mínima de información gráfica que se puede mostrar en pantalla. Cuantos más pixels pueda mostrar el monitor de más resolución dispondremos. Traducido a lenguaje "de la calle" quiere decir que más elementos nos cabrán en ella. Es igual que si vivimos en un estudio de 25 m2 y nos mudamos ¡Oh fortunal a una casa de 300 m2. Nosotros somos los mismos, sólo que disponemos de más espacio. Si trabajas con Windows la resolución ampliada es fundamental, puedes tener mas iconos en pantalla, puedes tener abiertas varias aplicaciones y verlas a la vez, sin tener que maximizar cada una cuando cambies a ellas, etc. La resolución está íntimamente relacionada con las dimensiones del monitor, pero no podemos guiarnos fiablemente por esto. Por ejemplo, hay algún monitor de 15 pulgadas que alcanza resoluciones de hasta 1600 x 1280, pero las dimensiones físicas de la pantalla hacen que todo se vea muy reducido, siendo un engorro y además pagamos por unas características que nunca utilizaremos. Para estas resoluciones ampliadas le recomendamos: un monitor de 15 pulgadas para 1024 x 768, y uno de 17 o 20 pulgadas para 1280 x 1024 pixels.
Entrelazado
Es una técnica que permite al monitor alcanzar mayores resoluciones refrescando el contenido de la pantalla en dlls barridos, en lugar de uno. Lo malo de esta técnica es que produce un efecto de parpadeo muy molesto, debido a que el tiempo de refresco no es lo suficientemente pequeño como para mantener el fósforo activo entre las dos pasadas. Procure que su monitor sea no-entrelazado.
Frecuencia de barrido vertical
El rayo de electrones debe recorrer toda la superficie de la pantalla empezando por la esquina superior izquierda, y barriéndola de izquierda a derecha y de arriba abajo. La frecuencia de refresco, medida en Hertzios, es el número de veces que el cañón de electrones barre la pantalla por segundo. ¿Por qué es tan importante este valor? Pues porque si es una frecuencia baja, se hará visible el recorrido del haz de electrones, en forma de un molesto parpadeo de la pantalla. El mínimo debe ser de 70 Hz, pero un buen monitor debe ser capaz de alcanzar frecuencias superior. Cuanto mayor sea el valor de este parámetro mejor, ya que permitirá mayores resoluciones sin necesidad de entrelazar. La imagen será más nítida y estable.
Tamaño del punto (Dot Pltch)
Un punto del monitor es la unidad mínima física que puede mostrarse en la pantalla. Dependiendo de la resolución lógica que utilicemos se adaptará la salida para que un pixel ajuste perfectamente con una o un conjunto de estas celdillas físicas de pantalla. Si un monitor tiene las celdillas muy pequeñas, menor será el tamaño del pixel lógico, con lo cual las resoluciones altas serán más precisas en la calidad de la imagen. Un tamaño muy bueno del punto es de 0.25 mientras que uno de 0.28 o superior muestran resultados deficientes en resoluciones mayores a 800 x 600 pixels.
Existen otros parámetros interesantes, como por ejemplo la posibilidad de almacenar configuraciones en la memoria del monitor, que sea de exploración digital controlada por un microprocesador, la posibilidad de desmagnetizar el tubo (degauss), de ajustar las dimensiones de la imagen, control de color, brillo y contraste, ahorro de energía, baja radiación, etc. Existe una gran variedad de monitores en el mercado entre ellos están los Sony, Hitachi, Samsung, Philips Brilliance, Eizo, Nanao, Toshiba, Proview, etc. Lo que sí debe quedar claro es que si queréis resoluciones de 1024 x 768 optad por uno de 15 pulgadas y mirad muy bien las especificaciones del entrelazado y tamaño del punto (sobre todo).
Filtros para el monitor
Si el monitor es importante para poder ver qué hacemos y lo que nos dice el sistema, más importante son nuestros ojos y nuestra salud. Está demostrado científicamente, y en la práctica, que trabajar ante un monitor produce cansancio, picor e irritación de ojos, vista cansada, dolor de cabeza y visión borrosa. El filtro es un elemento imprescindible, y hasta tal punto que es obligatorio en todos los centros de trabajo. El monitor emite una serie de radiaciones y acumula en la pantalla electricidad estática, causantes de estos síntomas. Los filtros de pantalla se encargan de reducir estos efectos de las radiaciones y de descargar la electricidad estática. Entre las radiaciones emitidas se encuentran la ultravioleta, la infrarroja, la visible (luminosidad), y VLF y ELF (generadas por los campos electromagnéticos que crea el sistema de alimentación). Entre las demás ventajas de instalar un filtro frente a nosotros destacan la eliminación de los reflejos en la pantalla, el aumento de la definición de los colores y caracteres y la reducción de la cantidad de polvo y suciedad que se fija a la pantalla (principalmente por el humo de tabaco) debido a la electricidad estática. En el mercado existe una gran cantidad de filtros cuyo precio oscila entre las 3.000 y 20.000 pesetas. La diferencia se ve sobre todo en el precio, aunque se justifica en el proceso de fabricación, concretamente en el tratamiento del cristal. Los mejores están tratados por las dos caras, poseen filtro ortocromático, un cable para la descarga de la electricidad estática (generadas sobre todo al encender el monitor) y reducen la radiación emitida hasta en un 99%.
La alternativa LCD
Últimamente se habla del avance de la tecnología LCD o cristal líquido, llegando incluso a citarse como posible alternativa de futuro frente al tradicional CRT. Ventajas como el ahorro de consumo y de espacio (LCD posibilita la fabricación de pantalla extra-planas, de muy poca profundidad), así como la prácticamente nula emisión de radiaciones, aportan un gran interés a este tipo de dispositivos. No obstante, su elevado costo unido a los continuos avances en la tecnología CRT hacen que, por el momento, ésta última sea la opción más recomendable. En cualquier caso, no hay que perder de vista esta alternativa; nunca se sabe...
Es el cerebro del ordenador. Se encarga de realizar todas las operaciones de cálculo y de controlar lo que pasa en el ordenador recibiendo información y dando órdenes para que los demás elementos trabajen. Es el jefe del equipo y, a diferencia de otros jefes, es el que más trabaja. En los equipos actuales se habla de los procesadores Pentium MMX y Pentium II/III de Intel además de las alternativas de AMD (familias K6 y K7) y Cyrix (6x86, MII).
Tipos de conexión
El rendimiento que dan los microprocesadores no sólo dependen de ellos mismos, sino de la placa donde se instalan. Los diferentes micros no se conectan de igual manera a las placas: En las placas base más antiguas, el micro iba soldado, de forma que no podía actualizarse (486 a 50 MHz hacia atrás). Hoy día esto no se ve.
En las de tipo Pentium (Socket 7) normales el microprocesador se instala en un zócalo especial llamado ZIF (Zero Insertion Force) que permite insertar y quitar el microprocesador sin necesidad de ejercer alguna presión sobre él. Al levantar la palanquita que hay al lado se libera el microprocesador, siendo extremadamente sencilla su extracción. Estos zócalos aseguran la actualización del microprocesador. Por ejemplo un zócalo ZIF Socket-3 permite la inserción de un 486 y de un Pentium Overdrive. Existen 8 tipos de socket, el 8º es el del Pentium Pro. Y por otro lado, los procesadores Pentium II y Celeron/A de Intel y el Athlon (K7) de AMD van conectados de una forma similar a una tarjeta gráfica o de sonido (por ejemplo). En los procesadores de Intel, el lugar donde se instala es el Slot1 (o Slot2 en las versiones Xeon profesionales) y en el caso del K7 se instala en el SlotA. En ambos existen unas guías de plástico que ayudan a que el microprocesador se mantenga en su posición. Hay que mencionar que algunos procesadores Celeron utilizan la conexión PPGA o Socket 370, similar en cierto modo al Socket 8, con nulas capacidades de ampliación y que sólo ofrece como ventaja un pequeño ahorro en la compra del equipo.


Tanino Ferri
ftaninounefa@gmail.com

Filed under having 0 comentarios  

ESTRUCTURA INTERNA DEL COMPUTADOR

martes, septiembre 23, 2008 by Tanino Ferri

Ucp o cpu (central processing unit).

UCP o procesador, interpreta y lleva a cabo las instrucciones de los programas, efectúa manipulaciones aritméticas y lógicas con los datos y se comunica con las demás partes del sistema. Una UCP es una colección compleja de circuitos electrónicos. Cuando se incorporan todos estos circuitos en un chip de silicio, a este chip se le denomina microprocesador. La UCP y otros chips y componentes electrónicos se ubican en un tablero de circuitos o tarjeta madre.
Los factores relevantes de los chips de UCP son:
Compatibilidad: No todo el soft es compatible con todas las UCP. En algunos casos se pueden resolver los problemas de compatibilidad usando software especial.
Velocidad: La velocidad de una computadora está determinada por la velocidad de su reloj interno, el dispositivo cronométrico que produce pulsos eléctricos para sincronizar las operaciones de la computadora. Las computadoras se describen en función de su velocidad de reloj, que se mide en mega hertz. La velocidad también está determinada por la arquitectura del procesador, es decir el diseño que establece de qué manera están colocados en el chip los componentes individuales de la CPU. Desde la perspectiva del usuario, el punto crucial es que "más rápido" casi siempre significa "mejor".

La unidad de procesamiento central

La unidad de procesamiento central (CPU) es donde se manipulan los datos. En una microcomputadora, el CPU completo está contenido en un chip muy pequeño llamado microprocesador. Todas las CPU tienen por lo menos dos partes básicas, la unidad de control y la unidad aritméticológica. Todos los recursos de la computadora son administrados desde la unidad de control, cuya función es coordinar todas las actividades de la computadora. La unidad de control contiene las instrucciones de la CPU para llevar a cabo comandos. El conjunto de instrucciones, que está incluido dentro de los circuitos de la unidad de control, es una lista de todas las operaciones que realiza la CPU. Cada instrucción en el conjunto de instrucciones es acompañado por un microcódigo, que son instrucciones muy básicas que le dicen a la CPU cómo ejecutar las instrucciones. Cuando la computadora corre un programa, busca los comandos del programa dentro del conjunto de instrucciones de la CPU y las ejecuta en orden. La unidad aritmético-lógico (ALU)es cuando la unidad de control encuentra una instrucción que involucra aritmética o lógica, le pasa el control al segundo componente de la CPU. La ALU incluye un grupo de registros, es decir, memoria construida directamente en la CPU que se usa para guardar datos que están siendo procesados por la instrucción actual.

Unidad Central de Procesamiento (CPU)
La CPU de una computadora contiene la inteligencia de la máquina; es donde se realizan los cálculos y las decisiones. El complejo procedimiento que transforma datos nuevos de entrada en información útil de salida se llama procesamiento. Para llevar a cabo esta transformación, la computadora usa dos componentes: el procesador y la memoria. El procesador es el cerebro de la computadora, la parte que interpreta y ejecuta las instrucciones. El procesador casi siempre se compone de varios circuitos integrados o chips, estos están insertados en tarjetas de circuitos, módulos rígidos rectangulares con circuitos que los unen a otros chips y a otras tarjetas de circuitos.

El microprocesador moderno contiene unos 20 millones de transistores y cada chip terminado es el producto de procesos más complicados que los que se utilizaron en el Proyecto Manhattan para construir la bomba atómica. Y no obstante, pese a un proceso de manufactura extraordinariamente refinado, los microchips se producen en volumen a razón de más de 1,000 millones de unidades por año. Para poner esta complejidad en perspectiva, imagínese que dentro de cada microprocesador diminuto existe una estructura tan compleja como una ciudad de tamaño mediano, incluidas todas sus líneas de energía eléctrica, líneas telefónicas, líneas de drenaje, edificios, calles y casas. Ahora imagine que en esa misma ciudad, millones de personas se desplazan a la velocidad de la luz y con la sincronización perfecta en una danza de coreografía muy complicada.
Y eso es tan sólo un chip. De todas las estadísticas asombrosas que se utilizan para describir el mundo del microprocesador, ninguna es más extraordinaria que ésta: el número total de transistores que integran todos los microchips que se producirán en el mundo este año es equivalente al número de gotas de lluvia que caerán en California durante ese mismo periodo.







La Unidad Aritmético Lógica (UAL), o Arithmetic Logic Unit (ALU), es un circuito digital que calcula operaciones aritméticas (como adición, substracción, etc.) y operaciones lógicas (como OR, NOT, XOR, etc.), entre dos números.
Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se mantiene comprobando si debe activar el pitido del temporizador, etc...
Por mucho, los más complejos circuitos electrónicos son los que están construidos dentro de los chips de microprocesadores modernos como el Pentium. Por lo tanto, estos procesadores tienen dentro de ellos un ALU muy complejo y poderoso. De hecho, un microprocesador moderno (y los mainframes) pueden tener múltiples núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas con múltiples ALU.






Operación del CPU
La operación fundamental de la mayoría de los CPU, sin importar la forma física que tomen, es ejecutar una secuencia de instrucciones almacenadas llamadas "programa". Aquí se habla sobre los dispositivos conformes con la arquitectura de von Neumann común. El programa es representado por una serie de números que se mantentienen en una cierta clase de memoria de computador. Hay cuatro pasos que casi todos los CPU de von Neumann usan en su operación: fetch, decode, execute, y writeback, (leer, decodificar, ejecutar, y escribir).









4.- Unidad de Control.

4.1.- Generalidades.

Es la parte de un ordenador que efectúa la recuperación de las intrucciones en la secuencia apropiada, la interpreta y aplica las señales apropiadas a la UAL y a las demás partes implicadas. Una vez seleccionada y analizada la instrucción deberá accionar los circuitos correspondientes de otras unidades, para que se cumplimente la instrucción, a través del secuenciador o reloj.

Es la encargada de regular y coordinar todo el sistema. Sus actividades se pueden resumir en las siguientes:

a.- Controlar la entrada y salida.
b.- Localizar a cada instrucción por su dirección.
c.- Buscar y analizar la instrucción.
d.- Buscar y procesar el operando.
e.- Preparar la siguiente instrucción.

4.2.- Seguimiento de instrucción por la UC. Ciclos de instrucción y ejecución.

Lo primero es que la UC ordena leer la palabra cuya dirección indica el CP, para lo que se envía dicha dirección al RDM. Una vez leído el contenido se pasará el mismo al RIM con lo que se finaliza el ciclo de instrucción.

A continuación el contenido del RIM pasa al RI y es cuando actúa el codificador-decoficador, analizando el tipo de operación (ciclo de operación), y se incrementa el CP en tantas unidades como ciclos de máquina requiera la instrucción (localiza la dirección de la siguiente instrucción). En este momento se irá transfiriendo el contenido del RI al RDM para obtener la dirección de cada operando (ciclo de dirección o búsqueda), con lo que serán transferidas al RIM por lo que se consume otro nuevo ciclo de memoria, entre tanto toda la información que está recibiendo el RIM está pasando a través de la UC, la cual la irá enviando a la parte de la UAL correspondiente. Una vez que se realiza la operación se pasa el resultado al acumulador para enviarlo luego al RIM, con lo que una vez que se obtiene la dirección donde se almacenará el resultado, la cual esta contenida en el RI, esta se pasa al RDM, con lo que el contenido del RIM se almacenará en la dirección indicada en el RDM, con esto finaliza el ciclo de ejecución.
El ordenador alterna entre ciclos de instrucción y ciclos de ejecución.

4.3.- Registros y componentes de la UC.

Las partes más interesante que intervienen en la ejecución de una instrucción son:

4.3.1.- Contador de instrucciones (CP).

Es de la misma longitud que la parte de dirección de la palabra de instrucción. Consta de una línea puesta a cero y una línea de incrementar o habilitación. Realiza el seguimiento de las instrucciones que se van a utilizar en el programa, con lo que en cada ciclo de instrucción se incrementa a 1, con lo que tenemos la posición de la siguiente instrucción que se va a usar en el programa.

Cuando vamos a acceder a la dirección de memoria especificada en el CP, esta dirección deberá transferirse al RDM, a través del cual accederemos a dicha dirección. Esto se realiza al iniciar cada ciclo de instrucción.

4.3.2.- Registro del código de operación (RI).

Cuando se lee una instrucción de la memoria esta debe codificarse para su interpretación. Dependiendo del tamaño del código de operación así será el tamaño de este registro.

4.3.3.- Los Flip-flop de la unidad de control.

Un flip-flop es un circuito combinatorio o secuencial susceptible de dos estados estables y diferenciados, asociados a los estados lógicos 0 y 1.
Es el registro elemental o célula capaz de almacenar un bit de información. Se le conoce con el nombre de biestable o báscula. Dentro de la unidad de control encontramos distintos biestables.

Flip-flop R: Cuando tiene como valor un 1 significa que debe leer (almacenar en el RIM) de la memoria la dirección almacenada en el RDM, y a continuación se pondrá a 0, ya que no es necesario que este a 1 durante todo el ciclo de memoria.
Flip-flop W: Similar al anterior pero con la salvedad de que cuando esta a 1 deberá escribir en la memoria la palabra que esta almacenada en el RIM, en la dirección que indique el RDM.
Flip. flop I: Cuando se coloca a 1 indica que el ordenador está en ciclo de instrucción.
Flip. flop E: Cuando se coloca a 1 indica que el ordenador está en ciclo de ejecución.

5.- Unidad Aritmético-Lógica.

5.1.- Generalidades.

Es la encargada de realizar las operaciones con los datos procesados por el ordenador. Puede realizar las operaciones aritméticas básicas: suma, resta, multiplicación y división, así como, controlada por la UC operaciones como la de desplazamiento. Este desplazamiento se puede realizar hacia la derecha o hacia la izquierda. La UAL utiliza un registro denominado acumulador donde almacena los resultados de las operaciones antes de ser enviados a la memoria.

5.2.- Partes de la AUL.

5.2.1.- Circuito semisumador.

Tiene dos entradas denominada X e Y, y dos salidas representadas por S y C. Realiza la operación de suma binaria de dos entradas. También devuelve el arrastre de dicha suma binaria.

5.2.2.- Circuito sumador.

Cuando vamos a sumar más de dos dígitos el uso de varios semisumadores no es el más adecuado debido a que los semisumadores no tienen entrada para sumar los bits de arrastre de otros dígitos, es por lo que existen los sumadores, los cuales tienen tres entradas, dos para los sumandos y una para el arrastre del dígito anterior.

5.2.3.- Circuito complementador.

Es el circuito inversor. Se utiliza para calcular el complemento a 1 de un número. Se utiliza normalmente para restar mediante la suma de una de las cantidades complementadas.

5.2.4.- Registros de la UAL.

Están destinados a almacenar información para poder restituirlas cuando sea necesario. Consta de tantos registros elementales o flip-flop como bits este destinado a registrar. Estos registros son los siguientes:

Registro de desplazamiento: Recibe la información de una fuente de entrada y la desplaza a lo largo de la cadena de flip-flops de uno en uno, siempre y cuando se presente un borde de transición positiva de la señal de reloj.

Registro acumulador: Se utiliza para el almacenamiento de resultados parciales a lo largo de un tratamiento. Recibe la información, la mantiene y la transmite según indicaciones de la UC.

6.- Buses.

Es una línea de interconexión, portadora de información y constituida por varios hilos conductores, en sentido físico o varios canales en sentido lógico de transmisión. Cuando un dato pasa de un componente a otro de ordenador lo hace a través del bus. Distinguimos entre dos tipos de buses: de datos y de direcciones.

6.1.- Bus de direcciones.

Este bus utiliza 20 líneas de señales para transmitir las direcciones de las posiciones de memoria y de los dispositivos que están conectados al bus.

6.2.- Bus de datos.

El bus de datos trabaja junto con el bus de direcciones para transportar los datos a través del ordenador. Aunque el 8088 trabaja internamente a 16 bits cuando trabaja con la circuiteria que lo rodea lo hace a través de un bus de 8 bits.

Bus: Vía por la que circulan los datos dentro de una computadora logrando así la interconexión entre las partes; de la memoria al monitor, el modem o la impresora, etc.






El Bus

Conexiones del hardware
Funcionamiento
Manejo de interrupciones

La familia de ordenadores PC interconexiona toda la circuiteria de control interna mediante un diseño de circuito, conocido con el nombre de bus.
Es el conjunto de líneas (cables) de hardware utilizados para la transmisión de datos entre los componentes de un sistema informático. Un bus es en esencia una ruta compartida que conecta diferentes partes del sistema como el procesador, la controladora de unidad de disco, la memoria y los puertos de entrada, salida, permitiéndoles transmitir información.
El bus, por lo general supervisado por el microprocesador, se especializa en el transporte de diferentes tipos de información.
Por ejemplo, un grupo de cables (en realidad trazos sobre una placa de circuito impreso) transporta los datos, otro las direcciones (ubicaciones) en las que puede encontrarse información específica, y otro las señales de control para asegurar que las diferentes partes del sistema utilizan su ruta compartida sin conflictos.
Los buses se caracterizan por el número de bits que pueden transmitir en un determinado momento. Un equipo con un bus de 8 bits de datos, por ejemplo, transmite 8 bits de datos cada vez, mientras que uno con un bus de 16 bits de datos transmite 16 bits de datos simultáneamente.
Como el bus es parte integral de la transmisión interna de datos y como los usuarios suelen tener que añadir componentes adicionales al sistema, la mayoría de los buses de los equipos informáticos pueden ampliarse mediante uno o más zócalos de expansión (conectores para placas de circuito añadidas). Al agregarse estas placas permiten la conexión eléctrica con el bus y se convierten en parte efectiva del sistema.
El Bus se refiere al camino que recorren los datos desde una o varias fuentes hacia uno o varios destinos y es una serie de hilos contiguos. En el sentido estricto de la palabra, esta definición sólo se aplica a la interconexión entre el procesador y los periféricos.
Un bus es simplemente un conjunto compartido de pistas trazadas en la placa de circuito principal, al que se conectan todas las partes que controlan y forman el ordenador. Cuando un dato pasa de un componente a otro, viaja a lo largo de este camino común para alcanzar su destino. Cada chip de control y cada byte de memoria del PC están conectados directa o indirectamente al bus. Cuando un nuevo componente se inserta en uno de los conectores de expansión, queda unido directamente al bus, convirtiéndose en un objeto más de la unidad completa.
Cualquier información que entra o sale de un sistema ordenador se almacena temporalmente en al menos una de las distintas localizaciones que existen a lo largo del bus. La mayor parte de las veces el dato se sitúa en la memoria principal, que en la familia PC está formada por miles de posiciones de memoria de 8 bits. Pero algún dato puede acabar en un puerto, o registro, durante unos instantes, mientras espera que la CPU lo envíe a una posición adecuada.
Generalmente los puertos y registros almacenan sólo uno o dos bytes de información a la vez, y se utiliza normalmente como lugares de parada intermedia para los datos, que se están enviando de un lugar a otro.Siempre que se utiliza una posición de memoria, o un puerto, como lugar de almacenamiento, su localización está marcada por una dirección que la identifica individualmente. Cuando el dato está listo para ser transferido, se transmite primero su dirección de destino por el bus de direcciones; el dato sigue a la zaga por el bus de datos.
Por tanto, el bus transporta algo más que datos. Lleva información de control, tales como las señales de temporización (del sistema reloj), las señales de interrupción, así como las direcciones de las miles de posiciones que forman tanto la memoria como los dispositivos que están conectados al bus.
Para diferenciar estas cuatro funciones diferentes, el bus está dividido en cuatro partes: líneas de potencia, bus de control, bus de direcciones y bus de datos.







MemoriaS
Memoria RAM o memoria principal: Es un chip en el que el procesador almacena de manera temporal los datos e instrucciones con los que trabaja. El computador para poder funcional necesita colocar su sistema operativo, los programas y datos con los que va a trabajar, en un lugar donde los pueda encontrar de manera inmediata y fácil (para no tener que ir continuamente a buscarlos al disco duro donde se encuentran almacenados; esto sería 100 veces más lento). Así que los ubica en un espacio de almacenamiento temporal, la memoria RAM es de acceso aleatorio.
A la RAM se le conoce como memoria de lectura / escritura, para diferenciarla de la ROM.
Es decir que en la RAM, la CPU puede escribir y leer.
Por esto, la mayoría de los programas destinan parte de la RAM como espacio temporal para guardar datos, lo que permite rescribir.
Como no retiene su contenido, al apagar la computadora es importante guardar la información.
La cantidad de memoria RAM influye bastante en la velocidad de la PC. Entre más memoria RAM tenga, más rápido trabaja y más programas puede tener abiertos al mismo tiempo.
Memoria ROM: Es la que contiene las instrucciones fundamentales para hacer funcionar la computadora, nunca cambia y retiene su información, así la computadora reciba o no corriente.
Es una memoria solo para lectura. Contiene programas esenciales del sistema que ni la computadora ni el usuario pueden borrar, como los que le permiten iniciar el funcionamiento cada vez que se enciende la computadora.
Memoria Caché: Es una unidad pequeña de memoria ultrarrápida en la que se almacena información a la que se ha accedido recientemente o a la que se accede con frecuencia, lo que evita que el microprocesador tenga que recuperar esta información de circuitos de memoria más lentos.
El caché suele estar ubicado en la tarjeta madre (Motherboard), pero a veces está integrado en el módulo del procesador.
Su capacidad de almacenamiento de datos se mide en kilobytes (KB). Mientras más caché tenga la computadora es mejor, porque tendrá más instrucciones y datos disponibles en una memoria más veloz.
Memoria externa: También se la conoce como memoria auxiliar, ésta es la encargada de brindar seguridad a la información almacenada, por cuanto guarda los datos de manera permanente e independiente de que el computador esté en funcionamiento, a diferencia de la memoria interna que solo mantiene la información mientras el equipo esté encendido. Los dispositivos de almacenamiento son discos y cintas principalmente, los discos pueden ser flexibles, duros u ópticos.



La memoria principal o RAM
Acrónimo de Random Access Memory, (Memoria de Acceso Aleatorio) es donde el ordenador guarda los datos que está utilizando en el momento presente. Se llama de acceso aleatorio porque el procesador accede a la información que está en la memoria en cualquier punto sin tener que acceder a la información anterior y posterior. Es la memoria que se actualiza constantemente mientras el ordenador está en uso y que pierde sus datos cuando el ordenador se apaga.
Cuando las aplicaciones se ejecutan, primeramente deben ser cargadas en memoria RAM. El procesador entonces efectúa accesos a dicha memoria para cargar instrucciones y enviar o recoger datos. Reducir el tiempo necesario para acceder a la memoria, ayuda a mejorar las prestaciones del sistema. La diferencia entre la RAM y otros tipos de memoria de almacenamiento, como los disquetes o discos duros, es que la RAM es mucho más rápida, y se borra al apagar el ordenador.
Es una memoria dinámica, lo que indica la necesidad de “recordar” los datos a la memoria cada pequeños periodos de tiempo, para impedir que esta pierda la información. Eso se llama Refresco. Cuando se pierde la alimentación, la memoria pierde todos los datos. “Random Access”, acceso aleatorio, indica que cada posición de memoria puede ser leída o escrita en cualquier orden. Lo contrario seria el acceso secuencial, en el cual los datos tienen que ser leídos o escritos en un orden predeterminado.
Es preciso considerar que a cada BIT de la memoria le corresponde un pequeño condensador al que le aplicamos una pequeña carga eléctrica y que mantienen durante un tiempo en función de la constante de descarga. Generalmente el refresco de memoria se realiza cíclicamente y cuando esta trabajando el DMA. El refresco de la memoria en modo normal esta a cargo del controlador del canal que también cumple la función de optimizar el tiempo requerido para la operación del refresco. Posiblemente, en más de una ocasión en el ordenador aparecen errores de en la memoria debido a que las memorias que se están utilizando son de una velocidad inadecuada que se descargan antes de poder ser refrescadas.
Las posiciones de memoria están organizadas en filas y en columnas. Cuando se quiere acceder a la RAM se debe empezar especificando la fila, después la columna y por último se debe indicar si deseamos escribir o leer en esa posición. En ese momento la RAM coloca los datos de esa posición en la salida, si el acceso es de lectura o coge los datos y los almacena en la posición seleccionada, si el acceso es de escritura.
La cantidad de memoria Ram de nuestro sistema afecta notablemente a las prestaciones, fundamentalmente cuando se emplean sistemas operativos actuales. En general, y sobretodo cuando se ejecutan múltiples aplicaciones, puede que la demanda de memoria sea superior a la realmente existente, con lo que el sistema operativo fuerza al procesador a simular dicha memoria con el disco duro (memoria virtual). Una buena inversión para aumentar las prestaciones será por tanto poner la mayor cantidad de RAM posible, con lo que minimizaremos los accesos al disco duro.
Los sistemas avanzados emplean RAM entrelazada, que reduce los tiempos de acceso mediante la segmentación de la memoria del sistema en dos bancos coordinados. Durante una solicitud particular, un banco suministra la información al procesador, mientras que el otro prepara datos para el siguiente ciclo; en el siguiente acceso, se intercambian los papeles.
Los módulos habituales que se encuentran en el mercado, tienen unos tiempos de acceso de 60 y 70 ns (aquellos de tiempos superiores deben ser desechados por lentos). Es conveniente que todos los bancos de memoria estén constituidos por módulos con el mismo tiempo de acceso y a ser posible de 60 ns.
Hay que tener en cuenta que el bus de datos del procesador debe coincidir con el de la memoria, y en el caso de que no sea así, esta se organizará en bancos, habiendo de tener cada banco la cantidad necesaria de módulos hasta llegar al ancho buscado. Por tanto, el ordenador sólo trabaja con bancos completos, y éstos sólo pueden componerse de módulos del mismo tipo y capacidad. Como existen restricciones a la hora de colocar los módulos, hay que tener en cuenta que no siempre podemos alcanzar todas las configuraciones de memoria. Tenemos que rellenar siempre el banco primero y después el banco número dos, pero siempre rellenando los dos zócalos de cada banco (en el caso de que tengamos dos) con el mismo tipo de memoria. Combinando diferentes tamaños en cada banco podremos poner la cantidad de memoria que deseemos.

MEMORIA

Su definición es: almacenes internos en el ordenador. El término memoria identifica el almacenaje de datos que viene en forma chips, y el almacenaje de la palabra se utiliza para la memoria que existe en las cintas o los discos. Por otra parte, el término memoria se utiliza generalmente como taquigrafía para la memoria física, que refiere a los chips reales capaces de llevar a cabo datos. Algunos ordenadores también utilizan la memoria virtual, que amplía memoria física sobre un disco duro.
Cada ordenador viene con cierta cantidad de memoria física, referida generalmente como memoria principal o RAM. Se puede pensar en memoria principal como arreglo de celdas de memoria, cada una de los cuales puede llevar a cabo un solo byte de información.
Un ordenador que tiene 1 megabyte de la memoria, por lo tanto, puede llevar a cabo cerca de 1 millón de bytes (o caracteres) de la información.
La memoria funciona de manera similar a un juego de cubículos divididos usados para clasificar la correspondencia en la oficina postal. A cada bit de datos se asigna una dirección. Cada dirección corresponde a un cubículo (ubicación) en la memoria.
Para guardar información en la memoria, el procesador primero envía la dirección para los datos. El controlador de memoria encuentra el cubículo adecuado y luego el procesador envía los datos a escribir.
Para leer la memoria, el procesador envía la dirección para los datos requeridos. De inmediato, el controlador de la memoria encuentra los bits de información contenidos en el cubículo adecuado y los envía al bus de datos del procesador.
Hay varios tipos de memoria:
· RAM (memoria de acceso aleatorio): Éste es igual que memoria principal. Cuando es utilizada por sí misma, el término RAM se refiere a memoria de lectura y escritura; es decir, usted puede tanto escribir datos en RAM como leerlos de RAM. Esto está en contraste a la ROM, que le permite solo hacer lectura de los datos leídos. La mayoría de la RAM es volátil, que significa que requiere un flujo constante de la electricidad para mantener su contenido. Tan pronto como el suministro de poder sea interrumpido, todos los datos que estaban en RAM se pierden.
· ROM (memoria inalterable): Los ordenadores contienen casi siempre una cantidad pequeña de memoria de solo lectura que guarde las instrucciones para iniciar el ordenador. En la memoria ROM no se puede escribir.
· PROM (memoria inalterable programable): Un PROM es un chip de memoria en la cual usted puede salvar un programa. Pero una vez que se haya utilizado el PROM, usted no puede reusarlo para salvar algo más. Como las ROM, los PROMS son permanentes.
· EPROM (memoria inalterable programable borrable): Un EPROM es un tipo especial de PROM que puede ser borrado exponiéndolo a la luz ultravioleta.
· EEPROM (eléctricamente memoria inalterable programable borrable): Un EEPROM es un tipo especial de PROM que puede ser borrado exponiéndolo a una carga eléctrica.

MEMORIA RAM
Memoria de la computadora, denominada Memoria de Acceso Aleatorio, es un área de almacenamiento a corto plazo para cualquier tipo de dato que la computadora está usando.
RAM a menudo se confunde con el almacenamiento. Para una aclaración, comparemos la computadora con una oficina. El gabinete de archivos representa el almacenamiento (unidad de disco duro) y el escritorio representa la RAM. Los archivos a usar se recuperan del almacenamiento.
Mientras los archivos están en uso se guardan en la RAM, un área de trabajo de fácil acceso. Cuando los archivos dejan de usarse se regresan al sector de almacenamiento o se eliminan.
RAM, son las siglas para la memoria de acceso al azar, un tipo de memoria de computadora que se puede alcanzar aleatoriamente; es decir, cualquier byte de memoria puede ser alcanzado sin el tocar los bytes precedentes. La RAM es el tipo más común de memoria encontrado en ordenadores y otros dispositivos, tales como impresoras.
Hay dos tipos básicos de RAM:
· RAM estática (SRAM)
· RAM dinámica (DRAM)
Estos 2 tipos difieren en la tecnología que utilizan para almacenar datos, RAM dinámica que es el tipo más común. La RAM dinámica necesita ser restaurada millares de veces por segundo. La RAM estática no necesita ser restaurada, lo que la hace más rápida; pero es también más costosa que la DRAM.
Ambos tipos de RAM son volátiles, significando que pierden su contenido cuando se interrumpe el suministro de poder.
En uso común, el término RAM es sinónimo de memoria principal, la memoria disponible para los programas. Por ejemplo, un ordenador con la RAM de los 8M tiene aproximadamente 8 millones de bytes de memoria que los programas puedan utilizar. En contraste, la ROM (memoria inalterable) se refiere a la memoria especial usada para salvar los programas que inician el ordenador y realizan diagnóstico. La mayoría de los ordenadores personales tienen una cantidad pequeña de ROM (algunos tantos miles de bytes). De hecho, ambos tipos de memoria (ROM y RAM) permiten el acceso al azar. Para ser exacto, por lo tanto, RAM se debe referir como RAM de lectura/escritura y ROM como RAM inalterable.
RAM DINÁMICA
Un tipo de memoria física usado en la mayoría de los ordenadores personales. El término dinámico indica que la memoria debe ser restaurado constantemente (reenergizada) o perderá su contenido.
La RAM (memoria de acceso aleatorio) se refiere a veces como DRAM para distinguirla de la RAM estática (SRAM). La RAM estática es más rápida y menos volátil que la RAM dinámica, pero requiere más potencia y es más costosa.
RAM ESTÁTICA
Abreviatura para la memoria de acceso al azar estática. SRAM es un tipo de memoria que es más rápida y más confiable que la DRAM más común (RAM dinámica). El término se deriva del hecho de que no necesitan ser restaurados como RAM dinámica.
Mientras que DRAM utiliza tiempos de acceso de cerca de 60 nanosegundos, SRAM puede dar los tiempos de acceso de hasta sólo 10 nanosegundos. Además, su duración de ciclo es mucho más corta que la de la DRAM porque no necesita detenerse brevemente entre los accesos.
Desafortunadamente, es también mucho más costoso producir que DRAM. Debido a su alto costo, SRAM se utiliza a menudo solamente como memoria caché.
MEMORIA ROM
ROM, siglas para la memoria inalterable, memoria de computadora en la cual se han grabado de antemano los datos. Una vez que los datos se hayan escrito sobre un chip ROM, no pueden ser quitados y pueden ser leídos solamente.
Distinto de la memoria principal (RAM), la ROM conserva su contenido incluso cuando el ordenador se apaga. ROM se refiere como siendo permanente, mientras que la RAM es volátil.
La mayoría de los ordenadores personales contienen una cantidad pequeña de ROM que salve programas críticos tales como el programa que inicia el ordenador. Además, las ROM se utilizan extensivamente en calculadoras y dispositivos periféricos tales como impresoras láser, cuyas fuentes se salvan a menudo en las ROM.
Una variación de una ROM es un PROM (memoria inalterable programable). PROM son manufacturados como chips en blanco en los cuales los datos pueden ser escritos con dispositivo llamado programador de PROM.

Filed under having 0 comentarios