Algoritmos
Enviado por anyelau • 20 de Mayo de 2013 • 3.176 Palabras (13 Páginas) • 259 Visitas
INTRODUCCIÓN A LA COMPUTACIÓN
Hoy en día todas las personas que se inicien en el ámbito de la programación, necesitan conocer los conceptos básicos de la computación, para poder comprender el procesamiento de información mediante computadoras y utilizarlas con bases sólidas en el desarrollo de los programas y su uso en general.
Computadora. Es un dispositivo electrónico capaz de ejecutar cálculos y tomar decisiones lógicas a velocidades a miles de millones de veces más rápidas de lo que pueden hacerlo los seres humanos.
El mundo de la alta tecnología nunca hubiera existido de no ser por el desarrollo de la computadora. Toda la sociedad utiliza estas máquinas, en distintos tipos y tamaños, para el almacenamiento y manipulación de datos. Los equipos informáticos han abierto una nueva era en la fabricación gracias a las técnicas de automatización, y han permitido mejorar los sistemas modernos de comunicación. Son herramientas esenciales prácticamente en todos los campos de investigación y en tecnología aplicada.
TIPOS DE COMPUTADORAS
En la actualidad se utilizan dos tipos principales de computadoras: analógicas y digitales. Sin embargo, el término computadora suele utilizarse para referirse exclusivamente al tipo digital.
Las computadoras analógicas aprovechan la similitud matemática entre las interrelaciones físicas de determinados problemas y emplean circuitos electrónicos o hidráulicos para simular el problema físico. Las computadoras digitales resuelven los problemas realizando cálculos y tratando cada número dígito por dígito.
Las instalaciones que contienen elementos de computadoras digitales y analógicas se denominan computadoras híbridas. Por lo general se utilizan para problemas en los que hay que calcular grandes cantidades de ecuaciones complejas, conocidas como integrales de tiempo. En una computadora digital también pueden introducirse datos en forma analógica mediante un convertidor analógico digital, y viceversa (convertidor digital a analógico).
COMPUTADORAS ANALÓGICAS
La computadora analógica es un dispositivo electrónico o hidráulico diseñado para manipular la entrada de datos en términos de, por ejemplo, niveles de tensión o presiones hidráulicas, en lugar de hacerlo como datos numéricos. El dispositivo de cálculo analógico más sencillo es la regla de cálculo, que utiliza longitudes de escalas especialmente calibradas para facilitar la multiplicación, la división y otras funciones. En la típica computadora analógica electrónica, las entradas se convierten en tensiones que pueden sumarse o multiplicarse empleando elementos de circuito de diseño especial. Las respuestas se generan continuamente para su visualización o para su conversión en otra forma deseada.
COMPUTADORAS DIGITALES
Todo lo que hace una computadora digital se basa en una operación: la capacidad de determinar si un conmutador, o ‘puerta’, está abierto o cerrado. Es decir, la computadora puede reconocer sólo dos estados en cualquiera de sus circuitos microscópicos: abierto o cerrado, alta o baja tensión o, en el caso de números, 0 o 1. Sin embargo, es la velocidad con la cual el ordenador realiza este acto tan sencillo lo que lo convierte en una maravilla de la tecnología moderna. Las velocidades del ordenador se miden en megahercios, o millones de ciclos por segundo. Una computadora con una velocidad de reloj de 100 MHz, velocidad bastante representativa de una microcomputadora, es capaz de ejecutar 100 millones de operaciones discretas por segundo. Las microcomputadoras de las compañías pueden ejecutar entre 150 y 200 millones de operaciones por segundo, mientras que las supercomputadoras utilizadas en aplicaciones de investigación y de defensa alcanzan velocidades de miles de millones de ciclos por segundo.
La velocidad y la potencia de cálculo de las computadoras digitales se incrementan aún más por la cantidad de datos manipulados durante cada ciclo. Si un ordenador verifica sólo un conmutador cada vez, dicho conmutador puede representar solamente dos comandos o números. Así, ON simbolizaría una operación o un número, mientras que OFF simbolizará otra u otro. Sin embargo, al verificar grupos de conmutadores enlazados como una sola unidad, la computadora aumenta el número de operaciones que puede reconocer en cada ciclo.
Por ejemplo, una computadora que verifica dos conmutadores cada vez, puede representar cuatro números (del 0 al 3), o bien ejecutar en cada ciclo una de las cuatro operaciones, una para cada uno de los siguientes modelos de conmutador: OFF-OFF (0), OFF-ON (1), ON-OFF (2) u ON-ON (3). En general, las computadoras de la década de 1970 eran capaces de verificar 8 conmutadores simultáneamente; es decir, podían verificar ocho dígitos binarios, de ahí el término bit de datos en cada ciclo. Un grupo de ocho bits se denomina byte y cada uno contiene 256 configuraciones posibles de ON y OFF (o 1 y 0). Cada configuración equivale a una instrucción, a una parte de una instrucción o a un determinado tipo de dato; estos últimos pueden ser un número, un carácter o un símbolo gráfico. Por ejemplo, la configuración 11010010 puede representar datos binarios, en este caso el número decimal 210, o bien estar indicando al ordenador que compare los datos almacenados en estos conmutadores con los datos almacenados en determinada ubicación del chip de memoria.
El desarrollo de procesadores capaces de manejar simultáneamente 16, 32 y 64 bits de datos ha permitido incrementar la velocidad de las computadoras. La colección completa de configuraciones reconocibles, es decir, la lista total de operaciones que una computadora es capaz de procesar, se denomina conjunto, o repertorio, de instrucciones. Ambos factores, el número de bits simultáneos y el tamaño de los conjuntos de instrucciones, continúa incrementándose a medida que avanza el desarrollo de las computadoras digitales modernas.
CARACTERÍSTICAS DE LAS COMPUTADORAS
Las computadoras realizan un paso a la vez. Pueden sumar, restar, dividir, multiplicar, comparar letras y números.
Rapidez. Las computadoras son muy rápidas, la rapidez varían desde: milisegundos una milésima de segundo microsegundo una millonésima de segundo nanosegundo una billonésima de segundo psicosegundo una trillonésima de segundo.
Exactitud/Precisión. Las computadoras realizan exactamente lo que se les indica. Se estima que un humano tendría un error en cada 500 o 1,000 operaciones con una calculadora. Los circuitos de la computadora pueden ejecutar millones de operaciones cada segundo y pueden corregir sin errores por horas y días sin interrupción.
Eficiencia. Las computadoras pueden trabajar sin parar, no se aburren y no tienen miedo
...