Introduccion Al Lebguaje C
Enviado por lovely0615 • 20 de Agosto de 2013 • 2.850 Palabras (12 Páginas) • 238 Visitas
Introducción
El Lenguaje de programación C fue implantado por primera vez en los años 70 por Dennis Ritchie para una computadora DEC PDP-11 corriendo el sistema operativo UNIX.
El lenguaje C, a diferencia de lenguajes como Basic y Pascal que son lenguajes de alto nivel, es un lenguaje de nivel medio ya que combina las propiedades de un lenguaje de alto nivel con la funcionalidad del lenguaje ensamblador.
Es esa misma característica la que le da a este lenguaje más potencia y dominio sobre los recursos del sistema. Entre una de las características más importantes de C está la portabilidad, esto es, un programa escrito en C se puede trasladar fácilmente entre distintos sistemas operativos como Windows, DOS o Linux.
A algunos estudiantes que se inician en el estudio de C la visión del lenguaje les causa miedo (lo digo por experiencia) porque C tiene fama de ser un lenguaje difícil, nada más lejos de la verdad. Una vez que se entiende cómo trabaja es fácil dominarlo, por algo C es el preferido de muchos programadores que lo consideran un lenguaje "elegante". Por no ser un lenguaje de alto nivel, C le relega al programador cierto grado de responsabilidad en el desarrollo de los programas.
Arriba
Ciclo de vida, algoritmos y diagrama de flujo
La resolución de problemas
La principal razón para aprender a programar y conocer los lenguajes de programación es utilizar la computadora como herramienta para solucionar problemas. La resolución de problemas se divide en tres fases:
Análisis del problema
El propósito de esta fase es ayudar al programador a comprender el problema. El problema debe estar bien definido si se desea llegar a una solución satisfactoria, para lo cual se requiere que las especificaciones de entrada y salida sean descritas con detalle.
Diseño del algoritmo
Una computadora solo puede solucionar problemas cuando se le proporcionan los pasos sucesivos a realizar, a estos pasos sucesivos que indican las instrucciones a realizar se les llama "algoritmos". Las fases para realizar el diseño del algoritmo son:
• Diseño descendente
• Refinamiento de pasos
• Uso de herramientas de programación: diagrama de flujo o pseudocódigo
Resolución del problema
Una vez que el algoritmo está diseñado y representado mediante una herramienta de programación (pseudocódigo o diagrama de flujo) se lleva a cabo la fase de la resolución del problema mediante la computadora, la cual se divide a su vez en las siguientes subfases:
1. Codificación del algoritmo, que consiste en utilizar un lenguaje de programación siguiendo las reglas gramaticales del mismo (sintaxis) para convertir el algoritmo en un programa
2. Ejecución del programa utilizando un compilador del lenguaje
3. Comprobación del programa
Algoritmo
Se denomina algoritmo al conjunto de instrucciones que especifican la secuencia de operaciones a realizar para resolver un problema especifico. Es decir, es un conjunto de pasos a seguir para llegar a cierto fin medible o comprobable.
Los algoritmos son independientes del lenguaje de programación y de la computadora que se vaya a emplear para ejecutarlo.
Todo algoritmo debe ser:
1. Preciso, es decir, indicar el orden en el que ha de realizarse cada paso
2. Definido, es decir, se debe obtener el mismo resultado cada vez que se ejecute con las mismas especificaciones de entrada
3. Finito, es decir, debe terminar en algún momento o debe tener un número finito de pasos
Diagrama de flujo
Técnica especializada para representar algoritmos mediante el uso de figuras, las cuales se unen mediante flechas denominadas líneas de flujo que indican el orden en que se deben ejecutar.
Arriba
Datos, constantes, variables, acumuladores, banderas y contadores
Tipos de datos
Las computadoras pueden trabajar con varios tipos de datos, los algoritmos y programas operan sobre estos. Existen dos clases de datos: datos simples y datos compuestos.
Los distintos tipos de datos se representan como un conjunto o secuencia de dígitos binarios (bits). Los lenguajes de programación de alto nivel nos permiten basarnos en abstracciones para no manejar los detalles de representación interna.
Los tipos de datos simples son: numéricos (enteros y reales), lógicos y caracteres.
Datos numéricos
Este tipo de datos se divide en enteros y reales.
Los enteros son aquellos números que no tienen componente fraccionario o decimal y dentro de la computadora son un subconjunto finito de los números enteros. Estos números pueden ser negativos o positivos y el rango es de –32,768 a 32,767.
El tipo de datos "real" son aquellos números que tienen una parte fraccionaria y pueden ser positivos y negativos dentro de la computadora forman un subconjunto de los números reales. Para representar números muy pequeños o muy grandes se emplea la notación de punto flotante, que es una generalización de la notación científica. En esta notación se considera al número real como mantisa y al exponente la potencia de 10 a la que se eleva este número.
Datos lógicos
Este tipo de dato es aquel que solo puede tomar uno de 2 valores: verdadero (true) o falso (false). En lenguaje C no existe el tipo lógico pero se puede implementar con un número entero conociendo que 0 es falso y cualquier número diferente de cero verdadero.
Caracteres
El dato tipo carácter puede tomar un valor de un conjunto finito y ordenado de caracteres o símbolos que la computadora reconoce (código ASCII). Este tipo de dato ocupa un byte y almacena un solo carácter.
Existe también el dato tipo cadena (compuesto) que es una sucesión de caracteres que se encuentran delimitados por comillas, la longitud de una cadena es el número de caracteres comprendidos entre los delimitadores.
Tipos de datos Descripción Memoria
Int Entero 2 bytes
Char Caracter 1 byte
Float Flotante 4 bytes
Double Flotante de doble precisión 8 bytes
Constantes y variables
Una constante es un dato que permanece sin cambio durante el desarrollo del algoritmo o durante la ejecución del programa. La mayoría de los lenguajes de programación nos permiten el manejo de diferentes tipos de constantes, estas pueden ser enteras, reales, caracteres y cadenas. En lenguaje C una constante se define por medio de la instrucción #define (directiva del procesador).
Una variable es un dato cuyo valor puede cambiar durante el desarrollo del algoritmo o ejecución del programa. Hay diferentes tipos de variables: enteras, reales, caracteres y cadenas. Una variable que es de cierto tipo
...