fundamentos de la informatik

39
Teoría de Computación. 1 Ing. Johnny Larrea P. C A P I T U L O 1 INTRODUCCIÓN GENERAL 1.1.- Informática 1.2.- Computación 1.3.- Computadora 1.4.- Dato 1.5.- Información 1.6.- Procesar 1.7.- Programa 1.8.- Hardware 1.9.- Software 1.10.- Algoritmo 1.11.- Sistema informático 1.12.- Firmware 1.13.- Unidades de medida 1.13.1.- Sistema Binario 1.13.2.- Codigo ASCII 1.13.3.- Unidades de medida de tiempo

Upload: ladypincay

Post on 14-Jul-2015

8.334 views

Category:

Documents


0 download

TRANSCRIPT

Teoría de Computación. 1 Ing. Johnny Larrea P.

C A P I T U L O 1• INTRODUCCIÓN GENERAL

1.1.- Informática1.2.- Computación1.3.- Computadora1.4.- Dato1.5.- Información1.6.- Procesar1.7.- Programa1.8.- Hardware1.9.- Software1.10.- Algoritmo1.11.- Sistema informático1.12.- Firmware1.13.- Unidades de medida

1.13.1.- Sistema Binario 1.13.2.- Codigo ASCII 1.13.3.- Unidades de medida de tiempo

Teoría de Computación. 2 Ing. Johnny Larrea P.

1.1.- INFORMATICA

Ciencia encargada del estudio y desarrollo de las computadoras y de los métodos para procesar la información.

•El término informática se creó en Francia en 1962

Contracción Información automática.

Ciencia que estudia el tratamiento automático y racional de la información,

•Elemento Físico•Elemento Lógico•Elemento Humano

Sustenta

Teoría de Computación. 3 Ing. Johnny Larrea P.

1.2.- COMPUTACIÓN

• se refería al conjunto de conocimientos, técnicas y formas de uso relativas a computadoras en general.

DIFERENCIA COMPUTACIÓN E INFORMÁTICA• Desde hace aproximadamente 50 años, después de la Segunda Guerra Mundial,

tomó auge la tecnología que prácticamente generó el actual significado de la palabra "computación". Su origen lingüístico proviene del latín "computare", cuyo sentido se interpreta conceptualmente "con el pensamiento", y que tomó el significado de "contar o calcular algo con números", según lo define el diccionario de la Real Academia de la Lengua Española.Actualmente, la palabra "computación" comprende un significado tan vasto, que se considera una ciencia completa vinculada fundamentalmente al proceso de información con instrumentos creados por el hombre.

• En los últimos años, surgió el término "informática", que parece competir con el mismo significado. Muchas personas utilizan hoy ambas palabras en forma aparentemente indistinta, situación que con seguridad se puede atribuir a la mentalidad mercantilista de siglo XX. Cuando en el mercado de "marcas" aparece una que tiene éxito, inmediatamente surge otra que pretende ofrecer lo mismo. Volviendo a la "informática", ésta es una palabra evidentemente derivada del término "información" que, como muchos otros, se mezcla con "automático", adjetivo que tomó fuerza con el desarrollo tecnológico de la posguerra y que, con seguridad, vincula su significado con el concepto "proceso de información".

Teoría de Computación. 4 Ing. Johnny Larrea P.

• Entonces surge la pregunta de si "computación" e "informática" son o no sinónimos. Para la palabra "computación", el Pequeño Larrousse de 1986 dice: "Cómputo o cálculo". El Diccionario Enciclopédico Océano Uno de 1990 dice: "Conjunto de disciplinas y técnicas desarrolladas para el tratamiento automático de la información, considerada como soporte de los conocimientos de la sociedad humana, mediante el uso de computadoras".

• Para la palabra "informática", el Pequeño Larrousse dice: "Ciencia del tratamiento automático y racional de la información considerada como soporte de los conocimientos y las comunicaciones". El Diccionario Océano Uno dice: "ver computación".

• Si se consultan otras obras especializadas, la complicación se hace mayor, sobre todo porque los autores incorporan sus estilos al presentar estos conceptos.

• De acuerdo con estas apreciaciones, todo parece indicar que para la mayoría de los casos prácticos, ambos términos son efectivamente sinónimos, aunque no se puede descartar la existencia de algunas diferencias entre ellos. acceso a la información, las áreas temáticas de interés, los sistemas en línea, en vivo, por control remoto o por satélite, los flujos direccionados de información, etcétera.

Teoría de Computación. 5 Ing. Johnny Larrea P.

DIFERENCIA COMPUTACIÓN E INFORMÁTICA

• Aunque existen nuevos elementos que reflejan las diferencias entre "computación" e "informática", éstos no tendrían valor o significado si no se toma en consideración su relación con las computadoras y con el proceso de la información propiamente dicho, de tal manera que superficialmente justifican la aceptación de la sinonimia entre ambos términos.

• No obstante, en situaciones donde se haga indispensable hacer énfasis en alguno de estos aspectos, se puede definir esta diferencia del siguiente modo:

• "Computación" está íntimamente ligada a la tecnología de las computadoras, mientras que "informática" está más bien vinculada a las formas de uso de los resultados.

• En cualquier caso, se trata de computadoras.

Teoría de Computación. 6 Ing. Johnny Larrea P.

DIFERENCIA COMPUTACIÓN E INFORMÁTICA

Teoría de Computación. 7 Ing. Johnny Larrea P.

• “Es una máquina compuesta de elementos físicos de tipo electrónico, capaz de realizar una gran variedad de trabajos a gran velocidad y con gran precisión siempre que se le den las instrucciones adecuadas” .

• “Es un dispositivo electrónico que recibe un conjunto de datos de entrada, los procesa y genera determinados resultados o información, con gran capacidad para el almacenamiento de los datos y elevada velocidad de cálculo”

1.3.- COMPUTADORA

Latín COMPUTARE = Contar, Calcular

Teoría de Computación. 8 Ing. Johnny Larrea P.

Son en general cifras originales, tomados de diversas fuentes que, solos, tienen poco significado. El dato es un concepto básico o elemental, como los nombres de las cosas o las cantidades ( un precio, una fecha, el nombre de una persona, ...)

1.4.- DATO

•$5,78

•8 Septiembre

•Clotilde

•CAB

•1.5687

Teoría de Computación. 9 Ing. Johnny Larrea P.

• Son datos “ya trabajados” y con un orden y significado útil para la persona que los recibe. Los datos una vez procesados se convierten en información provechosa.

• La información es un conjunto de datos convertidos en una forma útil o inteligible como, por ejemplo, un documento impreso, un recibo, etc.

1.5.- INFORMACIÓN

Teoría de Computación. 10 Ing. Johnny Larrea P.

• El procesamiento en una computadora se refiere a la realización de operaciones aritméticas ( calcular (+, -, /, *,...), mover, ordenar, comparar (>, =, <,...), buscar, clasificar,... y lógicas (decidir: si A > B, implica C).

• Para que una computadora pueda procesar datos es necesario suministrarle las reglas (instrucciones adecuadas) para la manipulación de esos datos, las cuales le deben ser dadas en forma de programas.

1.6.- PROCESAR

Teoría de Computación. 11 Ing. Johnny Larrea P.

• Es la secuencia de instrucciones (órdenes) que se dan a una computadora para realizar un proceso determinado.

● Conjunto de instrucciones escritas en un lenguaje de programación susceptibles de ser ejecutadas por ordenador para realizar una determinada función.

● Programa = conjunto de datos y de algoritmos

1.7.- PROGRAMA

Teoría de Computación. 12 Ing. Johnny Larrea P.

• Son todos los componentes físicos que integran la computadora, junto con los dispositivos que realizan las tareas de entrada y salida.

1.8.- HARDWARE

Teoría de Computación. 13 Ing. Johnny Larrea P.

• Son los programas lógicos que intervienen en el funcionamiento y operatividad del Hardware.

• Es la parte lógica o intangible (Programas) de un sistema informático.

– Software Operativo : D.O.S. Windows, Linux, Solaris, etc.

– Software de Aplicación : Ofimática, Edición y diseño gráfico de Gestión empresarial, Ingeniería y Ciencia.

– Software de Desarrollo o de Programación : Compiladores e Interpretes, Ensambladores, montadores, cargadores, Depuradores y trazadores

1.9.- SOFTWARE

Teoría de Computación. 14 Ing. Johnny Larrea P.

• Forma de describir una solución a un problema.

• Serie ordenada y finita de instrucciones elementales que trabaja sobre los datos, posiblemente modificándolos.

• Conjunto de operaciones necesarias para transformar los datos iniciales en los resultados que se desean obtener en un determinado trabajo. Un algoritmo puede ser elaborado de forma gráfica o escrita y una vez que éste es traducido a un lenguaje de programación es que se denomina programa.

1.10.- ALGORITMO

Teoría de Computación. 15 Ing. Johnny Larrea P.

• La unión de tres elementos básicos, el hardware, el software y el personal informático, cuya principal finalidad es procesar datos y/o información.

1.11.- SISTEMA INFORMATICO

42 * 46 MULTIPLICACION 1932

Teoría de Computación. 16 Ing. Johnny Larrea P.

1.12.- FIRMWARE

• Para denominar cierta parte del software (programas objeto de uso común) que traen las computadoras pregrabadas desde su fabricación y que pueden estar en memorias de tipo ROM (memorias de sólo lectura) o incorporadas en su circuitería. También se conoce como firmware a los programas en microcódigo almacenados en una memoria de control de alta velocidad.

Teoría de Computación. 17 Ing. Johnny Larrea P.

1.13.1.- EL SISTEMA BINARIO• Sistema lógico que poseen los computadores digitales para interpretar

toda la información procesada en éste.

• Toda la información introducida o extraída del computador está codificada en el Sistema de Bit, consiste en la unión de los caracteres ( 0 , 1 ); a partir de ellos son formados códigos para el almacenamiento y manejo de los datos.

Lenguaje de máquina Lenguaje de alto nivel 00101101 45

1.13.- UNIDADES DE MEDIDA

0= Negativo (Apagado)1= Positivo (Encendido) 5V

28 = 256

Teoría de Computación. 18 Ing. Johnny Larrea P.

EL SISTEMA BINARIO

• Recordando que una computadora funciona con impulsos eléctricos que adquieren dos estados.

• Bit: Abreviatura en inglés de "Binary Digit" Dígito Binario, se refiere a cada uno de los símbolos que componen un sistema binario, es decir un sistema que utiliza dos símbolos (1 y 0, Verdadero y Falso, Alto y bajo, etc.) para codificar números.

• Byte: Se denomina así a un conjunto de 8 bit, que puede codificar instrucciones o datos. 1 0 1 0 1 0 1 0

20 Byte = 8 bits =1 Byte(B). 210 Byte = 1.024 Byte = 1 KiloBytes(KB) 220 Byte = 1.048.576 Byte = 1 KB x 1KB = 1 MegaByte(MB) 230 Byte = 1.073.741.824 Byte = 1 MB x 1 KB = 1 GigaByte (GB) 240 Byte = 1.099.511.627.776 Byte = 1MB x 1MB = 1 TeraByte (TB)

Teoría de Computación. 19 Ing. Johnny Larrea P.

1.13.2.- CODIGO ASCII

AMERICAN STANDARD CODE FOR INFORMATION INTERCHANGE

• Los bytes pueden tomar un total de 256 valores diferentes gracias a la combinación de valores de los ocho bits de que se componen. Forman un código internacional que permite el intercambio de información entre diversos sistemas informáticos. Este código se llama ASCII.

0-32 Caracteres de control

33 - 175

Caracteres normales de escritura, puntuación y acentuación

176 - 233 Caracteres gráficos simples

224 - 255 Caracteres de notación matemática

Teoría de Computación. 20 Ing. Johnny Larrea P.

1.13.3.- UNIDADES DE MEDIDAS DE TIEMPO

1 Segundo (s) 10-1 s = 0,1 s = 1 Decisegundo (ds) 10-2 s = 0,01 s = 1 Centisegundo (cs) 10-3 s = 0,001 s = 1 Milisegundo (ms) 10-6 s = 0,000001 s = 1 Microsegundo (µ s) 10-9 s = 0,000000001 s = 1 Nanosegundo (ns) 10-15 s = 0,000000000000001 s = 1 Femtosegundo (fs)

Unidades de tiempo útiles en informática

Teoría de Computación. 21 Ing. Johnny Larrea P.

FRECUENCIA

Otra noción útil es la DE FRECUENCIA

1/s = s-1 = 1 Hertz(Hz).1000/s = 103 s-1 = 1 Kilohertz (KHz)1000000/s = 106 s-1 = 1 Megahertz (MHz)1000000000/s = 109 s-1 = 1 Gigahertz (GHz)

HERTZIO (Hz)

El Hertzio es la unidad de medida de la frecuencia equivalente a 1/segundo. Utilizado principalmente para los refrescos de pantalla de los monitores, en los que se considera 60 Hz (redibujar 60 veces la pantalla cada segundo) como el mínimo aconsejable.

Hoy en día los avances en comunicaciones e informática han hecho que se utilicen más sus múltiplos: kHz, MHz, GHz.

MEGAHERTZIOS (Mhz)

Megahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo. En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHz.

Megahertzio, múltiplo del hertzio igual a 1 millón de hertzios. Utilizado para medir la "velocidMegahertzios, es una medida de frecuencia (número de veces que ocurre algo en un segundo). En el caso de los ordenadores, un equipo a 200 MHz será capaz de dar 200 millones de pasos por segundo.

En la velocidad real de trabajo no sólo influyen los MHz, sino también la arquitectura del procesador (y el resto de los componentes); por ejemplo, dentro de la serie X86, un Pentium a 60 MHz era cerca del doble de rápido que un 486 a 66 MHzad bruta" de los microprocesadores.

NANOSEGUNDOS

Es una Milmillonésima parte de un segundo. Es decir, en un segundo hay 1.000.000.000 de nanosegundos. Se trata de una escala de tiempo muy pequeña, pero bastante común en los ordenadores, cuya frecuencia de proceso es de unos cientos de Megahercios.

Decir que un procesador es de 500 Mhz, es lo mismo que decir que tiene 500.000.000 ciclos por segundo, o que tiene un ciclo cada 2 ns.

Teoría de Computación. 24 Ing. Johnny Larrea P.

REPRESENTACIÓN DE LOS DATOS

SISTEMA DE NUMERACIÓN DECIMAL

•También llamado sistema de numeración Base 10, utiliza diez dígitos para representar cualquier cifra. Ellos son:

0, 1, 2, 3, 4, 5, 6, 7, 8, 9

•Combinando estos dígitos, podemos construir cualquier número.

Sistema de numeración decimal

Ejemplo: El número 348 es un dato representado en sistema de numeración decimal. Lo construimos mediante:

•3 x 102 + 4 x 101 + 8 * 100 = 300 + 40 + 8 = 348

•Centena •Decena •Unidad

Representación de los datos

SISTEMA DE NUMERACIÓN BINARIO

También llamado sistema de numeración Base 2, utiliza dos dígitos para representar cualquier cifra. Ellos son:

0, 1

Combinando estos dígitos, podemos construir cualquier número.

•Ejemplo: El número 110101 es un dato representado en sistema de numeración binario.

REPRESENTACIÓN DE LOS DATOS

Sistema de numeración binario

Nosotros no estamos familiarizados con el sistema de numeración binario, entendemos más fácilmente los datos representados en sistema decimal.

Para comprender mejor el número 110101, aplicamos un proceso de conversión, que nos lo muestre en sistema decimal.

Representación de los datos

Sistema de numeración binario

Ejemplo: El número 110101 en sistema binario equivale a:

•1 x 25 + 1 x 24 + 0 x 23 + 1 x 22 + 0 x 21 + 1 * 20 =

•32 + 16 + 0 + 4 + 0 + 1 =

•53 en sistema decimal.

Representación de los datos

Sistema de numeración binario

•También podemos realizar el proceso inverso.

•Ejemplo: El número 53 en sistema decimal equivale a:

•53 / 2 = 26 ------------------------------------------ Resto: 1• 26 / 2 = 13 -------------------------------- Resto: 0• 13 / 2 = 6 --------------------------- Resto: 1• 6 / 2 = 3 --------------------- Resto: 0• 3 / 2 = 1 -------------- Resto: 1 • 1 / 2 = 0 ------- Resto: 1

•110101•binario

Representación de los datos

•Sumamos las casillas que tienen 1 e ignoramos las que tienen 0

202127 26 25 24 23 22

•128 + 8 + 2 = 138 en sistema decimal.

Ejercicio: Calcule el equivalente decimal del numero binario 10001010

Representación de los datos

Y para los que quieren contar “con

los dedos” …

•20 = 1 (Dedo pulgar)•21 = 2 (Dedo índice)•22 = 4 (Dedo corazón)•23 = 8 (Dedo anular)•24 = 16 (Dedo meñique)

Representación de los datos

SISTEMA DE NUMERACIÓN OCTAL

También llamado sistema de numeración Base 8, utiliza ocho dígitos para representar cualquier cifra. Ellos son:

0, 1, 2, 3, 4, 5, 6, 7

REPRESENTACIÓN DE LOS DATOS

SISTEMA DE NUMERACIÓN HEXADECIMAL

También llamado sistema de numeración Base 16, utiliza dieciséis dígitos para representar cualquier cifra. Ellos son:

0, 1, 2, 3, 4, 5, 6, 7, 8, 9, A, B, C, D, E, F

•Los datos viajan, se procesan y se almacenan en los ordenadores a través de impulsos eléctricos. Estos impulsos se representan por dos estados:

•Prendido o apagado = 1 ó 0

REPRESENTACIÓN DE LOS DATOS

Los ordenadores representan todos sus datos en sistema de numeración binario.

•Bit: Acrónimo de Binary Digit (Dígito binario), es la mínima unidad de información que viaja y se almacena en un computador.•Cada bit representa un impulso eléctrico (1 ó 0).

REPRESENTACIÓN DE LOS DATOS

•Byte: Acrónimo de Binary Term (Término binario), es un grupo de 8 bits que el ordenador utiliza para representar cada símbolo o caracter que conocemos, es decir un número, una letra, un signo de puntuación, etc.Con un byte, el ordenador puede representar 256 símbolos o caracteres diferentes.

UNIDADES DE MEDIDA PARA ALMACENAMIENTO DE DATOS

Bytes

Representación de los datos

•Ejemplo: Para representar el número 348 •¿Cuántos Bytes necesita nuestra computadora?

Unidades de medida para almacenamiento de datos

•El número está compuesto por 3 dígitos => Necesitamos 3 bytes

•00000011

•3

•00000100

•4

•00001000

•8

•El sistema de medición para almacenamiento de datos se fundamenta en:• Un Byte como medida base.• 1024 (210) como factor multiplicador para el incremento.• Los prefijos: Kilo, Mega, Giga, Tera, etc.

Representación de los datos

Unidades de medida para almacenamiento de datos

•Así: 1 KiloByte = 1024 Bytes 1 MegaByte = 1024 KiloBytes = 1024 x 1024 Bytes 1 GigaByte = 1024 MegaBytes = 1024 x 1024 KiloBytes …

Terabytes Gigabytes Megabytes Kilobyte Byte Bit

1 8

1 1.024 8.192

1 1.024 1.048.576 8.388.608

1 1.024 1.048.576 1.073.741.824

1 1.024 1.048.576 1.073.741.824

Representación de los datos

Unidades de medida para almacenamiento de datos

Teoría de Computación. 39 Ing. Johnny Larrea P.