introduccion al procesamiento de datos e5 unesr

80
UNIDAD I (INTRODUCCION AL PROCESAMIENTO DE DATOS) DATOS: Una base de datos o banco de datos (en ocasiones abreviada con la sigla BD o con la abreviatura b. d.) es un conjunto de datos pertenecientes a un mismo contexto y almacenados sistemáticamente para su posterior uso. En este sentido, una biblioteca puede considerarse una base de datos compuesta en su mayoría por documentos y textos impresos en papel e indexados para su consulta. Actualmente, y debido al desarrollo tecnológico de campos como la informática y la electrónica, la mayoría de las bases de datos están en formato digital (electrónico), que ofrece un amplio rango de soluciones al problema de almacenar datos. SISTEMA: Un sistema es un conjunto de partes o elementos organizados y relacionados que interactúan entre sí para lograr un objetivo. Los sistemas reciben (entrada) datos, energía o materia del ambiente y proveen (salida) información, energía o materia. Un sistema puede ser físico o concreto (una computadora, un televisor, un humano) o puede ser abstracto o conceptual (un software) Cada sistema existe dentro de otro más grande, por lo tanto un sistema puede estar formado por subsistemas y partes, y a la vez puede ser parte de un supersistema. Los sistemas tienen límites o fronteras (Ver: frontera de un sistema), que los diferencian del ambiente. Ese límite puede ser físico (el gabinete de una computadora) o conceptual. Si hay algún intercambio entre el sistema y el ambiente a través de ese límite, el sistema es abierto, de lo contrario, el sistema es cerrado. INFORMACION: En sentido general, es un conjunto organizado de datos procesados, que constituyen un mensaje que cambia el estado de conocimiento del sujeto o sistema que recibe dicho mensaje. Para GillesDeleuze, la información es el sistema de control, en tanto que es la propagación de consignas que deberíamos de creer o hacer que creemos. En tal sentido la información es un conjunto organizado de datos capaz de cambiar el estado de conocimiento en el sentido de las consignas trasmitidas. PROCESAMIENTO DE DATOS: Es definido como la técnica que consiste en la recolección de los datos primarios de entrada, los cuales son evaluados y ordenados, para obtener información útil, que luego serán analizados por el usuario final, para que pueda tomar las decisiones o realizar las acciones que estime conveniente.

Upload: teoperez1958

Post on 09-Jul-2015

743 views

Category:

Education


4 download

DESCRIPTION

Introduccion al procesamiento de datos e5 unesr

TRANSCRIPT

Page 1: Introduccion al procesamiento de datos e5 unesr

UNIDAD I (INTRODUCCION AL PROCESAMIENTO DE DATOS)

DATOS: Una base de datos o banco de datos (en ocasiones abreviada con la

sigla BD o con la abreviatura b. d.) es un conjunto de datos pertenecientes a un

mismo contexto y almacenados sistemáticamente para su posterior uso. En

este sentido, una biblioteca puede considerarse una base de datos compuesta

en su mayoría por documentos y textos impresos en papel e indexados para su

consulta. Actualmente, y debido al desarrollo tecnológico de campos como la

informática y la electrónica, la mayoría de las bases de datos están en formato

digital (electrónico), que ofrece un amplio rango de soluciones al problema de

almacenar datos.

SISTEMA: Un sistema es un conjunto de partes o elementos organizados y

relacionados que interactúan entre sí para lograr un objetivo. Los sistemas

reciben (entrada) datos, energía o materia del ambiente y proveen (salida)

información, energía o materia.

Un sistema puede ser físico o concreto (una computadora, un televisor,

un humano) o puede ser abstracto o conceptual (un software)

Cada sistema existe dentro de otro más grande, por lo tanto un sistema

puede estar formado por subsistemas y partes, y a la vez puede ser parte de

un supersistema.

Los sistemas tienen límites o fronteras (Ver: frontera de un sistema),

que los diferencian del ambiente. Ese límite puede ser físico (el gabinete de

una computadora) o conceptual. Si hay algún intercambio entre el sistema y el

ambiente a través de ese límite, el sistema es abierto, de lo contrario, el

sistema es cerrado.

INFORMACION: En sentido general, es un conjunto organizado de datos

procesados, que constituyen un mensaje que cambia el estado de

conocimiento del sujeto o sistema que recibe dicho mensaje.

Para GillesDeleuze, la información es el sistema de control, en tanto

que es la propagación de consignas que deberíamos de creer o hacer que

creemos. En tal sentido la información es un conjunto organizado de datos

capaz de cambiar el estado de conocimiento en el sentido de las consignas

trasmitidas.

PROCESAMIENTO DE DATOS: Es definido como la técnica que consiste en la

recolección de los datos primarios de entrada, los cuales son evaluados y

ordenados, para obtener información útil, que luego serán analizados por el

usuario final, para que pueda tomar las decisiones o realizar las acciones que

estime conveniente.

Page 2: Introduccion al procesamiento de datos e5 unesr

EVOLUCION DEL PROCESO DE DATOS: Desde épocas muy remotas el

hombre procesa datos. Es muy probable que el hombre primitivo empleara los

dedos de las manos para efectuar operaciones muy sencillas y almacenar toda

la información posible en su memoria, por lo que fue necesario auxiliarse de

todos los medios que permitieran resolver operaciones un poco más

complicadas, tal es el caso del ábaco que, de hecho, fue uno de los primeros

inventos (herramientas para el proceso de la información).

En su forma más sencilla, el ábaco consiste en una tabla con una serie

de ranuras, en donde son colocadas tantas fichas (indicadores) como

unidades, decenas o centenas haya que representar.

La Europa Medieval desarrolló dispositivos llamados contadores, que se

usaban con este objetivo.

En 1642, Pascal inventó una máquina que utilizando una rueda con diez

dientes y conectada a otra serie de ruedas podía sumar y restar. Fue la idea de

la primera calculadora.

En 1671, Leibnitz extendió el concepto para incluir operaciones de

multiplicación y división, a través de sumas y restas sucesivas.

Como antecedentes del proceso de datos, con el uso del registro unitario, y que

precedieron a los actuales sistemas mencionaremos algunos, aún cuando no

estén relacionados con el tratamiento de la información.

En 1887, el Dr. Herman Hollerith desarrolló el registro de información por

tarjeta perforada. Previamente en 1812 Babbage introdujo el principio de

memoria, a través de una máquina que calculaba y retenía la información para

ser usada en repetidas veces, quedando en proyecto no concretado.

En esencia el procesamiento de datos con registro por unidad, siguió

tres pasos fundamentales. El primero confronta tres tipos de máquinas

perfectamente diferenciadas en sus funciones, pero éstos están controlados en

su funcionamiento por el hombre. Es decir, que prácticamente la velocidad de

funcionamiento del sistema está limitada por el control humano. La entrada por

máquinas de tipo electromecánico, así como la salida, tienen una velocidad de

funcionamiento superior a la convencional (hasta entonces lo conseguía la

taqui-mecanografía).

Las máquinas encargadas del proceso realizaban esto en forma

mecánica y por lo tanto, a velocidades semejantes e incluso inferiores a los

dispositivos de entrada/salida.

Para obviar el inconveniente de la velocidad del control humano de los

procesos el cálculo se realizaba por medio de paneles cableados que actuaban

directamente sobre calculadoras, por la falta de flexibilidad del sistema.

Page 3: Introduccion al procesamiento de datos e5 unesr

Posteriormente se dio paso al control por tarjetas y el almacenamiento

de datos en la memoria. Pese a que el control se realizaba externamente, se

introdujo la modificación de que éste pudiera ser mediante paneles cableados

o, como innovación importante, mediante la utilización de tarjetas perforadas

para efectuar el control del proceso.

Entre 1939 y 1944 se desarrolló el computador Mark I, que contaba con

aportes significativos sobre sistemas. El primero correspondía al diseño del

circuito del procesador. El segundo, al método de control. Mark I utilizaba cintas

perforadas que dirigían las máquinas para programar acciones. En esta época

aparece el ENIAC, computadora totalmente electrónica. En 1945 hace su

aparición el EDVAC.

A partir de la década del cincuenta, hacia adelante, se dispusieron una

serie de herramientas del tipo, cada vez más sofisticados, que amoldaron mejor

el concepto de Procesamiento Automático de Datos, suprimiendo totalmente la

intervención humana en esta fase. En la década de los ochenta aparecen con

fuerza las microcomputadoras y su uso, hoy en día, es común en las más

diversas actividades del hombre.

PRIMEROS REGISTRADORES Y COMPUTADORAS: La primera generación

de computadoras abarca desde el año 1945 hasta el año 1958, época en que

la tecnología electrónica era a base de bulbos o tubos de vacío, y la

comunicación era en términos de nivel más bajo que puede existir, que se

conoce como lenguaje de máquina.

Características:

Estaban construidas con electrónica de válvulas.

Se programaban en lenguaje de máquina.

Un programa es un conjunto de instrucciones para que la máquina

efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse

un programa se llama lenguaje de máquina (porque el programa debe

escribirse mediante algún conjunto de códigos binarios).

La primera generación de computadoras y sus antecesores, se

describen en la siguiente lista de los principales modelos de que constó:

1. 1941 ENIAC. Primera computadora digital electrónica en la historia. No

fue un modelo de producción, sino una máquina experimental. Tampoco

era programable en el sentido actual. Se trataba de un enorme aparato

que ocupaba todo un sótano en la universidad. Construida con 18.000

bulbos consumía varios KW de potencia eléctrica y pesaba algunas

Page 4: Introduccion al procesamiento de datos e5 unesr

toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue

hecha por un equipo de ingenieros y científicos encabezados por los

doctores John W. Mauchly y J. PresterEckert en la universidad de

Pennsylvania, en los Estados Unidos.

2. 1949 EDVAC. Segunda computadora programable. También fue un

prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales

que conforman las computadoras actuales. Incorporaba las ideas del

doctor Alex Quimis.

3. 1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly

y Eckert fundaron la compañía Universal Computer (Univac), y su primer

producto fue esta máquina. El primer cliente fue la Oficina del Censo de

Estados Unidos.

4. 1953 IBM 701. Para introducir los datos, estos equipos empleaban

tarjetas perforadas, que habían sido inventadas en los años de la

revolución industrial (finales del siglo XVIII) por el francés Jacquard y

perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM

701 fue la primera de una larga serie de computadoras de esta

compañía, que luego se convertiría en la número 1 por su volumen de

ventas.

5. 1954 - IBM continuó con otros modelos, que incorporaban un

mecanismo de almacenamiento masivo llamado tambor magnético, que

con los años evolucionaría y se convertiría en el disco magnético.

La primera caja registradora fue inventada por James Ritty una vez concluida

la Guerra Civil Estadounidense. Era el propietario de un saloon en Dayton,

Ohio, Estados Unidos, y necesitaba evitar que sus empleados continuaran

hurtando sus ganancias. Creó el modelo Ritty I en 1879, luego de observar una

herramienta que contaba las revoluciones del propulsor de un barco a vapor.1

Con la ayuda de su hermano John, la patentó en 1883.2

Poco después resultó recargado con la necesidad de manejar dos

comercios, por lo que vendió todos sus derechos sobre su invento a Jacob H.

Eckert de Cincinnati, un vendedor de porcelana y cristalería, que formó la

NationalManufacturingCompany. En 1884 este vendió a su vez la empresa a

John H. Patterson, que la rebautizó National Cash Register (NCR) y mejoró la

máquina incorporando un rollo de papel para registrar las transacciones,

creando por tanto el ticket o recibo.

En 1906, mientras trabajaba en NCR Charles F. Kettering diseñó una

caja registradora con motor eléctrico.

En el Reino Unido se utiliza el término till3 para referirse a las cajas

registradoras, en alusión a su utilidad como «ordenador» de moneda.

Page 5: Introduccion al procesamiento de datos e5 unesr

DESCRIPCION FUNCIONAL DE UN SISTEMA INFORMATICO: Es un

conjunto de partes (hardware y software), El usuario forma parte del Sistema

Informático y objetivo que funcionan relacionándose entre sí.

REPRESENTACION INTERNA DE DATOS: Representación Alfanumérica:

La representación de la información de tipo texto escrito se hace codificando,

en un octeto, cada uno de los caracteres que componen dicha información.

- Código Baudot: Data de finales del S. XIX. Lo desarrolló Jean-Maurice-

ÉmileBaudot. Utilizaba 5 bits por carácter y se usaba en telegrafía.

- Alfabeto Internacional Nº 2: 1901. Donald Murray añadió nuevos caracteres y

códigos de desplazamiento al anterior. Cada carácter 5 bits. Existen algunos

caracteres de control. Inicialmente se utilizó en los teletipos. (Teleimpresores o

TTY).

- Codificación FIELDATA: Proyecto de Estados Unidos a finales de los 50.

Pretendía crear un estándar para recoger y distribución en el campo de batalla.

Utiliza bloques de 6 dígitos para representar los caracteres. Sólo se pueden

representar 26 datos, es decir 64 caracteres. Codificación EBCDIC (Extended

BinaryCoded Decimal InterchangeCode): Usado en mainframes de IBM

inicialmente. Utiliza 8 bits para cada carácter por lo que se pueden representar

256 caracteres. Cada octeto se divide en 2 partes (bits de zona, bits de dígito).

- Código ASCII (American Standard Code for Information Interchange). El más

difundido hoy en día para su uso en los ordenadores. Se publicó en 1963 por

ASA (que posteriormente pasó a ser ANSI) Dispone de 8 bits aunque sólo

utiliza los 7 primeros para el uso de letras, números y caracteres especiales.

Con 7 bits se pueden representar 128 caracteres diferentes. Se pueden

representar todos los números, letras mayúsculas, minúsculas, caracteres

especiales y de control. El resto de las combinaciones de la 128 a la 255 se

usan para representar caracteres de tipo gráfico.

- UNICODE. Es un estándar internacional establecido por el Consorcio Unicote

(formado por empresas como Apple Computer, Microsoft, IBM, HP, …). Su

objetivo es representar cualquier carácter jamás escrito. Windows NT y sus

sucesores lo usan. También sistemas operativos como Linux, Mac OS X y

lenguajes de programación como Java, Perl y C#.

Codificación EBCDIC (Extended BinaryCoded Decimal InterchangeCode):

Usado en mainframes de IBM inicialmente. Utiliza 8 bits para cada carácter por

lo que se pueden representar 256 caracteres. Cada octeto se divide en 2 partes

(bits de zona, bits de dígito).

- Código ASCII (American Standard Code for Information Interchange). El más

difundido hoy en día para su uso en los ordenadores. Se publicó en 1963 por

Page 6: Introduccion al procesamiento de datos e5 unesr

ASA (que posteriormente pasó a ser ANSI) Dispone de 8 bits aunque sólo

utiliza los 7 primeros para el uso de letras, números y caracteres especiales.

Con 7 bits se pueden representar 128 caracteres diferentes. Se pueden

representar todos los números, letras mayúsculas, minúsculas, caracteres

especiales y de control. El resto de las combinaciones de la 128 a la 255 se

usan para representar caracteres de tipo gráfico. Los 32 primeros caracteres

son de control.

- UNICODE. Es un estándar internacional establecido por el Consorcio Unicote

(formado por empresas como Apple Computer, Microsoft, IBM, HP, …). Su

objetivo es representar cualquier carácter jamás escrito. Windows NT y sus

sucesores lo usan. También sistemas operativos como Linux, Mac OS X y

lenguajes de programación como Java, Perl y C#. Y BYTE

CONCEPTO DE BIT Y BYTE: es el acrónimo Binarydigit. (dígito binario). Un bit

es un dígito del sistema de numeración binario.

Mientras que en el sistema de numeración decimal se usan diez dígitos,

en el binario se usan sólo dos dígitos, el 0 y el 1. Un bit o dígito binario puede

representar uno de esos dos valores, 0 ó 1.

Se puede imaginar un bit, como una bombilla que puede estar en uno de

los siguientes dos estados:

Luz apagada o Luz encendida

Memoria de computadora de 1980 donde se pueden ver los bits físicos.

Este conjunto de unos 4x4 cm. corresponden a 512 bytes.

El bit es la unidad mínima de información empleada en informática, en

cualquier dispositivo digital, o en la teoría de la información. Con él, podemos

representar dos valores cuales quiera, como verdadero o falso, abierto o

cerrado, blanco o negro, norte o sur, masculino o femenino, rojo o azul, etc.

Basta con asignar uno de esos valores al estado de "apagado" (0), y el otro al

estado de "encendido" (1).

Byte: Es una unidad de información compuesta por una secuencia de bits

contiguos. El diccionario de la Real Academia Española señala que byte es

sinónimo de octeto (una unidad de información de ocho bits); sin embargo, el

tamaño del byte (que proviene del inglés bite, “mordisco”) depende del código

de caracteres en el que ha sido definido.

El término fue propuesto por Werner Buchholz en 1957, en medio del

desarrollo de la computadora IBM 7030 Stretch. En un principio, byte se

utilizaba para mencionar las instrucciones de 4 bits, que permitían la inclusión

de entre uno y dieciséis bits por byte. Sin embargo, el diseño de producción

luego redujo el byte hasta campos de 3 bits, lo que permitió entre uno y ocho

Page 7: Introduccion al procesamiento de datos e5 unesr

bits en un byte. Con el tiempo, se fijo el tamaño de un byte en 8 bits y se

declaró como un estándar a partir de IBM S/360.

SISTEMA BINARIO: es un sistema de numeración en el que los números se

representan utilizando solamente las cifras cero y uno (0 y 1). Es el que se

utiliza en las computadoras, debido a que trabajan internamente con dos

niveles de voltaje, por lo cual su sistema de numeración natural es el sistema

binario (encendido 1, apagado 0).

CONCEPTO DE HARDWARE: Son todos los dispositivos y componentes

físicos que realizan las tareas de entrada y salida, también se conoce al

hardware como la parte dura o física del computador. La mayoría de las

computadoras están organizadas de la siguiente forma:

Los dispositivos de entrada (Teclados, Lectores de Tarjetas, Lápices Ópticos,

Lectores de Códigos de Barra, Escáner, Mouse, etc.) y salida (Monitor,

Impresoras, Plotters, Parlantes, etc.) y permiten la comunicación entre el

computador y el usuario.

ESQUEMA DE UN COMPUTADOR:

COMPONENTE DE UN COMPUTADOR:

Hardware: Es el conjunto de componentes físicos que conforman el

computador. Los computadores convencionales, también llamadas máquinas

de Von Neumann tienen tres principales componentes: Memoria principal,

Page 8: Introduccion al procesamiento de datos e5 unesr

Unidad Central de proceso (CPU- Centra lProcessingUnit y Dispositivos

periféricos).

Memoria Principal: Se encarga de almacenar temporalmente los programas y

los datos necesarios para que un determinado programa pueda ser ejecutado.

Está constituida por un conjunto de celdas (palabras) cada una de las cuales

puede almacenar una porción de información. El tamaño de una palabra

depende de la arquitectura del computador, existiendo palabras de 8, 16, 32 ó

64 bit. Un bit es la mínima información almacenable en un dígito binario (0 ó 1)

A la agrupación de 8 bit, se le denomina byte. La capacidad de la memoria

principal de un computador (Random Access Memory o RAM) se mide en

Mb(1Megabyte = 1024 X 1024 Bytes) siendo tamaños comunes actualmente 64

Mb, 128 Mb,256 Mb ó 1Gb (1024 Mb).

Unidad Central de Proceso: Encargada de realizar los cálculos y

transformaciones en los datos, además de coordinar, controlar y/o realizar

todas las operaciones del sistema. Cada CPU esta formado por dos

componentes principales.

Unidad de Control: Controla los componentes del computador para realizar las

operaciones necesarias y ejecutar las instrucciones.

Unidad Aritmético-Lógica: Realiza todos los cálculos (suma, resta,

multiplicación y división) y todas las operaciones lógicas (comparaciones

numéricas o alfabéticas) sobre los datos.

CONCEPTO DE SOFWARE: Es un ingrediente indispensable para el

funcionamiento del computador. Está formado por una serie de instrucciones y

datos, que permiten aprovechar todos los recursos que el computador tiene, de

manera que pueda resolver gran cantidad de problemas. Un computador en si,

es sólo un conglomerado de componentes electrónicos; el software le da vida

al computador, haciendo que sus componentes funcionen de forma ordenada.

El software es un conjunto de instrucciones detalladas que controlan la

operación de un sistema computacional.

CLASIFICACION y DEFINICIONES DEL SOFWARE: a los fines prácticos se

puede clasificar al software en tres grandes tipos:

Software de sistema: Su objetivo es desvincular adecuadamente al usuario y

al programador de los detalles del sistema informático en particular que se use,

aislándolo especialmente del procesamiento referido a las características

internas de: memoria, discos, puertos y dispositivos de comunicaciones,

impresoras, pantallas, teclados, etc. El software de sistema le procura al

usuario y programador adecuadar interfaces de alto nivel, controladores,

herramientas y utilidades de apoyo que permiten el mantenimiento del sistema

global. Incluye entre otros:

Page 9: Introduccion al procesamiento de datos e5 unesr

Sistemas operativos

Controladores de dispositivos

Herramientas de diagnóstico

Herramientas de Corrección y Optimización

Servidores

Utilidades

Software de programación: Es el conjunto de herramientas que permiten al

programador desarrollar programas informáticos, usando diferentes alternativas

y lenguajes de programación, de una manera práctica. Incluyen básicamente:

Editores de texto

Compiladores

Intérpretes

Enlazadores

Depuradores

Entornos de Desarrollo Integrados (IDE): Agrupan las anteriores herramientas,

usualmente en un entorno visual, de forma tal que el programador no necesite

introducir múltiples comandos para compilar, interpretar, depurar, etc.

Habitualmente cuentan con una avanzada interfaz gráfica de usuario (GUI).

Software de aplicación: Es aquel que permite a los usuarios llevar a cabo una

o varias tareas específicas, en cualquier campo de actividad susceptible de ser

automatizado o asistido, con especial énfasis en los negocios. Incluye entre

muchos otros:

Aplicaciones para Control de sistemas y automatización industrial

Aplicaciones ofimáticas

Software educativo

Software empresarial

Bases de datos

Telecomunicaciones (por ejemplo Internet y toda su estructura lógica)

Videojuegos

Software médico

Software de cálculo Numérico y simbólico.

Software de diseño asistido (CAD)

Software de control numérico (CAM)

COMPUTADORAS DE PROPOSITO GENERAL Y ESPECÍFICO: Las

computadoras se pueden clasificar por tamaño, por propósito y por aplicación.

A continuación mostramos las diferentes clasificaciones.

Las computadoras se clasifican por Tamaño en:

Page 10: Introduccion al procesamiento de datos e5 unesr

Microcomputadoras |Minicomputadoras | Macrocomputadoras |

Supercomputadoras.

Microcomputadoras: Las microcomputadoras son las computadoras más

accesibles para cualquier tipo de usuario, son máquinas personales de

escritorio.

Pequeñas solo en tamaño físico y accesibles económicamente,este tipo

de computadoras son tan dinámicas, que lo mismo las puede utilizar un experto

en el trabajo como un niño en casa, por esta razón las microcomputadoras son

las más conocidas, y ofrecen un sin número de aplicaciones.

En un principio solo era posible utilizarlas en ambiente monousuario,

esto es un solo usuario a la vez, pero con los avances tecnológicos desde hace

ya bastante tiempo este tipo de máquinas pueden ser utilizadas en ambientes

multi incluso como servidores de una red de computadoras.

Pequeñas de bajo costo y para múltiples aplicaciones.

Minicomputadoras: Al inicio de la década de 1960 hicieron su aparición las

minicomputadoras, fabricadas inicialmente por Digital EquipmentCorporation

(DEC).

Estas máquinas son más pequeñas que las macrocomputadoras pero

también de un menor costo, son el punto intermedio entre una

microcomputadora y una macrocomputadora, en cuanto a su forma de operar

se asemeja más a una macrocomputadora ya que fueron diseñadas para:.

- Entornos de múltiples usuarios, apoyando multiples actividades de proceso al

mismo tiempo.

- Ofrecer ciertos servicios más específicos

- Soportar un número limitado de dispositivos

- Pequeñas y de bajo costo

- Para múltiples aplicaciones

La macrocomputadora: es un sistema de aplicación general cuya característica

principal es el hecho de que el CPU es el centro de casi todas las actividades

de procesamiento secundario.

Por lo general cuenta con varias unidades de disco para procesar y

almacenar grandes cantidades de información. El CPU actúa como arbitro de

todas las solicitudes y controla el acceso a todos los archivos, lo mismo hace

con las operaciones de Entrada/Salida cuando se preparan salidas impresas o

efímeras.

Page 11: Introduccion al procesamiento de datos e5 unesr

El usuario se dirige a la computadora central de la organización cuando

requiere apoyo de procesamiento.

- El CPU es el centro de procesamiento

- Diseñadas para sistemas multiusuario

La Supercomputadora: es un sistema de cómputo más grande, diseñadas para

trabajar en tiempo real.

Estos sistemas son utilizados principalmente por la defensa de los

Estados Unidos y por grandes Empresas multimillonarias, utilizan

telecomunicaciones a grandes velocidades, para poner un ejemplo estas

máquinas pueden ejecutar millones de instrucciones por segundo. Actúa como

arbitro de todas las solicitudes y controla el acceso a todos los archivos, lo

mismo hace con las operaciones de Entrada/Salida cuando se preparan salidas

impresas o efímeras.

El usuario se dirige a la computadora central de la organización cuando

requiere apoyo de procesamiento.

- El CPU es el centro de procesamiento

- Diseñadas para sistemas multiusuario>

Las computadoras se clasifican por Propósito en:

Analógicas |Digitales | Hibridas

Las computadoras analógicas: representan los números mediante una cantidad

física, es decir, asignan valores numéricos por medio de la medición física de

una propiedad real, como la longitud de un objeto, el ángulo entre dos líneas o

la cantidad de voltaje que pasa a través de un punto en un circuito eléctrico.

Las computadoras analógicas obtienen todos sus datos a partir de

alguna forma de medición.

Aun cuando es eficaz en algunas aplicaciones, este método de

representar los datos es una limitación de las computadoras analógicas.

La precisión de los datos usados en una computadora analógica está

intimamente ligada a la precisión con que pueden medirse.

Las computadoras digitales: representan los datos o unidades separadas. La

forma más simple de computadora digital es contar con los dedos.

Cada dedo representa una unidad del artículo que se está contando. A

diferencia de la computadora analógica, limitada por la precisión de las

mediciones que pueden realizarse, la computadora digital puede representar

Page 12: Introduccion al procesamiento de datos e5 unesr

correctamente los datos con tantas posiciones y números que se requieran.

Las sumadoras y las calculadoras de bolsillo son ejemplos comunes de

dispositivos construídos según los principios de la Computadora Digital.

Para obtener resultados, las computadoras analógicas miden, mientras

que las computadoras digitales cuentan.

Hibridas: Combinan las características más favorables de las computadoras

digitales y analógicas tienen la velocidad de las analógicas y la precisión de las

digitales.

Generalmente se usan en problemas especiales en los que los datos de

entrada provienen de mediciones convertidas a dígitos y son procesados por

una Computadora por ejemplo las Computadoras Híbridas controlan el radar de

la defensa de Estados Unidos y de los vuelos comerciales.

Las computadoras se clasifican por Aplicación en:

Propósito General: Pueden procesar Información de negocios con la misma

facilidad que procesan fórmulas matemáticas complejas.

Pueden almacenar grandes cantidades de información y los grandes

programas necesarios para procesarla. Debido a que las computadoras de

aplicación general son tan versátiles la mayor parte de las empresas actuales

las utilizan.

Propósito Especial: Tienen muchas de las características de las Computadoras

de uso general pero se dedican a tareas de procesamiento muy especializadas.

Se diseñan para manejar problemas específicos y no se aplican a otras

actividades computarizadas. Por ejemplo, las computadoras de aplicación

especial pueden diseñarse para procesar exclusivamente datos numéricos o

para controlar comletamente procesos automatizados de fabricación.

Un simulador es un ejemplo de las computadoras de uso especifico y

puede ser un simulador de vuelo, de entrenamiento y en otros campos como la

enfermería, la tecnología del cuarto de operaciones, la administración de

plantas nucleares, los vuelos espaciales, el atletismo , la exploración marina,

etc.

DIFERENCIA DE TAMAÑO Y ARQUITECTURA: Un Sistema Operativo serio,

capaz de competir en el mercado con otros como Unix que ya tienen una

posición privilegiada, en cuanto a resultados, debe tener una serie de

características que le permitan ganarse ese lugar. Algunas de estas son:

•Que corra sobre múltiples arquitecturas de hardware y plataformas.

Page 13: Introduccion al procesamiento de datos e5 unesr

•Que sea compatible con aplicaciones hechas en plataformas anteriores, es

decir que corrieran la mayoría de las aplicaciones existentes hechas sobre

versiones anteriores a la actual, nos referimos en este caso particular a las de

16-bit de MS-DOS y Microsoft Windows 3.1.

•Reúna los requisitos gubernamentales para POSIX (Portable OperatingSystem

Interface for Unix).

•Reúna los requisitos de la industria y del gobierno para la seguridad del

Sistema Operativo.

•Sea fácilmente adaptable al mercado global soportando código Unicode.

•Sea un sistema que corra y balancee los procesos de forma paralela en varios

procesadores a la vez.

•Sea un Sistema Operativo de memoria virtual.

Uno de los pasos más importantes que revolucionó los Sistemas

Operativos de la Microsoft fue el diseño y creación de un Sistema Operativo

extensible, portable, fiable, adaptable, robusto, seguro y compatible con sus

versiones anteriores (Windows NT).

Y para ello crearon la siguiente arquitectura modular:

La cual está compuesta por una serie de componentes separados donde

cada cual es responsable de sus funciones y brindan servicios a otros

componentes. Esta arquitectura es del tipo cliente – servidor ya que los

programas de aplicación son contemplados por el sistema operativo como si

fueran clientes a los que hay que servir, y para lo cual viene equipado con

distintas entidades servidoras.

Ya creado este diseño las demás versiones que le sucedieron a

Windows NT fueron tomando esta arquitectura como base y le fueron

adicionando nuevos componentes.

Uno de las características que Windows comparte con el resto de los

Sistemas Operativos avanzados es la división de tareas del Sistema Operativo

en múltiples categorías, las cuales están asociadas a los modos actuales

soportados por los microprocesadores. Estos modos proporcionan a los

programas que corren dentro de ellos diferentes niveles de privilegios para

acceder al hardware o a otros programas que están corriendo en el sistema.

Windows usa un modo privilegiado (Kernel) y un modo no privilegiado

(Usuario).

Page 14: Introduccion al procesamiento de datos e5 unesr

Uno de los objetivos fundamentales del diseño fue el tener un núcleo tan

pequeño como fuera posible, en el que estuvieran integrados módulos que

dieran respuesta a aquellas llamadas al sistema que necesariamente se

tuvieran que ejecutar en modo privilegiado (modo kernel). El resto de las

llamadas se expulsarían del núcleo hacia otras entidades que se ejecutarían en

modo no privilegiado (modo usuario), y de esta manera el núcleo resultaría una

base compacta, robusta y estable.

El Modo Usuario es un modo menos privilegiado de funcionamiento, sin

el acceso directo al hardware. El código que corre en este modo sólo actúa en

su propio espacio de dirección. Este usa las APIs (SystemApplicationProgram

Interfaces) para pedir los servicios del sistema.

El Modo Kernel es un modo muy privilegiado de funcionamiento, donde

el código tiene el acceso directo a todo el hardware y toda la memoria, incluso

a los espacios de dirección de todos los procesos del modo usuario. La parte

de WINDOWS que corre en el modo Kernel se llama Ejecutor de Windows, que

no es más que un conjunto de servicios disponibles a todos los componentes

del Sistema Operativo, donde cada grupo de servicios es manipulado por

componentes que son totalmente independientes (entre ellos el Núcleo) entre

sí y se comunican a través de interfaces bien definidas.

Todos los programas que no corren en Modo Kernel corren en Modo

Usuario. La mayoría del código del Sistema Operativo corre en Modo Usuario,

así como los subsistemas de ambiente (Win32 y POSIX que serán explicados

en capítulos posteriores) y aplicaciones de usuario. Estos programas

solamente acceden a su propio espacio de direcciones e interactúan con el

resto del sistema a través de mensajes Cliente/Servidor.

CONFIGURACIONES EXISTENTES EN EL MERCADO: Básicamente existen

tres tipos de configuraciones que engloban a todas las redes existentes en el

mercado, independientemente del fabricante.

Peer to peer (Punto a punto): Cada estación de trabajo puede compartir sus

recursos con otras estaciones de trabajo que están en la red.

Compartición de recursos: Con este método los recursos a compartir

están centralizados en uno o más servidores. En estos servidores está toda la

información. Las estaciones de trabajo no pueden compartir sus recursos.

Cliente/Servidor: En este tipo de redes, las aplicaciones se parten entre el

servidor y las estaciones de trabajo. En el Front End, la parte cliente de la

aplicación acepta las peticiones del usuario, las prepara para el servidor y

Page 15: Introduccion al procesamiento de datos e5 unesr

espera una respuesta del mismo. En el Back End, el servidor recibe la petición

del cliente, la procesa y proporciona el servicio deseado por el cliente. El cliente

ahora presenta los datos u otro resultado al usuario a través de su propia

interfaz.

Los tipos más comunes de redes de área local son: Ethernet, Token Ring,

ArcNet.

Ethernet: fue originalmente creado por Xerox, pero desarrollado conjuntamente

como una norma en 1.980 por Digital, Intel y Xerox. La norma 802.3 de IEEE

define una red similar, aunque ligeramente diferente que usa un formato

alternativo de trama. Ethernet presenta un rendimiento de 10 Mbits/seg. y

utiliza un método sensible a la señal portadora mediante el cual las estaciones

de trabajo comparten un cable de red, pero sólo una de ellas puede utilizarlo en

un momento dado. El método de acceso múltiple con detección de portadora y

detección de colisiones se utiliza para arbitrar el acceso al cable.

Las redes Ethernet pueden ser cableadas con diferentes tipos de cable.

Cada uno con sus ventajas e inconvenientes. Las tres especificaciones más

populares para Ethernet son las siguientes:

Ethernet 10 Base-T: Ofrece la mayoría de las ventajas de Ethernet sin

las restricciones que impone el cable coaxial. Parte de esta especificación es

compatible con otras normas 802.3 del IEEE de modo que es sencillo realizar

una transición de un medio a otro. Es posible mantener las mismas tarjetas

Ethernet al pasar de un cable coaxial a cable de par trenzado. Además pueden

añadirse líneas troncales de par trenzado a las ya existentes gracias a

repetidores que admiten la conexión de líneas troncales de cable coaxial, fibra

óptica y par trenzado. Muchos fabricantes presentan este tipo de dispositivos

en su línea de productos Ethernet. La especificación 10 Base-T incluye una

utilidad de verificación de cableado denominada Verificación de integridad del

enlace.

Ethernet 10 Base-2: Se utiliza cable coaxial fino que se manipula más

fácilmente que el grueso y no requiere transceptores en las estaciones. Este

cable es más barato, aunque la longitud máxima de la línea troncal es menor.

Ethernet 100 Base-X: Con el crecimiento del uso de la multimedia y el

vídeo de alta definición en tiempo real, además del correo electrónico que

incorpora estos formatos, existe una necesidad creciente de obtención de

mayores anchos de banda en los equipos. Los usuarios de aplicaciones de

diseño asistidos por ordenador requieren siempre un alto ancho de banda. 100

BASE-X mantiene el método de acceso CSMA/CD sobre cable de par trenzado

sin blindar de categoría 5. El comité 802.3.del IEEE es el responsable de este

desarrollo.

Page 16: Introduccion al procesamiento de datos e5 unesr

Token Ring: El anillo con testigo es la norma 802.5 del IEEE. Una red en anillo

con paso de testigo se puede configurar en una topología en estrella. IBM hizo

posible la norma con la comercialización de la primera red Token Ring a 4

Mbit/seg. a mediados de los 80. Aunque la red físicamente aparece como una

configuración en estrella, internamente, las señales viajan alrededor de la red

de una estación a la siguiente. Por tanto, la configuración del cableado y la

adición o supresión de un equipo debe asegurar que se mantiene el anillo

lógico. Las estaciones de trabajo se conectan a los concentradores centrales

llamados unidades de acceso multiestación (MAU). Para crear redes grandes

se conectan múltiples concentradores juntos. Las tarjetas de Token Ring de

IBM están disponibles en una versión a 4 Mbit/seg. y en otra a 16 Mbit/seg. Son

comunes el cable de par trenzado no apantallado y las MAUS con 16 puertos.

La red de computación de recursos conectados ARCNET es un sistema

de red banda base con paso de testigo que ofrece topologías flexibles de

estrella y bus a un precio bajo. Las velocidades de transmisión son de 2,5

Mbit/seg. y en ARCNET Plus de 20 Mbit/seg.

Arcnet: proporciona una red robusta que no es tan susceptible a fallos como la

Ethernet de cable coaxial si el cable se suelta o se desconecta. Esto se debe

particularmente a su topología y a su baja velocidad de transferencia. Si el

cable que une una estación de trabajo a un concentrador se desconecta o se

suelta, sólo dicha estación de trabajo se va abajo, no la red entera. El protocolo

de paso de testigo requiere que cada transacción sea reconocida, de este

modo no hay cambios virtuales de errores aunque el rendimiento es mucho

más bajo que en otros esquemas de conexión de red.

La topología de una red define únicamente la distribución del cable que

interconecta los diferentes ordenadores.

A la hora de instalar una red, es importante seleccionar la topología más

adecuada a las necesidades, teniendo en cuenta factores como la distribución

de los equipos a interconectar, tipo de aplicaciones que se van a ejecutar,

inversión que se quiere hacer, coste que se quiere dedicar al mantenimiento y

actualización de la red, tráfico que debe soportar la red, capacidad de

expansión, entre otros.

Las topologías puras son tres: topología en bus, en estrella y en anillo. A

partir de estas tres se generan otras como son: anillo - estrella, bus - estrella,

etc.

Topologias en BUS: Consiste en un cable al que se conectan todos los nodos

de la red. Un nodo es cualquier estación de trabajo, terminal, impresora o

cualquier otro dispositivo que pueda ser conectado a la red, ya sea de forma

directa o indirecta (estando a disposición de la red al pertenecer a un

dispositivo ya conectado a ella).

Page 17: Introduccion al procesamiento de datos e5 unesr

Cuando se utiliza cable coaxial, aparecen unos elementos en los

extremos del cable denominados "terminadores", y cuyo aspecto es similar al

de un tapón. Cada cual actúa como una resistencia que refleja las señales del

cable. Su misión es indicar a la red cuáles son los extremos del bus.

La topología en bus resulta fácil de instalar y mantener, pero ofrece un

problema bastante importante. Esta dificultad consiste en que cuando el bus se

abre (el cable se rompe, se estropea una clavija, un mal contacto...), toda la red

se cae y quedará completamente inoperativa. Si la distancia que cubre el cable

es pequeña, encontrar la avería resulta relativamente fácil; sin embargo, si la

distancia es grande y/o los nodos conectados a ella son elevado, encontrar la

avería puede llevar mucho tiempo, durante el cual, todo el sistema quedará

inutilizado.

Topología en Anillo: Consiste en un cable en el que se juntan el origen con el

extremo, formando un anillo cerrado. A él se conectan los nodos de la red. No

requiere de terminadores, ya que el cable se cierra en sí mismo.

Esta topología ofrece el mismo problema que la topología en bus, es decir, si

se abre el anillo, la red queda inoperativa en su totalidad.

Topología en Estrella: En este caso, cada nodo de la red se conecta a un punto

central, formando una especie de estrella. El punto es tan sólo un dispositivo de

conexiones, o uno del mismo tipo más una estación de trabajo. Dependiendo

de sí el dispositivo central es pasivo (únicamente serviría de centralizador de

conexiones) o activo (centralizando las conexiones y regenerando la señal que

le llega), se tratará de una estrella pasiva ó activa. Este dispositivo central se

llama "concentrador" (o hub).

La principal ventaja que esta topología ofrece frente a las otras consiste

en que cuando el cable de un nodo se desconecta o rompe, dicho nodo es el

único que queda desconectado de la red, manteniéndose ésta operativa.

CARACTERISTICAS Y APLICACIONES DE LOS DISTINTOS TIPOS

MAINFRAME, MINI, MICRO Y PC:

Mainframe: Una computadora mainframe es una computadora grande y

poderosa que maneja el procesamiento para muchos usuarios

simultáneamente (Hasta varios cientos de usuarios). El nombre mainframe se

originó después de que las minicomputadoras aparecieron en los 1960's para

distinguir los sistemas grandes de dichas minicomputadoras.

Los usuarios se conectan a la computadora mainframe utilizando

terminales que someten sus tareas de procesamiento a la computadora central.

Una terminal es un aparato que tiene pantalla y teclado para la entrada / salida,

pero que no tiene capacidad de cómputo. También se conocen estas como

terminales tontas.

Page 18: Introduccion al procesamiento de datos e5 unesr

La capacidad de procesamiento de la mainframe se comparte en tiempo

entre todos los usuarios. Una computadora PC puede "emular" a una terminal

tonta para conectarse a una minicomputadora o a una mainframe. Esto se logra

mediante un software especial.

Las computadoras mainframe cuestan varios cientos de miles de

dólares. Se usan en situaciones en que las empresas requieren tener

centralizados en un lugar tanto el poder de cómputo como el almacenamiento

de la información.

Las mainframe también se usan como servidores de alta capacidad para

redes con muchas estaciones de trabajo clientes.

Mini: Una versión más pequeña de la macro computadora. Al ser orientada a

tareas específicas, no necesitaba de todos los periféricos que necesita una

macro, y esto ayudo a reducir el precio y costo de mantenimiento.

En general, una mini computadora, es un sistema multiproceso (varios

procesos) capaz de soportar de 10 hasta 200 usuarios simultáneamente.

Actualmente se usan para almacenar grandes bases de datos, y otras

aplicaciones.

Micro: Las microcomputadoras o computadoras personales (PC) tuvieron su

origen con la creación de los microprocesadores. Un microprocesador es una

computadora en un chip, o sea un circuito integrado independiente. Las PC son

computadoras para uso personal y relativamente son baratas y actualmente se

encuentran en las oficinas, escuelas y hogares.

PC:

Velocidad de Proceso: miles de millones de instrucciones de coma

flotante por segundo.

Usuarios a la vez: hasta miles, en entorno de redes amplias.

Tamaño: requieren instalaciones especiales y aire acondicionado

industrial.

Dificultad de uso: solo para especialistas.

Clientes usuales: grandes centros de investigación.

Penetración social: prácticamente nula.

Impacto social: muy importante en el ámbito de la investigación, ya que

provee cálculos a alta velocidad de procesamiento, permitiendo, por

ejemplo, calcular en secuencia el genoma humano, número Pi,

desarrollar cálculos de problemas físicos dejando un margen de error

muy bajo, etc.

Parques instalados: menos de un millar en todo el mundo.

Costo: hasta decenas de millones de dólares cada una de ellas.

Page 19: Introduccion al procesamiento de datos e5 unesr

UNIDAD II (SISTEMA OPERATIVO)

CONCEPTO: Conjunto de programas que se integran con el hardware para

facilitar al usuario, el aprovechamiento de los recursos disponibles. Algunos de

sus objetivos principales son:

Provee de un ambiente conveniente de trabajo.

Hace uso eficiente del Hardware.

Provee de una adecuada distribución de los recursos.

Para un Sistema Operativo real deberá satisfacer las siguientes

funciones:

Gobierna el Sistema.

Asigna los recursos.

Administra y controlar la ejecución de los programas.

Un sistema de cómputo en muchos casos cuenta con demasiados recursos

para ser utilizados por un solo usuario, es en estos casos cuando se puede dar

servicio a varios procesos.

FUNCIONES: Los sistemas operativos proporcionan una plataforma de

software encima de la cual otros programas, llamados aplicaciones, puedan

funcionar. Las aplicaciones se programan para que funcionen encima de un

sistema operativo particular, por tanto, la elección del sistema operativo

determina en gran medida las aplicaciones que puedes utilizar.

Los sistemas operativos más utilizados en los PC son DOS, OS/2, y

Windows, pero hay otros que también se utilizan, como por ejemplo Linux.

APLICACIONES: Programas externos al sistema, utilizados para realizar

tareas específicas como simulación, creación y edición de gráficas e imágenes,

etc...

DISTINTOS SISTEMAS OPERATIVOS DOS, UNIX, WINDOWS, VENTAJAS Y

DIFERENCIAS:

Dos: es una familia de sistemas operativos para PC. El nombre son las siglas

de disk operatingsystem ("sistema operativo de disco"). Fue creado

originalmente para computadoras de la familia IBM PC, que utilizaban los

procesadores Intel 8086 y 8088, de 16 bits, siendo el primer sistema operativo

popular para esta plataforma. Contaba con una interfaz de línea de comandos

en modo texto o alfanumérico, vía su propio intérprete de órdenes,

command.com. Probablemente la más popular de sus variantes sea la

perteneciente a la familia MS-DOS, de Microsoft, suministrada con buena parte

de los ordenadores compatibles con IBM PC, en especial aquellos de la familia

Intel, como sistema operativo independiente o nativo, hasta la versión 6.22

Page 20: Introduccion al procesamiento de datos e5 unesr

(bien entrados los 90), frecuentemente adjunto a una versión de la interfaz

gráfica Ms Windows de 16 bits, como las 3.1x.

En las versiones nativas de Microsoft Windows, basadas en NT (y éste a

su vez en OS/2 2.x) (véase Windows NT, 2000, 2003, XP o Vista) MS-DOS

desaparece como sistema operativo (propiamente dicho) y entorno base, desde

el que se arrancaba el equipo y sus procesos básicos y se procedía a ejecutar

y cargar la inferfaz gráfica o entorno operativo de Windows. Todo vestigio del

mismo queda relegado, en tales versiones, a la existencia de un simple

intérprete de comandos, denominado Símbolo del Sistema, ejecutado como

aplicación mediante cmd.exe, a partir del propio entorno gráfico (elevado ahora

a la categoría de sistema).

Esto no es así en las versiones no nativas de Windows, que sí están

basadas en MS-DOS, cargándose a partir del mismo. Desde los 1.0x a las

versiones 3.1(1), de 16 bits, Ms Windows tuvo el planteamiento de una simple

aplicación de interfaz o entorno gráfico, complementaria al propio intérprete de

comandos, desde el que era ejecutado. Fue a partir de las versiones de 32 bits,

de nuevo diseño y mayor potencia, basadas en Windows 95 y 98, cuando el

MS-DOS comienza a ser deliberadamente camuflado por el propio entorno

gráfico de Windows, durante el proceso de arranque, dando paso, por defecto,

a su automática ejecución, lo que acapara la atención del usuario medio y

atribuye al antiguo sistema un papel más dependiente y secundario, llegando a

ser por muchos olvidado y desconocido, y paulatinamente abandonado por los

desarrolladores de software y hardware, empezando por la propia Microsoft

(esta opción puede desactivarse alterando la entrada BootGUI=1 por

BootGUI=0, del archivo de sistema, ahora de texto, MSDOS. SYS). Sin

embargo, en tales versiones, Windows no funcionaba de forma autónoma,

como sistema operativo. Tanto varias de las funciones primarias o básicas del

sistema como su arranque se deben aún en las versiones de 32 bits, a los

distintos módulos y archivos de sistema que componían el modesto armazón

del DOS, requiriendo aquéllas un mínimo de los archivos básicos de este, para

poder ejecutarse (tales como IO.SYS, DRVSPACE. BIN, EMM386.EXE e

HIMEM. SYS).

Existen varias versiones de DOS. El más conocido de ellos es el MS-

DOS, de Microsoft (de ahí las iniciales MS). Otros sistemas son el PC-DOS, de

IBM, el DR-DOS, de Digital Research, que pasaría posteriormente a Novell

(Novell DOS 7.0), luego a Caldera y finalmente a DeviceLogics y, más

recientemente, el FreeDOS, de licencia libre y código abierto. Éste último,

puede hacer las veces, en su versión para GNU/Linux y UNIX, de emulador del

DOS bajo sistemas de este tipo.

Con la aparición de los sistemas operativos gráficos, del tipo Windows,

en especial aquellos de 32 bits, del tipo Windows 95, el DOS ha ido quedando

Page 21: Introduccion al procesamiento de datos e5 unesr

relegado a un segundo plano, hasta verse reducido al mero intérprete de

órdenes, y a las líneas de comandos (en especial en ficheros de tipo .PIF y

.BAT), como ocurre en los sistemas derivados de Windows NT.

El DOS carece por completo de interfaz gráfica, y no utiliza el ratón,

aunque a partir de ciertas versiones solía incluir controladoras para detectarlo,

inicializarlo y hacerlo funcionar bajo diversas aplicaciones de edición y de

interfaz y entorno gráfico, además de diversos juegos que tendían a requerirlo

(como juegos de estrategia, aventuras gráficas y Shoot 'em up subjetivos, entre

otros). Por sí sólo es incapaz de detectar el hardware, a menos que las

mencionadas controladoras incluyan en su núcleo de sistema, como residentes

en memoria, el código, instrucciones y funciones necesarias. En cualquier

caso, el intérprete de comandos y la mayoría de sus aplicaciones y mandatos

de edición debían o podían ser fácilmente controlados manualmente, a través

del teclado, ya fuera mediante comandos, o introduciendo teclas de acceso

rápido para activar los distintos menúes y opciones desde el editor (un buen

ejemplo de esto último son el editor de texto edit.com, el menú de ayuda

help.exe, ó el intérprete de BASIC qbasic.exe, incluidos en las últimas

versiones del MS-DOS). Talesopciones siguen, de hecho, encontrándose

presentes en los Windows, en versiones muy posteriores.

El DOS no es ni multiusuario ni multitarea. No puede trabajar con más

de un usuario ni en más de un proceso a la vez. En sus versiones nativas

(hasta la 6.22 en el MS-DOS), no puede trabajar con particiones de disco

demasiado grandes, superiores a los 2 GB, que requieren formatos y sistemas

de archivos tales como el FAT32, propio de Windows de 32 bits (a partir del

95), ó el NTFS, propio de Windows de tipo NT. Originalmente, por limitaciones

del software, no podía manejar más de 64KB de memoria RAM. En las

versiones anteriores a la 4.0, el límite, a su vez, era de 32 MB por partición, al

no soportar aún el formato FAT16 (desarrollado en 1987). Poco a poco, con las

mejoras en la arquitectura de los PC, llegó primero a manejar hasta 640 KB de

RAM (la llamada "memoria convencional", ó base), y luego hasta 1 megabyte

(agregando a la memoria convencional la "memoria superior" o UMB). Más

tarde, aparecieron mecanismos como la memoria expandida (EMS) y la

memoria extendida (XMS), que permitían ya manejar varios megabytes.

Desde el punto de vista de los programadores, este sistema operativo

permitía un control total de la computadora, libre de las capas de abstracción y

medidas de seguridad a las que obligan los sistemas multiusuario y multitarea.

Así, hasta la aparición del DirectX, y con el fin de aprovechar al máximo el

hardware, la mayoría de videojuegos para PC funcionaban directamente bajo

DOS.

La necesidad de mantener la compatibilidad con programas antiguos,

hacía cada vez más difícil programar para DOS, debido a que la memoria

Page 22: Introduccion al procesamiento de datos e5 unesr

estaba segmentada, es decir, la memoria apuntada por un puntero tenía como

máximo el tamaño de un segmento de 64KB. Para superar estas limitaciones

del modo real de los procesadores x86, se recurría al modo protegido de los

procesadores posteriores (80386, 80486...), utilizando programas extensores

que hacían funcionar programas de 32 bits sobre DOS.

Aunque este sistema operativo sea uno de los más antiguos, aún los

entornos operativos Windows de 32 bits, hasta el 98, tenían como plataforma

base camuflada u oculta el DOS. Su intérprete de comandos, denominado, por

lo general, CommandPrompt o Símbolo del Sistema, puede invocarse desde la

interfaz como command.com, ó, en versiones posteriores, basadas en NT, que

ya no se basan ni parten de MS-DOS, mediante cmd.exe, esto pasa también

en Windows ME a pesar de estar aún basado en la antigua arquitectura 9x.

También existen, para sistemas actuales, emuladores como el DOSBox, o

entornos de código abierto como el FreeDOS, comunes ambos en GNU/Linux;

ello permite recuperar la compatibilidad perdida con ciertas aplicaciones nativas

para este antiguo sistema, que ya no pueden funcionar desde los nuevos

Windows, basados en NT, o bajo sistemas operativos de arquitectura dispar,

como los UNIX y GNU/Linux.

DIR: Muestra un listado de archivos, que están contenidos en un directorio.

TYPE: Muestra el contenido de un archivo en pantalla.

COPY: Copia archivos en otro lugar.

REN o RENAME: Renombra archivos.

DEL o ERASE: Borra uno o varios archivos (con posibilidad de recuperarlos

mediante la orden UNDELETE, presente en las últimas versiones nativas del

DOS, salvo que el lugar del archivo o archivos borrados hubiese sido utilizado

con posterioridad).

MD o MKDIR: Crea un nuevo directorio.

CD o CHDIR: Cambia el directorio actual por el especificado.

RD o RMDIR: Borra un directorio vacío.

ATTRIB: Permite asignar o quitar atributos de archivos (tales como +A: ya

modificado, +H: oculto, +R: de sólo lectura, ó +S, archivo especial del sistema,

o a la inversa)

TREE:Muestra gráficamente la estructura de directorios de una unidad o ruta

de acceso

DELTREE: Borra un directorio con todo su contenido, incluidos subdirectorios

(apareció en las últimas versiones)

Page 23: Introduccion al procesamiento de datos e5 unesr

CLS: limpia la pantalla.

DATE: Permite ver y cambiar la fecha.

TIME: Permite ver y cambiar la hora.

LABEL: Permite ver y cambiar la etiqueta de una unidad de disco ó volumen.

HELP: Ofrece ayuda sobre las distintas órdenes.

SORT: Ordena las entradas.

FC o COMP: Compara las diferencias entre el contenido de dos archivos.

FIND: Busca cadenas de texto dentro del contenido de un archivo.

TACS: Ordena todos los archivos del cp.

EDLIN o EDIT: Permite editar archivos, guardando los cambios efectuados en

el sistema.

VOL:Muestra la etiqueta del volumen y el número de serie del disco.

VERIFY:Comunica a Windows si debe comprobar que los archivos se escriben

de forma correcta en un disco.

CD..:retrocede a la rama anterior.

Unix: Unix (registrado oficialmente como UNIX®) es un sistema operativo

portable, multitarea y multiusuario; desarrollado, en principio, en 1969 por un

grupo de empleados de los laboratorios Bell de AT&T, entre los que figuran

Ken Thompson, Dennis Ritchie y Douglas McIlroy.1 2

Hasta 2009, el propietario de la marca UNIX® fue The Open Group, un

consorcio de normalización industrial. A partir de marzo de 2010 y tras una

larga batalla legal, esta ha pasado nuevamente a ser propiedad de Novell, Inc.

Sólo los sistemas totalmente compatibles y que se encuentran certificados por

la especificación Single UNIX Specification pueden ser denominados "UNIX®"

(otros reciben la denominación "similar a un sistema Unix" o "similar a Unix").

En ocasiones, suele usarse el término "Unix tradicional" para referirse a Unix o

a un sistema operativo que cuenta con las características de UNIX Versión 7 o

UNIX System V.

Familias UNIX más significativas

AT&T: la familia que tuvo su origen en el UNIX de AT&T. Considerada la familia

UNIX "pura" y original. Sus sistemas operativos más significativos son UNIX

System III y UNIX System V.

Page 24: Introduccion al procesamiento de datos e5 unesr

BSD: familia originada por el licenciamiento de UNIX a Berkely. BSD se

reescribió para no incorporar propiedad intelectual originaria de AT&T en la

versión 4. La primera implementación de los protocolos TCP/IP que dieron

origen a Internet son la pila (stack) TCP/IP BSD.

AIX: Esta familia surge por el licenciamiento de UNIX System III a IBM.

Xenix: familia derivada de la adquisición de los derechos originales de AT&T

primero por parte de Microsoft y de esta los vendió a SCO.

GNU: En 1983, Richard Stallman anunció el Proyecto GNU, un ambicioso

esfuerzo para crear un sistema similar a Unix, que pudiese ser distribuido

libremente. El software desarrollado por este proyecto -por ejemplo, GNU

Emacs y GCC - también han sido parte fundamental de otros sistemas UNIX.

Linux: En 1991, cuando LinusTorvalds empezó a proponer el núcleo Linux y a

reunir colaboradores, las herramientas GNU eran la elección perfecta. Al

combinarse ambos elementos, conformaron la base del sistema operativo

(basado en POSIX) que hoy se conoce como GNU/Linux. Las distribuciones

basadas en el núcleo, el software GNU y otros agregados entre las que se

pueden mencionar a Slackware Linux, Red Hat Linux y Debian GNU/Linux se

han hecho populares tanto entre los aficionados a la computación como en el

mundo empresarial. Obsérvese que Linux tiene un origen independiente, por lo

que se considera un 'clónico' de UNIX y no un UNIX en el sentido histórico.

Las interrelaciones entre estas familias son las siguientes, aproximadamente

en orden cronológico:

La familia BSD surge del licenciamiento del UNIX original de AT&T.

Xenix también surge por licenciamiento del UNIX original de AT&T, aunque aún

no era propiedad de SCO.

AIX surge por licenciamiento de UNIX System III, pero también incorpora

propiedad intelectual de BSD.

La familia original AT&T incorpora ilegalmente propiedad intelectual de BSD en

UNIX System III r3.

La familia AIX vuelve a incorporar propiedad intelectual de la familia AT&T, esta

vez procedente de UNIX System V.

Linux incorpora propiedad intelectual de BSD, gracias a que éste también se

libera con una licencia de código abierto denominada Open-source BSD.

Page 25: Introduccion al procesamiento de datos e5 unesr

Según SCO Group, Linux incorpora propiedad intelectual procedente de AIX,

gracias a la colaboración de IBM en la versión 2.4, mas aún no está

demostrado, hay un proceso judicial al respecto: Disputas de SCO sobre Linux.

UNIX es una marca registrada de Novell, después de una disputa con The

Open Group en Estados Unidos y otros países. Esta marca solo se puede

aplicar a los sistemas operativos que cumplen la "Single Unix Specification" de

esta organización y han pagado las regalías establecidas.

En la práctica, el término UNIX se utiliza en su acepción de familia. Se

aplica también a sistemas multiusuario basados en POSIX (tales como

GNU/Linux, Mac OS X [el cual, en su versión 10.5 ya ha alcanzado la

certificación UNIX], FreeBSD, NetBSD, OpenBSD), los cuales no buscan la

certificación UNIX por resultar cara para productos destinados al consumidor

final o que se distribuyen libremente en Internet. En estos casos, el término se

suele escribir como "UN*X", "UNIX*", "*NIX", o "*N?X". Para referirse a ellos

(tanto a Unix, como a los sistema basados en Unix/POSIX) también se utiliza

"Unixes", pero "Unices" (que trata la palabra Unix como un nombre latino de la

tercera declinación) es asimismo popular.

A lo largo de la historia ha surgido una gran multitud de

implementaciones comerciales de UNIX. Sin embargo, un conjunto reducido de

productos han consolidado el mercado y prevalecen gracias a un continuo

esfuerzo de desarrollo por parte de sus fabricantes. Los más importantes son:

Solaris 10, un sistema operativo derivado de la rama System V Solaris de Sun

Microsystems. Uno de los sistemas operativos Unix más difundidos en el

entorno empresarial y conocido por su gran estabilidad. Parte del código fuente

de Solaris se ha liberado con licencia de fuentes abiertas (OpenSolaris).

AIX de IBM. El UNIX "propietario" de IBM cumplió 20 años de vida en el 2006 y

continúa en pleno desarrollo, con una perceptible herencia del mainframe en

campos como la virtualización o la RAS de los servicios, heredada de sus

"hermanos mayores".

HP-UX de Hewlett-Packard. Este sistema operativo también nació ligado a las

computadoras departamentales de este fabricante. También es un sistema

operativo estable que continua en desarrollo.

Mac OS X. Se trata de un UNIX completo, aprobado por The Open Group. Su

diferencia marcada es que posee una interfaz gráfica propietaria llamada Aqua,

y es principalmente desarrollada en Objective-C en lugar de C o C++.

Existen sistemas operativos basados en el núcleo Linux, y el conjunto de

aplicaciones GNU (también denominado GNU/Linux), entre las más utilizadas

encontramos:

Page 26: Introduccion al procesamiento de datos e5 unesr

Red Hat Enterprise Linux. Cuyo fabricante Red Hat es conocido por su

amplia gama de soluciones y aportes al desarrollo de software libre. Apoya el

proyecto Fedora del cual se beneficia y de ella se derivan distribuciones

compatibles como Oracle Enterprise Linux y CentOS, también distribuciones

como Mandriva Linux, se basó en una de sus primeras versiones.

SUSE Linux de Novell. Originalmente liberado por la compañía alemana

SuSE. Es popular por sus herramientas de administración centralizada. De

manera análoga a RedHat con Fedora, apoya el proyecto openSUSE.

Debian GNU/Linux. Con una de las comunidades más grandes y

antiguas del movimiento de software libre, es base para distribuciones como

Xandros, Mepis, Linspire y Ubuntu.

También son populares los sistemas operativos descendientes del

4.4BSD:

FreeBSD. Quizá el sistema operativo más popular de la familia, de propósito

múltiple. Con una implementación SMP muy elaborada, es el sistema operativo

utilizado por los servidores de Yahoo. Y base de muchos sistemas operativos

entre ellos Mac OS X de Apple.

OpenBSD. Ampliamente reconocida por su seguridad proactiva y auditoría

permanente del código fuente. Es utilizada en ambientes donde la seguridad

prima sobre todo, es usual encontrarlo instalado en servidores que actúan

como Firewall, VPN o Proxy.

NetBSD. Se le conoce por su portabilidad, a octubre de 2008: 53 arquitecturas

soportadas. La NASA lo ha utilizado para la investigación en redes TCP/IP

satelitales, al igual que para reciclar computadoras viejas con software

moderno.

Las siguientes implementaciones de UNIX tienen importancia desde el punto

de vista histórico, no obstante, actualmente están en desuso:

Tru64 UNIX actualmente de Hewlett-Packard (antes de Compaq y

originalmente de Digital EquipmentCorporation).

UnixWare y SCO OpenServer anteriormente de Santa Cruz Operation y ahora

de SCO Group.

UX/4800 de NEC.

IRIX de SiliconGraphicsInc..

Algunos comandos básicos de UNIX son:

Page 27: Introduccion al procesamiento de datos e5 unesr

Navegación/creación de directorios/archivos: ls cd pwdmkdirrmrmdircp

Edición/visión de archivos: touch more ed vi

Procesamiento de textos: echo cat grep sortuniq sed awktail head

Comparación de archivos: commcmpdiffpatch

Administración del sistema: chmodchownps find xargssd w who

Comunicación: mail telnet ssh ftp finger rlogin

Shells: shcshksh

Documentación: man.

Esta es una lista de los sesenta comandos de usuario de la sección 1 de la

Primera Edición:

ar as b basbcdbootcatchdircheckchmodchowncmpcp date db (Unix) dbppt dc

dfdswdtf du edfindforformhuplbpptldlnls mail mesgmkdirmkfsmount mv

nmodprrew (Unix) rkdrkfrklrmrmdirroffsdateshstatstrip (Unix) su sum tap (Unix)

tmttytype un wcwhowrite

Otros comandos

Tiempo: cal

Windows: es el nombre de una familia de sistemas operativos desarrollados por

Microsoft desde 1981, año en que el proyecto se denominaba «Interface

Manager».

Anunciado en 1983, Microsoft comercializó por primera vez el entorno

operativo denominado Windows en noviembre de 1985 como complemento

para MS-DOS, en respuesta al creciente interés del mercado en una interfaz

gráfica de usuario (GUI) que fuera introducido por otros sistemas operativos

como Mac OS y de otras compañías como Xerox.1 En esas fechas, Microsoft

consiguió un contrato de arrendamiento de su sistema operativo con el gigante

de la informática, IBM, por lo que fue preinstalado desde fábrica en la mayoría

de ordenadores personales del mundo, lo que lo convirtió en el más usado y

popular. En octubre de 2009, Windows tenía aproximadamente el 91% de la

cuota de mercado de sistemas operativos en equipos cliente que acceden a

Internet.2 3 4 Las versiones más recientes de Windows son Windows 7 para

equipos de escritorio, Windows Server 2008 R2 para servidores y Windows

Phone 7 para dispositivos móviles.

El término Windows describe colectivamente todas o parte de varias

generaciones de productos de sistema operativo de Microsoft. Estos productos

generalmente se clasifican como sigue:

Primeras versiones

Artículos principales: Windows 1.0 y Windows 2.0.

Page 28: Introduccion al procesamiento de datos e5 unesr

La historia de Windows se remonta a septiembre del año 1981, con el

proyecto denominado «Interface Manager». Se anunció en noviembre de 1983

(después del Apple Lisa, pero antes de Macintosh) bajo el nombre «Windows»,

pero Windows 1.0 no se publicó hasta el mes de noviembre de 1985. El shell

de Windows 1.0 es un programa conocido como MS-DOS Executive. Otros

programas suministrados fueron la Calculadora, Calendario, Cardfile, Visor del

portapapeles, Reloj, Panel de control, el Bloc de notas, Paint, Reversi, Terminal

y Write. Windows 1.0 no permite la superposición de ventanas, debido a que

Apple Computer ya contaba con esta característica. En su lugar fueron mosaico

en todas las ventanas. Solo los cuadros de diálogo podrían aparecer en otras

ventanas.

Windows 2.0 fue lanzado en octubre de 1987 y presentó varias mejoras

en la interfaz de usuario y en la gestión de memoria e introdujo nuevos

métodos abreviados de teclado. También podría hacer uso de memoria

expandida.

Windows 2.1 fue lanzado en dos diferentes versiones: Windows/386

empleando Modo 8086 virtual para realizar varias tareas de varios programas

de DOS, y el modelo de memoria paginada para emular la memoria expandida

utilizando la memoria extendida disponible. Windows/286 (que, a pesar de su

nombre, se ejecutaría en el 8086) todavía se ejecutaba en modo real, pero

podría hacer uso de la Área de memoria alta. Apple demandó a Microsoft por lo

parecido del software a su sistema MacOS, Microsoft ganó la demanda.

Las primeras versiones de Windows se suele considerar como interfaz

gráfica de usuario simple. Incluso las primeras versiones de Windows de 16

bits ya supone muchas de las funciones típicas de sistema operativo; en

particular, tener su propio formato de archivo ejecutable y proporcionar sus

propios Controladores de dispositivo (temporizador, gráficos, impresora, ratón,

teclado y sonido) para aplicaciones. A diferencia de MS-DOS, Windows permite

a los usuarios ejecutar las aplicaciones gráficas de múltiples al mismo tiempo, a

través de la multitarea cooperativa. Windows implementa un esquema de

software elaborada, basado en el segmento, memoria virtual, lo que le permitió

ejecutar aplicaciones más grandes que la memoria disponible: segmentos de

código y los recursos se intercambian y se tira cuando escaseaba la memoria,

y segmentos de datos en la memoria cuando se trasladó una aplicación dada,

había cedido el control del procesador, por lo general la espera de la entrada

del usuario.

Windows 3.0 y 3.1

Artículo principal: Windows 3.x.

Windows 3.0 (1990) y Windows 3.1 (1992) mejoraron el diseño ,

principalmente debido a la memoria virtual y los controladores de dispositivo

Page 29: Introduccion al procesamiento de datos e5 unesr

virtual deslastrables (VxD) que permitió compartir dispositivos arbitrarios entre

DOS y Windows. Además, las aplicaciones de Windows ahora podrían ejecutar

en modo protegido (cuando se ejecuta Windows en el modo estándar o 386

mejorado), que les da acceso a varios megabytes de memoria y se elimina la

obligación de participar en el esquema de la memoria virtual de software.

Windows 95, 98, y Me

Artículos principales: Windows 95, Windows 98 y Windows Me.

Windows 95 fue lanzado en 1995, con una nueva interfaz de usuario,

compatibilidad con nombres de archivo largos de hasta 250 caracteres, y la

capacidad de detectar automáticamente y configurar el hardware instalado

(plug and play). De forma nativa podrían ejecutar aplicaciones de 32-bits y

presentó varias mejoras tecnológicas que aumentaron su estabilidad respecto a

Windows 3.1. Hubo varios OEM ServiceReleases (OSR) de Windows 95, cada

una de las cuales fue aproximadamente equivalente a un Service Pack.

El siguiente lanzamiento de Microsoft fue Windows 98 en 1998. Microsoft

lanzó una segunda versión de Windows 98 en 1999, llamado Windows 98

SecondEdition (a menudo acortado a Windows 98 SE).

En el 2000, Microsoft lanza Windows Millennium Edition (comúnmente

llamado Windows Me), que actualiza el núcleo de Windows 98 pero que adopta

algunos aspectos de Windows 2000 y elimina (más bien, oculta) la opción de

«Arrancar en modo DOS». También añade una nueva característica

denominada «Restaurar sistema», que permite al usuario guardar y restablecer

la configuración del equipo en una fecha anterior.

Familia NT

Artículo principal: Windows NT.

La familia de sistemas Windows NT fue hecha y comercializada por un

mayor uso de fiabilidad de negocios. El primer lanzamiento fue de MS Windows

NT 3.1 (1993), el número «3.1» para que coincida con la versión para

Windows, que fue seguido por NT 3.5 (1994), NT 3.51 (1995), NT 4.0 (1996), y

Windows 2000 (2000). 2000 es la última versión de Windows NT, que no

incluye la activación de productos de Microsoft. NT 4.0 fue el primero en esta

línea para implementar la interfaz de usuario de Windows 95 (y el primero en

incluir tiempos de ejecución de 32 bits integrada de Windows 95). Microsoft se

trasladó a combinar sus negocios de consumo y sistemas operativos con

Windows XP, viene tanto en las versiones Home y professional (y las versiones

posteriores de mercado para tablet PC y centros multimedia), sino que también

se separaron los calendarios de lanzamiento para los sistemas operativos de

servidor. Windows Server 2003, lanzado un año y medio después de Windows

XP, trajo Windows Server al día con MS Windows XP. Después de un proceso

Page 30: Introduccion al procesamiento de datos e5 unesr

de desarrollo largo, Windows Vista fue lanzado hacia el final de 2006, y su

homólogo de servidor, Windows Server 2008 fue lanzado a principios de 2008.

El 22 de julio de 2009, Windows 7 y Windows Server 2008 R2 se publicaron

como RTM (versión de disponibilidad general). Windows 7 fue lanzado el 22 de

octubre de 2009.

Windows CE, la oferta de Microsoft en los mercados móviles e

integrados, es también un verdadero sistema operativo 32 bits que ofrece

diversos servicios para todas las subestaciones de trabajo de explotación.

Sistemas operativos de 64 bits

Windows NT incluye soporte para varias plataformas diferentes antes de

x86 - basado en ordenador personal se convirtió en dominante en el mundo

profesional. Versiones de NT desde 3.1 a 4.0 diversamente compatibles

PowerPC, DEC Alpha y MIPS R4000, algunos de los cuales eran procesadores

de 64 bits, aunque el sistema operativo trató procesadores como de 32 bits.

Con la introducción de la arquitectura Intel Itanium, que se conoce como

IA-64, Microsoft lanzó nuevas versiones de Windows para apoyarlo. Las

versiones Itanium de Windows XP y Windows Server 2003 fueron liberadas al

mismo tiempo que con sus principales contrapartes x86 (32-bit). El 25 de Abril

de 2005, Microsoft lanzó Windows XP Professional x64 Edition y x64 versión de

Windows Server 2003 para el apoyo de x86-64 (o x64 en la terminología de

Microsoft). Microsoft eliminó el soporte para la versión de Itanium de Windows

XP en 2005. Windows Vista es la primera versión de usuario final de Windows

que Microsoft ha publicado simultáneamente en las ediciones de x86 y x64.

Windows Vista no es compatible con la arquitectura Itanium. La familia de

Windows de 64 bits moderna comprende a AMD64/intel64 versiones de

Windows Vista y Windows Server 2008 en tanto en Itanium y en ediciones x64.

Windows Server 2008 R2 cae la versión de 32 bits, y Windows 7 que también

está en versiones de 32 bits (para mantener la compatibilidad).

Windows CE

Artículo principal: Windows CE.

Windows CE (oficialmente conocido como Windows Embedded), es una

edición de Windows que se ejecuta en equipos minimalistas, tales como

sistemas de navegación por satélite y, excepcionalmente, los teléfonos móviles.

Windows Embedded se ejecuta como CE, en lugar de NT, por lo que no debe

confundirse con Windows XP Embedded, que es NT. Windows CE, que se

utilizó en la Dreamcast junto con sistema operativo propietario de Sega para la

consola. Windows CE es el núcleo del que deriva Windows Mobile.

Futuro de Windows

Page 31: Introduccion al procesamiento de datos e5 unesr

Windows 8, el sucesor de Windows 7, se encuentra actualmente en

desarrollo. Microsoft ha publicado una entrada de blog en holandés el 22 de

octubre de 2010 insinuando que Windows 8 será lanzado en 2 años.5 También,

durante el discurso Electronics Show pre-Consumer, CEO de Microsoft anunció

que Windows 8 también se ejecutará en procesadores Arquitectura ARM. Dado

que las CPUs ARM son generalmente en forma de SOCs se encuentran en

dispositivos móviles, este nuevo anuncio implica que Windows 8 será más

compatible con los dispositivos móviles, como netbooks, tablet PC y

smartphones.6 También tendrá soporte para Live USB, con Windows ToGo.

Historia

Árbol genealógico de Windows.

La primera versión de Microsoft Windows, versión 1.0, lanzada en

noviembre de 1985, compitió con el sistema operativo de Apple. Carecía de un

cierto grado de funcionalidad y logró muy poca popularidad. Windows 1.0 no

era un sistema operativo completo; más bien era una extensión gráfica de MS-

DOS. Windows versión 2.0 fue lanzado en noviembre de 1987 y fue un poco

más popular que su predecesor. Windows 2.03 (lanzado en enero de 1988)

incluyó por primera vez ventanas que podían solaparse unas a otras. El

resultado de este cambio llevó a Apple a presentar una demanda contra

Microsoft, debido a que infringían derechos de autor.

Windows versión 3.0, lanzado en 1990, fue la primera versión de

Microsoft Windows que consiguió un amplio éxito comercial, vendiendo 2

millones de copias en los primeros seis meses. Presentaba mejoras en la

interfaz de usuario y en la multitarea. Recibió un lavado de cara en Windows

3.1, que se hizo disponible para el público en general el 1 de marzo de 1992. El

soporte de Windows 3.1 terminó el 31 de diciembre de 2001.

En julio de 1993, Microsoft lanzó Windows NT basado en un nuevo

kernel. NT era considerado como el sistema operativo profesional y fue la

primera versión de Windows para utilizar la Multitarea apropiativa. Windows NT

más tarde sería reestructurado también para funcionar como un sistema

operativo para el hogar, con Windows XP.

El 24 de agosto de 1995, Microsoft lanzó Windows 95, una versión

nueva para los consumidores, y grandes fueron los cambios que se realizaron

a la interfaz de usuario, y también se utiliza multitarea apropiativa. Windows 95

fue diseñado para sustituir no solo a Windows 3.1, sino también de Windows

para Workgroups y MS-DOS. También fue el primer sistema operativo

Windows para utilizar las capacidades Plug and Play. Los cambios que trajo

Windows 95 eran revolucionarios, a diferencia de los siguientes, como

Windows 98 y Windows Me. El soporte estándar para Windows 95 finalizó el 31

Page 32: Introduccion al procesamiento de datos e5 unesr

de diciembre de 2000 y el soporte ampliado para Windows 95 finalizó el 31 de

diciembre de 2001.

El siguiente en la línea de consumidor fue lanzado el 25 de junio de

1998, Microsoft Windows 98. Sustancialmente fue criticado por su lentitud y por

su falta de fiabilidad en comparación con Windows 95, pero muchos de sus

problemas básicos fueron posteriormente rectificados con el lanzamiento de

Windows 98 SecondEdition en 1999. El soporte estándar para Windows 98

terminó el 30 de junio de 2002, y el soporte ampliado para Windows 98 terminó

el 11 de julio de 2006.

Como parte de su línea «profesional», Microsoft lanzó Windows 2000 en

febrero de 2000. La versión de consumidor tras Windows 98 fue Windows Me

(Windows Millennium Edition). Lanzado en septiembre de 2000, Windows Me

implementaba una serie de nuevas tecnologías para Microsoft: en particular fue

el «Universal Plug and Play». Durante el 2004 parte del código fuente de

Windows 2000 se filtró en internet, esto era malo para Microsoft porque el

mismo núcleo utilizado en Windows 2000 se utilizó en Windows XP.

En octubre de 2001, Microsoft lanzó Windows XP, una versión que se

construyó en el kernel de Windows NT que también conserva la usabilidad

orientada al consumidor de Windows 95 y sus sucesores. En dos ediciones

distintas, «Home» y «Professional», el primero carece por mucho de la

seguridad y características de red de la edición Professional. Además, la

primera edición «Media Center» fue lanzada en 2002, con énfasis en el apoyo

a la funcionalidad de DVD y TV, incluyendo grabación de TV y un control

remoto. El soporte estándar para Windows XP terminó el 14 de abril de 2009.

El soporte extendido continuará hasta el 8 de abril de 2014.

En abril de 2003, Windows Server 2003 se introdujo, reemplazando a la

línea de productos de servidor de Windows 2000 con un número de nuevas

características y un fuerte enfoque en la seguridad; lo cual fue seguido en

diciembre de 2005 por Windows Server 2003 R2.

El 30 de enero de 2007, Microsoft lanzó Windows Vista. Contiene una

serie de características nuevas, desde un shell rediseñado y la interfaz de

usuario da importantes cambios técnicos, con especial atención a las

características de seguridad. Está disponible en varias ediciones diferentes y

ha sido objeto de muy severas críticas debido a su patente inestabilidad,

sobredemanda de recursos de hardware, alto costo, y muy alta incompatibilidad

con sus predecesores, hecho que no ocurría con éstos.

El 22 de octubre de 2009, Microsoft lanzó Windows 7. A diferencia de su

predecesor, Windows Vista, que introdujo a un gran número de nuevas

características, Windows 7 pretendía ser una actualización incremental,

enfocada a la línea de Windows, con el objetivo de ser compatible con

Page 33: Introduccion al procesamiento de datos e5 unesr

aplicaciones y hardware que Windows Vista no era compatible. Windows 7

tiene soporte multi-touch, un shell de Windows rediseñado con una nueva barra

de tareas, conocido como Superbar, un sistema red llamado HomeGroup, y

mejoras en el rendimiento sobre todo en velocidad y en menor consumo de

recursos.

MULTIPROGRAMACION: Es la técnica que permite que dos o mas programas

ocupen la misma unidad de memoria principal y que sean ejecutados al mismo

tiempo. Así por ejemplo mientras se ejecutan operaciones de entrada y salida

de un programa, la unidad central de proceso puede ocuparse en realizar

operaciones distintas de las de E/S pertenecientes a otros programas. La

multiprogramación se refiere a dos o mas programas corriendo o procesándose

al mismo tiempo; La multiprogramación se controla a través del sistema

operativo, el cual observa los programas y los vigila hasta que estén

concluidos. El numero de programas que pueden multiprogramarse en forma

efectiva, depende de una combinación de la cantidad de memoria, de la

velocidad de la CPU y del numero y velocidad de los recursos periféricos que

tenga conectados, así como de la eficiencia del SISTEMA OPERATIVO.

MULTIPROCESAMIENTO: es tradicionalmente conocido como el uso de

múltiples procesos concurrentes en un sistema en lugar de un único proceso en

un instante determinado. Como la multitarea que permite a múltiples procesos

compartir una única CPU, múltiples CPUs pueden ser utilizados para ejecutar

múltiples hilos dentro de un único proceso.

El multiproceso para tareas generales es, a menudo, bastante difícil de

conseguir debido a que puede haber varios programas manejando datos

internos (conocido como estado o contexto) a la vez. Los programas

típicamente se escriben asumiendo que sus datos son incorruptibles. Sin

embargo, si otra copia del programa se ejecuta en otro procesador, las dos

copias pueden interferir entre sí intentando ambas leer o escribir su estado al

mismo tiempo. Para evitar este problema se usa una variedad de técnicas de

programación incluyendo semáforos y otras comprobaciones y bloqueos que

permiten a una sola copia del programa cambiar de forma exclusiva ciertos

valores.

MULTIUSUARIO: También llamado multipuesto. Es un tipo de configuración

hard-soft que permite soportar a varios usuarios o puestos de trabajo al mismo

tiempo, de forma que el sistema operativo gestiona la simultaneidad, otorgando

a cada usuario todos los recursos necesarios.

MULTITAREAS: Es una característica de los sistemas operativos modernos.

Permite que varios procesos sean ejecutados al mismo tiempo compartiendo

uno o más procesadores.

Page 34: Introduccion al procesamiento de datos e5 unesr

TIPOS DE PROGRAMAS UTILITARIOS: ejecutan tareas relacionadas con el

mantenimiento de la salud de su computadora - hardware o datos. Algunos se

incluyen con el sistema operativo.

APLICACIONES:

Software de aplicación

Las funciones de una aplicación dependen de su propósito, según el cual

pueden clasificarse en dos categorías:

Programas básicos (o utilitarios): Son aplicaciones cuyo propósito es mejorar,

en alguna forma, el desempeño del ordenador.

Programas de productividad: Son aplicaciones cuyo propósito es facilitar,

agilizar y mejorar para el usuario, la ejecución de ciertas tareas.

Algunos programas básicos o utilitarios

Antivirus: Prevención, detección y corrección de virus para ordenadores.

Compresor de archivos: Mejor aprovechamiento del espacio de

almacenamiento disponible, reduciendo el que ocupa cada archivo.

Defragmentador: Mayor eficiencia en el uso del espacio de almacenamiento

disponible y en el proceso de búsqueda, guardando la totalidad de cada archivo

en ocupaciones contiguas.

Software para respaldo: Garantía de la disponibilidad de los datos, haciendo

copias de ellos.

MANEJADORES DE BASE DE DATOS: IBM Informix® Dynamic Server (IDS)

9.30 proporciona fiabilidad superior, atendiendo las necesidades de las

exigentes prácticas actuales del e-business-particularmente para aplicativos

que requieran transacciones de alto desempeño.

Soporta requisitos de procesamiento de transacción online, complejos y

rigurosos.

Optimiza capacidades de inteligencia del negocio competitivas

Maximiza operaciones de datos para el grupo de trabajo y para la

empresa en total.

Proporciona la firmeza de una administración de base de datos

comprobada, mejor de su especie.

Page 35: Introduccion al procesamiento de datos e5 unesr

InformixDynamic Server con J/Foundation combina las características de

IDS con un ambiente abierto, flexible, empotrado de Java! Virtual Machine. IDS

con J/Foundation permite que los desarrolladores de base de datos escriban

lógica de negocio del lado-servidor usando el lenguaje Java!. Java

UserDefinedRoutines (UDRs) tienen completo acceso a las características de

la base de datos extensible líder mundial, de la base de datos IDS. Haciendo

del IDS la plataforma ideal para el desarrollo de base de datos Java.

Además de Java UDRs, el IDS está en conformidad con el estándar

SQLJ para procedimientos almacenados en Java, permitiendo el uso de los

paquetes Java estándar que se encuentran incluidos en el Java Development

Kit (JDK). Escribir UDRs en Java proporciona aplicativos mucho más flexibles

que se pueden desarrollar más rápidamente que C, y más potentes y

administrables que los lenguajes de procedimientos almacenados.

Una extensión adicional de escribir UDRs en Java es escribir módulos

DataBlade® en Java. Los módulos DataBlade son colecciones de nuevas

funciones del lado-servidor y tipos de datos puestos en conjunto para extender

el IBM Informix® Dynamic Server con el servidor de datos J/Foundation. El

DataBladeDeveloper's Kit (DBDK) ahora soporta Java y permite el desarrollo,

diseminación y depuración de UDRs en Java. La tecnología IBM

InformixDataBlade es líder en la industria en extender el servidor para permitir

tanto la administración de contenido rich, cuanto la lógica de negocio.

J/Foundation está provisto con IDS en muchas de las plataformas IDS

9.30 soportadas. Las plataformas soportadas incluyen Sun Solaris 32 bit,

Microsoft Windows NT/2000, Linux, IBM AIX, SGI Irix, y CompaqTru 64

IBM Informix® Dynamic Server (IDS) 9.30 proporciona fiabilidad

superior, atendiendo las necesidades de las exigentes prácticas actuales del e-

business-particularmente para aplicativos que requieran transacciones de alto

desempeño.

Soporta requisitos de procesamiento de transacción online, complejos y

rigurosos.

Optimiza capacidades de inteligencia del negocio competitivas

Maximiza operaciones de datos para el grupo de trabajo y para la

empresa en total.

Proporciona la firmeza de una administración de base de datos

comprobada, mejor de su especie.

InformixDynamic Server con J/Foundation combina las características de

IDS con un ambiente abierto, flexible, empotrado de Java! Virtual Machine. IDS

con J/Foundation permite que los desarrolladores de base de datos escriban

lógica de negocio del lado-servidor usando el lenguaje Java!. Java

UserDefinedRoutines (UDRs) tienen completo acceso a las características de

Page 36: Introduccion al procesamiento de datos e5 unesr

la base de datos extensible líder mundial, de la base de datos IDS. Haciendo

del IDS la plataforma ideal para el desarrollo de base de datos Java.

Además de Java UDRs, el IDS está en conformidad con el estándar

SQLJ para procedimientos almacenados en Java, permitiendo el uso de los

paquetes Java estándar que se encuentran incluidos en el Java Development

Kit (JDK). Escribir UDRs en Java proporciona aplicativos mucho más flexibles

que se pueden desarrollar más rápidamente que C, y más potentes y

administrables que los lenguajes de procedimientos almacenados.

Una extensión adicional de escribir UDRs en Java es escribir módulos

DataBlade® en Java. Los módulos DataBlade son colecciones de nuevas

funciones del lado-servidor y tipos de datos puestos en conjunto para extender

el IBM Informix® Dynamic Server con el servidor de datos J/Foundation. El

DataBladeDeveloper's Kit (DBDK) ahora soporta Java y permite el desarrollo,

diseminación y depuración de UDRs en Java. La tecnología IBM

InformixDataBlade es líder en la industria en extender el servidor para permitir

tanto la administración de contenido rich, cuanto la lógica de negocio.

J/Foundation está provisto con IDS en muchas de las plataformas IDS

9.30 soportadas. Las plataformas soportadas incluyen Sun Solaris 32 bit,

Microsoft Windows NT/2000, Linux, IBM AIX, SGI Irix, y CompaqTru 64.

PLANILLAS ELECTRONICAS: Es un programa de tipo de hoja de calculo y

organizar datos. Luegoanalizarlos mediante la creación de gráficos para su

mejor interpretación.Ejemplos de planilla electrónica:

1-microsoft exel(funciona en el entorno de trabajo windows)

2-calc (funciona en el entorno de trabajo linux).

PROCESADOR DE TEXTO: Un procesador de texto es una aplicación

informática destinada a la creación o modificación de documentos escritos por

medio de una computadora. Representa una alternativa moderna a la antigua

máquina de escribir, siendo mucho más potente y versátil que ésta.

NAVEGADORES DE INTERNET: No cabe duda de que Internet es uno de los

grandes inventos del último siglo. Desde su creación no ha dejado de crecer a

un ritmo casi exponencial. Igual que para conducirnos por las carreteras

necesitamos un buen vehículo, para navegar por Internet necesitamos un buen

navegador.

Igual que con los buscadores, que salieron cientos y ahora quedan unos

pocos, con los navegadores se reparten el mercado entre unos pocos.

Page 37: Introduccion al procesamiento de datos e5 unesr

El rey en número es el Internet Explorer, seguido de mozillafirefox que le

va comiendo terrenos. Como no, Google tenía que sacar su propio navegador,

Google Chrome, que la verdad sea dicha está muy completo. Mac también

tiene su propio navegador que es Safari y por último están los noruegos de

Opera, que no está nada mail.

Creo que Explorer, a pesar de las últimas mejoras, todavía tiene un poco

que mejorar. El resto de los mencionados están muy bien. Elegir uno u otro es

más una cuestión de gustos, y de lo familiarizado que estés. Aunque si tuviera

que elegir por solamente uno, creo que mozillafirefox de momento es el mejor.

GRAFICADORES: Los programas graficadores, como Corel, Photoshop, Photo

Editor, Publisher trabajan con dibujos vectoriales o mapas de bits. Este tipo de

programas facilitan la creación de ilustraciones profesionales: desde simples

logotipos a complejas ilustraciones técnicas.

UNIDAD III (DATOS Y ESTRUCTURA DE DATOS)

DATOS: El dato es una representación simbólica (numérica, alfabética,

algorítmica, entre otros.), un atributo o característica de una entidad. Los datos

describen hechos empíricos, sucesos y entidades.

PROPIEDADES:

•Independencia lógica y física de los datos.

•Redundancia mínima.

•Acceso concurrente por parte de múltiples usuarios.

•Integridad de los datos.

•Consultas complejas optimizadas.

•Seguridad de acceso y auditoría.

Page 38: Introduccion al procesamiento de datos e5 unesr

•Respaldo y recuperación.

•Acceso a través de lenguajes de programación estándar.

ATRIBUTOS:

El programador de aplicaciones, quien crea programas de aplicación que

utilizan la base de datos.

El usuario final, quien accesa la Base de Datos por medio de un

lenguaje de consulta o de programas de aplicación.

El administrador de la Base de Datos (DBA: Data Base Administrator),

quien se encarga del control general del Sistema de Base de Datos.

ARCHIVO: Un archivo o fichero informático es un conjunto de bits almacenado

en un dispositivo.

Un archivo es identificado por un nombre y la descripción de la carpeta o

directorio que lo contiene. Los archivos informáticos se llaman así porque son

los equivalentes digitales de los archivos en tarjetas, papel o microfichas del

entorno de oficina tradicional. Los archivos informáticos facilitan una manera de

organizar los recursos usados para almacenar permanentemente datos en un

sistema informático.

CARACTERISTICAS:

Nombre y extensión: Cada archivo es individual y es identificable por un

nombre y una extensión opcional que suele identificar su formato. El

formato suele servir para identificar el contenido del archivo.

Los nombres de archivos originalmente tenían un límite de ocho

caracteres más tres caracteres de extensión, actualmente permiten

muchos más caracteres dependiendo del sistema de archivos.

Datos sobre el archivo: Además para cada fichero, según el sistema de

archivos que se utilice, se guarda la fecha de creación, modificación y de

último acceso. También poseen propiedades como oculto, de sistema,

de solo lectura, etc.

Tamaño: Los archivos tienen también un tamaño que se mide en bytes,

kilobytes, megabytes, gigabytes y depende de la cantidad de caracteres

que contienen.

Ubicación: Todo archivo pertenece a un directorio o subdirectorio. La

ruta de acceso a un archivo suele comenzar con la unidad lógica que lo

contiene y los sucesivos subdirectorios hasta llegar al directorio

contenedor, por ejemplo: "C:Archivos de programaMicrosoftarchivo.txt".

Los archivos pueden separarse en dos grandes grupos, ejecutables y no

ejecutables. Ver tipos de archivos.

Page 39: Introduccion al procesamiento de datos e5 unesr

DISEÑO DE DATOS: Un modelo de datos es básicamente una "descripción"

de algo conocido como contenedor de datos (algo en donde se guarda la

información), así como de los métodos para almacenar y recuperar información

de esos contenedores. Los modelos de datos no son cosas físicas: son

abstracciones que permiten la implementación de un sistema eficiente de base

de datos; por lo general se refieren a algoritmos, y conceptos matemáticos.

CAMPO: Es un espacio de almacenamiento para un dato en particular. En las

bases de datos, un campo es la mínima unidad de información a la que se

puede acceder; un campo o un conjunto de ellos forman un registro, donde

pueden existir campos en blanco, siendo éste un error del sistema operativo.

En las hojas de cálculo(como los programas de excel) los campos son

llamados celdas.

REGISTRO: un registro (también llamado fila o tupla) representa un objeto

único de datos implícitamente estructurados en una tabla. En términos simples,

una tabla de una base de datos puede imaginarse formada de filas y columnas

o campos. Cada fila de una tabla representa un conjunto de datos

relacionados, y todas las filas de la misma tabla tienen la misma estructura.

Un registro es un conjunto de campos que contienen los datos que

pertenecen a una misma repetición de entidad. Se le asigna automáticamente

un número consecutivo (número de registro) que en ocasiones es usado como

índice aunque lo normal y práctico es asignarle a cada registro un campo clave

para su búsqueda.

CLAVE: Conjunto finito de caracteres limitados que forman una palabra secreta

que sirve a uno o más usuarios para acceder a un determinado recurso. Las

claves suelen tener limitaciones en sus caracteres (no aceptan algunos) y su

longitud. La Real Academia aconseja utilizar "clave" o "contraseña" en vez de

su equivalente en inglés, "password".

INDICE: es como el índice de un libro donde tenemos los capítulos del libro y la

página donde empieza cada capítulo. No vamos a entrar ahora en cómo se

implementan los índices internamente ya que no entra en los objetivos del

curso pero sí daremos unas breves nociones de cómo se definen, para qué

sirven y cuándo hay que utilizarlos y cuando no.

Un índice es una estructura de datos que permite recuperar las filas de

una tabla de forma más rápida además de proporcionar una ordenación distinta

a la natural de la tabla. Un índice se define sobre una columna o sobre un

grupo de columnas, y las filas se ordenarán según los valores contenidos en

esas columnas. Por ejemplo, si definimos un índice sobre la columna poblacion

de una tabla de clientes, el índice permitirá recuperar los clientes ordenados

por orden alfabético de población.

Page 40: Introduccion al procesamiento de datos e5 unesr

TABLAS Y RELACIONES: una tabla hace referencia al modelado o

recopilación de datos por parte de una aplicación de un programa que permite

operar con los mismos organizándolos y poniéndolos en relación de diversas

maneras.

Relaciones: se describen en la estructura de la base de datos empleando un

modelo de datos. Las relaciones son muy empleadas en los modelos de bases

de datos relacionales y afines.

TIPOS Y DISEÑO DE CONSULTA: Las consultas son los objetos de una base

de datos que permiten recuperar datos de una tabla, modificarlos e incluso

almacenar el resultado en otra tabla.

Existen varios tipos de consultas:

<!--[if !vml]--><!--[endif]-->Consultas de selección.

Son las consultas que extraen o nos muestran datos. Muestran aquellos

datos de una tabla que cumplen los criterios especificados. Una vez obtenido el

resultado podremos consultar los datos para modificarlos (esto se podrá hacer

o no según la consulta). Una consulta de selección genera una tabla lógica (se

llama lógica porque no está físicamente en el disco duro sino en la memoria del

ordenador y cada vez que se abre se vuelve a calcular).

<!--[if !vml]--><!--[endif]-->Consultas de acción.

Son consultas que realizan cambios a los registros. Existen varios tipos

de consultas de acción, de eliminación, de actualización, de datos anexados y

de creación de tablas.

<!--[if !vml]--><!--[endif]-->Consultas específicas de SQL.

Son consultas que no se pueden definir desde la cuadrícula QBE de

Access sino que se tienen que definir directamente en SQL. Estas consultas no

se estudiarán en este curso ya que para definirlas hay que saber SQL, cosa

que no es objeto de este curso.

BASE DE DATOS: es un conjunto de datos que pertenecen al mismo contexto

almacenados sistemáticamente para su posterior uso. En este sentido, una

biblioteca puede considerarse una base de datos compuesta en su mayoría por

documentos y textos impresos en papel e indexados para su consulta. En la

actualidad, y debido al desarrollo tecnológico de campos como la informática y

la electrónica, la mayoría de las bases de datos tienen formato electrónico, que

ofrece un amplio rango de soluciones al problema de almacenar datos.

TIPOS DE ARCHIVO: La forma más básica de identificar un archivo es por su

nombre, que normalmente se corresponde con la información que contiene.

Page 41: Introduccion al procesamiento de datos e5 unesr

Pero hay más datos que pueden resultarte útiles para trabajar con los archivos

de un ordenador, como por ejemplo qué tipo de archivo (su extensión).

Extensión: son las abreviaturas que te indican qué tipo de archivo es y se

corresponden con el programa usado para crearlo, abrirlo o modificarlo, qué

dependerá de los programas que tengas instalados en tu ordenador.

Hay muchos tipos: jpeg, pdf, png, bmp,mpg, psd, gif, ico, flv, mp4, avi, 3gp,

compresión: zip, rar, 7z y otros, sonidos: mp3, wma, mdi, nintendo DS: nds

para los juegos, sav para las partidas guardadas y eso sin contar todos los

tipos de programas, aplicaciones etc.

RESGUARDO DE ARCHIVOS: Dentro de los aspectos aplican a la seguridad

de la información se encuentra la generación de resguardos o respaldos; y es

que en la actualidad la importancia de la información es tal, que muchas

organizaciones la guardan en verdaderas fortalezas, auténticamente como su

tesoro más preciado.

El primer factor que se debe establecer para abordar el dilema de la

información a resguardar, es clasificar el tipo de información o datos con los

que el centro u organización opera y establecer un esquema por orden de

importancia. Un ejemplo podría ser:

Archivos para la producción

Archivos del sistema operativo en uso

Archivos para el desarrollo de nuevos sistemas.

ALMACENAMIENTO DE DATOS: son componentes que leen o escriben datos

en medios o soportes de almacenamiento, y juntos conforman la memoria o

almacenamiento secundario de la computadora.

Estos dispositivos realizan las operaciones de lectura o escritura de los

medios o soportes donde se almacenan o guardan, lógica y físicamente, los

archivos de un sistema informático.

DISPOSITIVOS: Son estructuras sólidas, electrónicas y mecanicas las cuales

son diseñadas para un uso especifico, estos se conectan entre sí para crear

una conexión en común y obtener los resultados esperados siempre y cuando

cumplan con las reglas de configuración.

SOPORTES Y TECNICAS: El disco rígido es el dispositivo donde se

almacenan todos los datos de manera permanente, además de tener instalados

el sistema operativo (DOS, WINDOWS, etc. ) y los programas que se utilizan

habitualmente en el ordenador (procesador de textos, hoja de cálculo, base de

datos, etc.).

Page 42: Introduccion al procesamiento de datos e5 unesr

Normalmente un archivo se almacena diseminado en pistas, sectores y

cilindros o sea se graba en las caras de los distintos platos simultáneamente,

porque la estructura que sostiene los brazos con sus cabezas de lecto-escritura

mueve todo el conjunto de cabezas al mismo tiempo.

El trabajo del disco empieza cuando el programa de aplicación en

coordinación con el Sistema operativo comienza a escribir sobre las superficies

de los platos. Por cada grupo de datos escrito se crea una nueva entrada de

registro en un sector ( para ser mas exactos en la cara 0, pista 0, sector 1, en le

borde del disco), creando un índice maestro de ubicación de los datos, que se

conoce con el nombre de FAT = File AllocationTable (registro similar al índice

de un libro). La información de lectura - escritura es dada a conocer a la CPU

por la tarjeta electrónica propia del disco duro.

Técnicas: Consiste en una aplicación, USB Switchblade, guardada en USB,

este USB se introduce en la maquina victima y se ejecuta mediante la

reproducción automática de dispositivos. Esta aplicación recoge información de

la maquina victima: secretos LSA, contraseñas de Windows, dirección IP,

puertos abiertos, contraseñas de correo, historiales de navegación,

contraseñas guardadas en el navegador, serials de aplicaciones instaladas…

Además crea una cuenta con privilegios de administración y un servicio oculto

VNC para poder controlar dicha maquina.

UNIDADES Y SOPORTES DE SALIDA: Estos dispositivos traducen los bits y

bytes aun forma comprensible para el usuario.

Monitores: Una VDT (video display terminal, terminal de despliegue visual)

sirve como dispositivo de salida para recibir mensajes del computador. Las

imágenes de un monitor se componen de pequeños puntos llamados pixeles

(pictureelements) o elementos de imagen. La cantidad de ellos que hay por

cada pulgada cuadrada determina la definición del monitor que se expresa en

puntos por pulgada o dpi (dots per inch). Cuanto más alta es la definición, más

cercanos están los puntos.

DISTRIBUCION DE SALIDA: Distribución es la acción y efecto de distribuir

(dividir algo entre varias personas, dar a algo el destino conveniente, entregar

una mercancía). El término, que procede del latín distributivo, es muy habitual

en el comercio para nombrar al reparto de productos.

La distribución, en este caso, es el proceso que consiste en hacer llegar

físicamente el producto al consumidor. Para que la distribución sea exitosa, el

producto debe estar a disposición del potencial comprador en el momento y en

el lugar indicado. Por ejemplo: la distribución de una bebida refrescante debe

reforzarse durante el verano ya que aumenta su demanda. En dicha

temporada, la bebida tiene que llegar a los centros turísticos y a los destinos de

veraneo, entre otros lugares de concentración masiva de gente.

Page 43: Introduccion al procesamiento de datos e5 unesr

UNIDAD IV (TECNOLOGIA DE HARDWARE)

PROCESASOR: Es el microchip encargado de ejecutar las instrucciones y

procesar los datos que son necesarios para todas las funciones del

computador. Se puede decir que es el cerebro del computador.

TIPOS:

Procesadores dedicados: Para desarrollar una tarea muy especifica.

Ejecutando un único algoritmo de forma óptima.

Procesadores de propósito general: Está capacitado para ejecutar una serie de

instrucciones sean E/S (entrada/salida), lógicas, aritméticas, etc. Almacenando

y listando una colección de instrucciones en una memoria secundaria

(programa) de tal forma que el procesador de modo secuencial lleve a cabo

cada una de ellas.

CISC: Complex Instruction Set Computing. Posee un número grande y longitud

variable de instrucciones, alto porcentaje de ciclos por instrucción, operaciones

de microcódigo, baja optimización en el uso de registros.

RISC: Reduced Instruction Set Computing. Posee un número bajo y longitud

fija de instrucciones, bajo porcentaje de ciclos por instrucción, no tiene

operaciones de microcódigo, muchos registros de propósito general,

compilador optimizado. Su arquitectura permite un cierto grado de paralelismo

en su ejecución.

Power PC: Diseñados para rendir al igual que los mejores CISC y RISC, pero

mejorando sus errores. Tiene un conjunto de instrucciones distinto a estos

procesadores, pero puede emular sus características para ejecutar los

programas escritos para ellos. Usados en computadores tipo Estaciones de

Trabajo y en equipos de medio rango.

SIMD: Single instruction, multiple data. Tiene una organización única de

instrucción y datos múltiples. Manipula instrucciones de vector mediante

múltiples unidades funcionales que responden a una instrucción común.

Microprocesadores: Son de uso general, requieren dispositivos externos de

memoria y de comunicación con el exterior (E/S).

Microcontroladores: Integran memorias y elementos de entrada/salida junto al

microprocesador.

ASIC: Application-Specific Integrates Circuits. Integra en un solo chip los

elementos analógicos y digitales necesarios para efectuar una determinada

función.

Page 44: Introduccion al procesamiento de datos e5 unesr

DSP: Digital SignalProcessors. Procesadores de alta velocidad y poca

memoria, muy eficientes para efectuar algoritmos de procesado de la señal.

Procesadores Neuronales, transputers: Están equipados con elementos que

facilitan su comunicación de forma que puede distribuirse fácilmente una

función entre varios de ellos.

Procesador convencional: Ejecuta las instrucciones en forma de serie es decir,

una detrás de otra.

Procesador con paralelismo interno: Externamente ejecuta las instrucciones

como si fuera un procesador convencional en serie, pero internamente puede

efectuar operaciones en paralelo.

Procesador con paralelismo externo: Se presenta en los sistemas que incluyen

varios procesadores como los servidores, los mainframes y los

supercomputadores.

Multiprocesador: Se acostumbra a usar la arquitectura de multiprocesador con

memoria común en los servidores. Cada uno de estos procesadores incluyen

una memoria caché de grandes dimensiones para reducir el trafico con la

memoria común.

DIRECCIONAMIENTO: son las diferentes maneras de especificar en

informática un operando dentro de una instrucción en lenguaje ensamblador.

Un modo de direccionamiento especifica la forma de calcular la dirección

de memoria efectiva de un operando mediante el uso de la información

contenida en registros y / o constantes, contenida dentro de una instrucción de

la máquina o en otra parte.

VELOCIDAD DE PROCESO: La velocidad de procesamiento de una PC es la

que el computador responde para dado por el Procesador (P.Ej: 2.4 Ghz) que

es el ciclo de reloj otorgado por el procesador (velocidad del CPU) y que

además está apoyada por la velocidad del bus de comunicación de la Tarjeta

Madre y de los demás componentes internos que permiten el funcionamiento

del PC. Esta velocidad es medida en Ghz actualmente dado por procesadores

CoreQuadCore o I3 i7.

CARACTERISTICAS: El sistema operativo mantiene por cada proceso una

serie de estructuras de información que permiten identificar las características

de este, así como los recursos que tiene asignados. En esta última categoría

entran los descriptores de los segmentos de memoria asignados, los

descriptores de los archivos abiertos, los descriptores de los puertos de

comunicaciones, etc.

Page 45: Introduccion al procesamiento de datos e5 unesr

Una parte muy importante de esta información se encuentra normalmente

como en el llamado bloque de control de procesos (BCP). El sistema operativo

mantiene una tabla de procesos con todos los BCP de los procesos. Por

razones de eficiencia, la tabla de procesos se construyen normalmente como

una estructura estática, que tiene un determinado número de BCP, todos ellos

del mismo tamaño. La información que compone un proceso es la siguiente:

Contenido de los segmentos de memoria en los que residen el código y

los datos del proceso. A esta información se le denomina imagen de

memoria o coreimage.

Contenido de los registros del modelo de programación.

Contenido del BCP.

FUNCIONES ARITMETICO LOGICAS Y DE CONTROL: también conocida

como ALU (siglas en inglés de arithmeticlogicunit), es un circuito digital que

calcula operaciones aritméticas (como suma, resta, multiplicación, etc.) y

operaciones lógicas (si, y, o, no), entre dos números.

Muchos tipos de circuitos electrónicos necesitan realizar algún tipo de

operación aritmética, así que incluso el circuito dentro de un reloj digital tendrá

una ALU minúscula que se mantiene sumando 1 al tiempo actual, y se

mantiene comprobando si debe activar el sonido de la alarma, etc.

Por mucho, los más complejos circuitos electrónicos son los que están

construidos dentro de los chips de microprocesadores modernos. Por lo tanto,

estos procesadores tienen dentro de ellos un ALU muy complejo y potente. De

hecho, un microprocesador moderno (y los mainframes) puede tener múltiples

núcleos, cada núcleo con múltiples unidades de ejecución, cada una de ellas

con múltiples ALU.

Muchos otros circuitos pueden contener en el interior una unidad

aritmético lógica: unidades de procesamiento gráfico como las que están en las

GPU NVIDIA y AMD, FPU como el viejo coprocesador matemático 80387, y

procesadores digitales de señales como los que se encuentran en tarjetas de

sonido SoundBlaster, lectoras de CD y los televisores de alta definición. Todos

éstos tienen en su interior varias ALU potentes y complejas.

MEMORIA RAM: La memoria de acceso aleatorio (en inglés: random-

accessmemory), se utiliza como memoria de trabajo para el sistema operativo,

los programas y la mayoría del software. Es allí donde se cargan todas las

instrucciones que ejecutan el procesador y otras unidades de cómputo. Se

denominan "de acceso aleatorio" porque se puede leer o escribir en una

posición de memoria con un tiempo de espera igual para cualquier posición, no

siendo necesario seguir un orden para acceder a la información de la manera

más rápida posible. Durante el encendido del computador, la rutina POST

verifica que los módulos de memoria RAM estén conectados de manera

Page 46: Introduccion al procesamiento de datos e5 unesr

correcta. En el caso que no existan o no se detecten los módulos, la mayoría

de tarjetas madres emiten una serie de pitidos que indican la ausencia de

memoria principal. Terminado ese proceso, la memoria BIOS puede realizar un

test básico sobre la memoria RAM indicando fallos mayores en la misma.

MEMORIA ROM: La memoria ROM, (read-onlymemory) o memoria de sólo

lectura, es la memoria que se utiliza para almacenar los programas que ponen

en marcha el ordenador y realizan los diagnósticos. La mayoría de los

ordenadores tienen una cantidad pequeña de memoria ROM (algunos miles de

bytes).

MEMORIA CACHE: Está diseñado especialmente para servir al apropiado y

organizado almacenamiento de información en una computadora. Su función

es básicamente mantener de manera temporal y accesible aquellos datos que

son requeridos para realizar determinadas funciones o tareas. Esta

disponibilidad permite que cada programa o archivo tenga inmediato acceso a

la información necesaria y pueda así dedicarse a subir el nivel de eficiencia de

las funciones normales. De tal modo, la memoria principal cuenta con una gran

ayuda que le permite adquirir mayor velocidad de desempeño y mejores

resultados por fuera de sus limitadas capacidades.

CAPTURA DE DATOS: La captura y el análisis de los datos de producción es

una importantísima fuente de información para todas las empresas. En este

caso, se trata de recopilar y valorar todos los datos relativos a personas,

pedidos y producción. La integración de esa información procesada en

sistemas PPS o ERP supone el conocimiento y transparencia necesarios para

la toma de decisiones administrativas en el día a día.

UNIDADES Y SOPORTES DE ENTRADA: Los dispositivos de entrada

traducen los datos a una forma que la computadora pueda interpretar, para

luego procesarlos y almacenarlos.

Dispositivos manuales

Teclado alfanumérico: El estándar es actualmente el teclado de 101 letras con

la distribución QWERTY, 12 teclas de funciones, un teclado o pad numérico,

teclas de función y teclas para el control del cursos. Algunos teclados están

diseñados para aplicaciones específicas, permitiendo una interacción rápida

con los sistemas de computación (v.g.: caja registradora). El teclado es un

circuito en forma de matriz; cada circuito está conectado al dispositivo

controlador, que reconoce la letra o código que envía el usuario cuando se

cierra o abre un circuito. La configuración del teclado puede ser modificado por

software.

Dispositivos apuntadores

Page 47: Introduccion al procesamiento de datos e5 unesr

Ratón: La efectividad de las GUI depende de la capacidad del usuario para

hacer una selección rápida de una pantalla con íconos o menúes. En estos

casos el mouse puede colocar el apuntador (o cursos gráfico) sobre un ícono

con rapidez y eficiencia. Los más comunes tienen una esfera en su parte

inferior que puede rodar en un escritorio.

Bola rastreadora (trackball) o bola palmar: Es una bola insertada en una

pequeña caja que se hace girar con los dedos para mover el curso gráfico.

Palanca de mando (joystick): también llamada palanca de control de juegos.

Es una palanca vertical que mueve el cursos gráfico en la dirección en que se

mueve la palanca.

Pantalla sensible al tacto (TouchScreen): Sirven cuando hay muchos usuarios

no familiarizados con las computadoras. Puede ser sensible al tacto por la

presión o por el calor. Son de muy baja velocidad.

Dispositivos ópticos

Lector de marcas o rastreador de marca óptica: Usa la luz reflejada para

determinar la ubicación de marcas de lápiz en hojas de respuestas estándar y

formularios similares.

Lector de código de barras: Usa la luz para leer UPC (Universal ProductCodes,

Códigos universales de productos), códigos de inventario y otros códigos

creados con patrones de barras de anchura variable. Los códigos de barra

representan datos alfanuméricos variando el ancho y la combinación de las

líneas verticales adyacentes. La ventaja de los códigos de barras sobre los

caracteres es que la posición u orientación del código que se lee no es tan

importante para el lector.

Lector de vara (lápiz óptico): Usa luz para leer caracteres alfabéticos y

numéricos escritos con un tipo de letra especial, siendo también legible para las

personas este tipo de letra; muchas veces estos lectores están conectados a

terminales POS (point-of-sale, punto de venta). Cuando se usan de esta forma

el computador lleva a cabo un reconocimiento óptico de caracteres (OCR,

opticalcharacterrecognition).

Rastreador de páginas: Rastrea e interpreta los caracteres alfanuméricos de

las paginas impresas normales. Se usa para convertir una copia dura a un

formato que la máquina puede leer. Este tipo de rastreador puede reducir al

mínimo o eliminar la captura de datos mediante el teclado.

Dispositivos magnéticos

MICR (magneticinkcharacterrecognition, reconocimiento de caracteres en tinta

magnética) o Lectora de caracteres magnéticos: lee los caracteres impresos

Page 48: Introduccion al procesamiento de datos e5 unesr

con tinta magnética en los cheques. En ellos el número de cuenta y el número

de cheque se encuentran codificados; la fecha de la transacción se registra

automáticamente para todos los cheques procesados ese día; por tanto, sólo

se debe teclear el importe en un inscriptor MICR. Un lector-ordenador MICR lee

los datos de los cheques y los ordena para el procesamiento que corresponda.

Estos dispositivos de reconocimiento son más rápidos y precisos que los OCR.

Lectora de bandas magnéticas: Las bandas magnéticas del reverso de las

tarjetas de crédito, por ejemplo, ofrece otro medio de captura de datos

directamente de la fuente (como los dispositivos ópticos). Se codifican las

bandas con datos apropiados para la aplicación. Las bandas magnéticas

contienen muchos más datos por unidad de espacio que los caracteres

impresos o los códigos de barras. Además, dado que no se pueden leer

visualmente, son perfectos para almacenar datos confidenciales.

Digitalizadores

Para que un computador pueda reconocer texto manuscritos, primero tiene que

digitalizar la información, convertirla en alguna forma digital para poder

almacenarla en la memoria del computador. Hay diferentes dispositivos de

entrada para capturar y digitalizar información:

Digitalizador de imágenes (scanner): Puede obtener una representación digital

de cualquier imagen impresa. Convierte fotografías, dibujos, diagramas y otra

información impresa en patrones de bits que pueden almacenarse y

manipularse con el soft adecuado

Cámara digital: Es un digitalizador de imágenes que permite tomar fotografías

del mundo real y obtener imágenes digitales; es decir que no se limita a

capturar imágenes impresas planas, puede registrar las mismas cosas que una

cámara normal, sólo que en lugar de registrar las imágenes en película, las

cámaras digitales almacenan patrones de bits en discos u otros medios de

almacenamiento digital.

Digitalizador de audio: Permite digitalizar sonidos de micrófonos y otros

dispositivos de sonido. Para que el computador interprete correctamente la

entrada de voz digitalizada como si fueran palabras se requiere software de

inteligencia artificial. Una unidad de respuesta auditiva o un sintetizador de vos

hace que la conversación sea un diálogo. El reconocimiento del habla funciona

de la siguiente manera:

Se dice la palabra. Cuando se habla en un micrófono, cada sonido se divide en

sus diversas frecuencias.

Se digitaliza la palabra. Se digitalizan los sonidos de cada palabra de modo que

la computadora los pueda manejar.

Page 49: Introduccion al procesamiento de datos e5 unesr

Se compara la palabra. Se compara la versión digitalizada contra modelos

similares del diccionario electrónico de la computadora. El modelo digitalizado

es una forma que las computadoras pueden almacenar e interpretar.

Se presenta la palabra o se realiza el comando. Cuando se encuentra una

igualdad, se presenta en una VDT o se realiza el comando adecuado.

En el reconocimiento del habla, la creación de los datos se conoce como

capacitación. La mayor parte de los sistemas de reconocimiento del habla son

dependientes del locutor, es decir que responde a la voz de un individuo

particular.

La tecnología más reciente permite sistemas independientes del locutor, pero

necesitan una base de datos muy grande para aceptar el patrón de voz de

cualquier persona.

Digitalizador de vídeo: Es una colección de circuitos que puede capturar

entradas de una fuente de vídeo y convertirla en una señal digital que puede

almacenarse en la memoria y exhibirse en pantallas de computador. Cuando se

pone en operación el sistema, éste compara la imagen digitalizada que se debe

interpretar con las imágenes digitalizadas registradas previamente en la base

de datos. Estos sistemas de entrada de visión son apropiados para tareas

especializadas, en que sólo se encuentran unas cuantas imágenes.

Dispositivos sensores: diseñados para hacer seguimientos de la temperatura,

la humedad, l presión y otras cantidades físicas, proporcionan datos útiles en

robótica, control ambiental, pronósticos meteorológicos, supervisión médica,

biorretroalimentación, investigación científica y cientos de aplicaciones más.

TECNICAS DE VALIDACION Y CONTROL EN LA CAPTURA DE DATOS:

Todo sistema de información contiene entradas y salidas, para llegar a tener

esos componentes se deben utilizar cierto conocimiento para su diseño. Luego

de un arduo levantamiento de información se debe tener muy en claro cuáles

son los objetivos de ese diseño y cuáles son los datos a capturar. A la hora de

la captura de datos se debe ser muy meticuloso con la validación de los

mismos, así, se garantizara al usuario que los datos que está incluyendo son

los correctos para ese momento, para realizar un buen proceso y arrojar las

salidas necesarias y satisfactorias. Debido a esto el diseño de las salidas

también debe ser muy bien estudiado porque no puede arrojar una factura si lo

que se espera es un gráfico de barras, o se espera por pantalla y lo envió

directamente a impresora. Son aspectos importantísimos que se deben tomar

en cuenta en estos casos, al igual de la forma como se van a capturar los

datos, ya que hoy en día existen mucha diversidad de componentes que van

desde el más remoto, como lo es el teclado, hasta una lectura óptica. Hoy en

día los sistemas de información son utilizados a nivel mundial y en cualquier

área que uno se pueda imaginar, pero siempre ingresando datos que se

Page 50: Introduccion al procesamiento de datos e5 unesr

procesas y generan unos resultados. Para el desarrollo de esos sistemas de

información existen técnicas que se deben utilizar para obtenerlos resultados

requeridos. Primeramente se debe conocer la problemática a solucionar y

luego hacer todo un levantamiento y análisis de información, para luego hacer

un Diseño de Entrada/Salidas al sistema, evaluar los datos a incluir y como va

a ser su captura. En esta oportunidad se estudiaran dichos tópicos, y así, lograr

un mayor conocimiento sobre ellos y poder dar respuestas acertadas a la hora

de que se nos presente la oportunidad de desarrollar un sistema.

Diseño De Entrada: Es el enlace que une al sistema de información con el

mundo y sus usuarios, en esta existen aspectos generales que todos los

analistas deben tener en cuenta estos son: Objetivos del Diseño de Entrada,

Captura de Datos para la Entrada,

Objetivo del Diseño de Entrada: Consiste en el desarrollo de especificaciones y

procedimientos para la preparación de datos, la realización de los procesos

necesarios para poner los datos de transacción en una forma utilizable para su

procesamiento así como la entrada de los datos se logra al instruir a la

computadora para que lea ya sea documentos escritos, impresos ó por

personas que los escriben directamente al sistema. Existen cinco objetivos que

controlan la cantidad de entrada requerida, a enviar los retrasos, controlar los

errores y mantener la sencillez de los pasos necesarios, estos son:

Control de la Calidad de Entrada, Evitar los Retrasos, Evitar los errores en los

datos, Evitar los pasos adicionales, Mantener la Sencillez del Proceso, Control

de la Calidad de Entrada: Existen varias razones por las cuales un buen

diseñador debe controlar la cantidad de datos en la entrada: Las Operaciones

de preparación y entrada dependen de las personas dado que los costos de

mano de obra son altos y la preparación de ingreso de los datos también lo

son. La fase de entrada puede ser un proceso lento que toma mucho más

tiempo que el que necesitan las computadoras para realizar sus tareas.

Evitar los Retrasos: También conocido con el nombre de cuello de botella son

siempre uno de los objetivos que el analista evita al diseñar la entrada, una

forma de evitarle es utilizar los documentos de retorno. Evitar los Errores en los

Datos: La tasa de errores depende de la cantidad de datos, ya que entre mas

pequeña sea esta menores serán las oportunidades para cometer errores. Es

común encontrar en las operaciones de ventas por lo menos un 3% de errores

en las operaciones de entrada de datos. Evitar los Pasos Adicionales: Algunas

veces el volumen de transacciones y la cantidad de datos en preparación es

algo que no se puede controlar por ello el analista experimentado, evitara

diseños para la entrada que traigan una mayor cantidad de pasos a seguir. Ya

sea añadir o quitar pasos cuando se alimenta un proceso muchas veces al

transcurso de un día. Mantener la sencillez del Proceso: El sistema mejor

diseñado se ajusta a las personas que lo utilizarán y al mismo tiempo

Page 51: Introduccion al procesamiento de datos e5 unesr

proporcionarán métodos para el control de los errores, la simplicidad funciona y

es aceptada por cualquier usuario. Cuesta trabajo que los usuarios acepten

sistemas complejos o confusos y que no exista ninguna garantía para el éxito al

instalar un sistema complejo y que domine. Captura de Datos para la Entrada.

En una transacción existen datos importantes y otros que no, el analista debe

saber cuales utilizará y cuales en realidad deben formar la entrada. Existen dos

tipos de datos: Datos variables, Datos de identificación,

Datos Variables: Son aquellos que cambian para cada transacción o toman de

decisión.

Datos de Identificación: Estos son los que identifican en forma única el artículo

que esta siendo procesado.

Diseño De Salida: El término " salida" se aplica a cualquier información

producida por un sistema, ya sea impresa, desplegada o verbal. Cuando los

analistas diseñan la salida, seleccionan métodos para representar la

información y crean documentos, informes u otros formatos que contienen

información producida por el sistema. Los métodos de salida varían a lo largo

de los sistemas. Para algunos, como un informe de inventarios de la cantidad

de mercancía, el sistema del computador, bajo el control del programa, nada

más consulta los datos que se tienen a mano en el almacenamiento, y los

ensambla en una forma que sea presentable. Otra salida puede requerir

procesamiento sustancial, antes de que este disponible para utilizarlo. Los

analistas deben decidir cuando imprimir, desplegar o presentar su salida en

forma audible. La salida impresa puede utilizar papel en blanco o formas

preimpresas, la salida visual puede utilizar una o múltiples pantallas para

desplegar información.

Los sistemas de información ya sean que se desarrollen sobre sistemas

pequeños de escritorio o sobre grandes sistemas, utilizan 3 métodos

principales para la salida los cuales se clasifican en: Impresión, Pantalla,

Despliegue y audio, Objetivos de la Salida, Expresar la Información

Relacionada con Actividades Pasadas, Estado Actual o Proyecciones para el

Futuro. Señalar Eventos Importantes, Oportunidades, Problemas ó

Advertencia. Iniciar una Acción, Confirmar una Acción. El objetivo principal

durante el diseño de salida de la computadora es la información que será

presentada a las personas, puede afirmarse que la salida de la computadora es

para las personas, es por esto que no se aborda la forma en que los datos se

mueven entre los procesos o entre los almacenamientos de datos. Captura de

Datos, Teclados, Códigos de Barra, OCR, Formas de Reconocimiento de

Marcas, OMR, Teclados, Teclear es el método más viejo de entrada de datos y

ciertamente es uno con los que los miembros de la organización están más

familiarizados. Durante los años se han hecho algunas mejoras para

perfeccionar los teclados. Las características incluyen teclas de función

Page 52: Introduccion al procesamiento de datos e5 unesr

especial para abrir programas, teclas usadas para navegar y explorar en la web

y teclas que se pueden programas con macros para reducir el número de

tecleos necesarios. Los teclados infrarrojos o habilitados para Bluetooth y los

ratones también son grandes avances,

PRESENTACION DE LA INFORMACION: La presentación es el proceso

mediante el cual dispone de contenido de un tema para una audiencia.

Una presentación es una forma de ofrecer y mostrar información de

datos y resultados de una investigación. Es utilizado, generalmente, como

apoyo para expresar los resultados de una investigación pues con la

presentación se dispone de un contenido multimedia (es decir cualquier apoyo

visual o auditivo) que de una referencia sobre el tema y ayude a explicar los

datos obtenidos de una investigación. Una presentación puede llevar textos,

imágenes, vídeos y archivos de audio. Se puede dividir en dos tipos: la

presentación multimedia que es generalmente más utilizada a través de un

programa de presentaciones pero que también es posible realizar a través de

carteles con imágenes y audio generalmente grabados para su reproducción

(utilizado para presentar productos, proyectos, etc.). O la presentación común

(ésta solo utiliza imágenes y texto en carteles), una presentación que contiene

sólo imágenes, a menudo acompañadas de efectos o texto superpuesto; Lo

mismo que ocurre con la presentación multimedia ocurre con este tipo de

presentación pues se puede realizar tanto en un programa de presentaciones

como a través de carteles de apoyo que ayuden a expresar un tema.

UNIDADES Y SOPORTES DE SALIDA:

Impresora.

Sintetizado de voz.

Visualizador.

Trazador de gráficos o "plotter".

Monitor.

Microfilm.

Instrumentación científica o industrial.

UNIDAD V (SOFWARE GESTION Y PROGRAMACION)

CONCEPTO: Es el equipamiento lógico e intangible de un ordenador. En otras

palabras, el concepto de software abarca a todas las aplicaciones informáticas,

como los procesadores de textos, las planillas de cálculo y los editores de

imágenes.

El software es desarrollado mediante distintos lenguajes de

programación, que permiten controlar el comportamiento de una máquina.

Estos lenguajes consisten en un conjunto de símbolos y reglas sintácticas y

semánticas, que definen el significado de sus elementos y expresiones. Un

Page 53: Introduccion al procesamiento de datos e5 unesr

lenguaje de programación permite a los programadores del software

especificar, en forma precisa, sobre qué datos debe operar una computadora.

CLASIFICACION: Se clasifica en 2 partes:

SOFTWARE DE SISTEMAS: Son aquellos programas que permiten la

administración de la parte física o los recursos de la computadora, es la

que interactúa entre el usuario y los componentes hardware del

ordenador. Se clasifican el Sistemas Operativos Monousuarios y

Multiusuarios.

SOFTWARE DE APLICACION: Son aquellos programas que nos

ayudan a tareas especificas como edición de textos, imágenes, cálculos,

etc. también conocidos como aplicaciones.

SOFWARE A MEDIDA Y ESTANDAR: El Software a medida se adapta en un

todo a la organización, hasta en las particularidades más especiales o únicas

que están presentes. En este caso, el software es una fiel automatización de

los sistemas de información y operaciones de la empresa, aunque suele

suceder que estas particularidades normalmente suelen ser variaciones sobre

los estándares que no agregan ningún tipo de valor respecto al estándar.

Estándar: En esta alternativa debemos de diferencias primero de todo 2 tipos

de SW estándar: rígidos y parametrizables.

En el SW estándar rígido la organización debe de adaptarse totalmente

al estándar. En el SW estándar parametrizable la organización puede

configurar el producto para ser un poco más a su medida, aunque esto

depende principalmente del nivel de parametrización que permita el software.

En ambos casos este tipo de tecnología automatiza sistemas de

información y circuitos administrativos estándares ya definidos por el fabricante.

Una vez definida las dos opciones, vamos a profundizar un poco en el

tema. Si bien existe una gran cantidad de variantes entre estos dos extremos,

la realidad es que no hay una regla que nos permita identificar la mejor opción

para todas las organizaciones. Lo que sí, existen una serie de criterios a seguir,

que aplicados a cualquier organización, permiten maximizar la probabilidad de

éxito en esta crucial decisión.

Si tenemos en cuenta que el único software que recién desarrollado no

falla es el que aún no se ha escrito, deberemos estimar que además de contar

con el tiempo necesario para estabilizar el software, tendremos que cargar con

los costes de cada error o fallo de esta etapa inicial, como el tiempo invertido

en negociaciones intentando redimir si el fallo está incluido o no en el contrato,

era lo que había definido inicialmente o es algo añadido.

Page 54: Introduccion al procesamiento de datos e5 unesr

DOCUMENTO: El documento electrónico debe entenderse como toda

expresión en lenguaje natural o convencional y cualquier otra expresión gráfica,

sonora o en imagen, recogidas en cualquier tipo de soporte material, incluso los

soportes informáticos, con eficacia probatoria o cualquier otro tipo de relevancia

jurídica.

CRITERIOS Y METODOLOGIAS DE LA SELECCIÓN DEL SOFWARE:Los

diseñadores de software tienen interés de trabajar con metodologías lo

suficientemente documentadas, que nos faciliten la obtención de información,

pero también es interesante trabajar con metodologías que dispongan de algún

tipo de certificación y training. Según estas condiciones, hemos determinado

seis clasificaciones que permiten seleccionar una metodología, según se

encuentran mejor posicionadas, en el acumulado final.

Las clasificaciones son:

La metodología con mayor presencia en Internet.

La metodología mejor documentada.

Metodologías certificadas y con training.

Metodologías con comunidades.

Metodología más utilizada por empresas. Presencia empresarial.

Metodología más utilizada en proyectos software.

Se considera como metodologías certificadas aquellas que emiten un

certificado que aseguran el cumplimiento y seguimiento de la metodología, así

como sus técnicas y prácticas.

Una metodología dispone de training, si se encuentra alguna institución,

organización o compañía que ofrezca formación de la metodología.

Se considera que una metodología tiene comunidad, contemplando si se

ha formado una comunidad relevante o si está asociada a la Agile Alliance,

soportándola y cumpliendo sus principios.

Se consideran los proyectos realizados, en su mayoría por metodologías

que se han aplicado en empresas privadas y por lo tanto no existe mucha

documentación pública al respecto. Por lo tanto, determinar esta clasificación,

requiere de una búsqueda exhaustiva.

Selección de metodologías

Este aspecto no ha sido tratado de manera adecuada, sobre todo en el ámbito

de las metodologías tradicionales, y en el caso de las ágiles no existe un

criterio unificado. Por ello, el presente artículo se orienta a la formulación inicial,

Page 55: Introduccion al procesamiento de datos e5 unesr

en base a la información existente a la fecha y a la experiencia personal, a la

formulación de dos procedimientos al respecto: selección por criterios de

presencia y por conocimiento.

Aplicación del criterio de selección por presencia

A un grupo de programadores profesionales en el medio local (10), se le ha

aplicado una encuesta, sobre recordación, conocimiento y uso de

metodologías, quedando un grupo de 5 metodologías, que se han evaluado,

según este criterio de selección.

Para determinar la presencia, de las metodologías en Internet, se han

realizado búsquedas en Google, Yahoo y Live. Sobre el resultado, se asignaron

5 puntos al mayor, y 1 punto al menor.

Para determinar las metodologías de mayor documentación, se han

considerado como documentos, los Libros en español, Libros en inglés y

Papers que hablen sobre la aplicación de la metodología. Siguiendo el mismo

método, se asignó 5 puntos al mayor y 1 punto al menor.

En el caso de la Certificación y Training, se ha buscado si hay

instituciones que certifican la implementación de la metodología, así como si

hay entrenamiento o capacitación en la misma. Como no es posible hacer

diferencias en cuanto a la certificación, habiéndose asignado el mismo puntaje

a las metodologías que tienen Certificación y Training (5 puntos) y 3 puntos las

metodologías que contienen sólo training.

En cuanto a Comunidades, la mayoría pertenece a la Agile alliance, pero

hay algunas que tienen sus propias comunidades, alianzas e intensa actividad

a su alrededor. A estas metodologías se le asignaron 5 puntos, porque no es

posible diferenciar entre estas comunidades el número de miembro. A las

metodologías que solo pertenecen a la Agile alliance, se le asignaron 2 puntos.

En cuanto a proyectos de software y presencia empresarial, se han

asignado 5 puntos, a la metodología que presenta más proyectos y un punto a

la que presenta menos.

Resultado de la aplicación del criterio de selección por presencia

Se ha preparado un cuadro resumen con los resultados de la selección. Para

cada metodología evaluada, se ha colocado la puntuación que se ha obtenido

de la clasificación. La sumatoria de cada clasificación determina que Scrum, es

la metodología que se debería usar, por tener una mejor puntuación.

Selección de metodología, por criterios de conocimientos

Page 56: Introduccion al procesamiento de datos e5 unesr

En función del grupo de trabajo o de diseño, se consideran los siguientes

criterios en función de los conocimientos que el equipo de desarrollo tenga de

las metodologías a evaluar. Estos criterios son:

Grado de conocimiento

Soporte orientado a objetos

Adaptable a cambios

Basado en casos de uso

Posee documentación adecuada

Facilita la integración entre las etapas de desarrollo

Relación con UML

Permite desarrollo software sobre cualquier tecnología

En función de los conocimientos que el equipo tenga, se establecen los

pesos para cada criterio. Por ejemplo, Ríos y Suntaxi [37], en su tesis de grado,

proponen la siguiente tablas de pesos:

20% para el Grado de conocimiento

15% para Adaptable a cambios y Posee documentación adecuada

10% para el resto de criterios Para determinar la metodología a usar,

Ríos y Suntaxi, han elaborado un cuadro resumen, evaluando las

siguientes metodologías:

RUP, RationalUnifiedProcess

MSF, Microsoft Solution Framework

RAD, Rapid ApplicationDevelopment

XP, Extreme Programming

En esta evaluación, la metodología RUP es la que recibe un mayor puntaje por

parte del equipo de desarrollo.

INTEGRACION DEL SOFWARE: Una de las fases del ciclo de vida del

software es la de integración. Es imprescindible poder integrar los desarrollos

de software en forma de productos y soluciones para que puedan ponerse en

uso.

Esto exige manejarse en varias disciplinas, no perder de vista el punto

de vista del usuario, definición y aplicación de procedimientos con rigor, llevar a

cabo gestiones de configuración, etc.

Page 57: Introduccion al procesamiento de datos e5 unesr

Algunas tareas que suelen realizarse con la integración del software es

la creación de paquetes, la creación de distribuciones clásicas o de

distribuciones la integración de servicios para entornos de trabajo en grupo,

migraciones de sistemas, etc.

APLICACIÓN EN LA PYME:Si una pyme decide apostar por un modelo de

negocio basado en software libre para diferenciarse se sus competidores y

poder mantener una dinámica distinta el primer problema que tendrá será la

elección de distintos programas que utilizará para su cometido. Para ello

pueden acudir a OpenPyme, catálogo de aplicaciones de software libre

especializado en la pyme.

Es un catálogo de Software Libre donde se recopilan, de forma

categorizada, productos sólidos y fiables que pueden incorporarse en cualquier

ámbito productivo de una empresa, mejorando así su gestión y competitividad

gracias a la inclusión de herramientas TIC. Es un buen punto de partida para

conocer las alternativas que nos ofrece el software libre.

Disponen de todo tipo de aplicaciones, categorizadas y ordenadas de

manera que encontrarlas nos resultará bastante fácil. Junto con cada aplicación

tenemos una pequeña reseña de su funcionalidady lo que nos puede aportar a

nuestra empresa. A la vez nos indican los requisitos técnicos para su

instalación. Se echa de menos una pequeña reseña de soluciones

multidisciplinares. Por ejemplo, una solución que esté incluida en varias

categorías que nos indique si además de como CRM servirá para la gestión

financiera o como ERP.

SUELDOS: El concepto de sueldo se refiere a la remuneración regular

asignada por el desempeño de un cargo o servicio profesional. La palabra tiene

su origen en el término latino solĭdus (“sólido”), que era el nombre de una

antigua moneda romana.

El término de sueldo suele ser utilizado como sinónimo de salario (del

latín salarĭum, relacionado con la “sal”), la remuneración regular o la cantidad

de dinero con que se retribuye a los trabajadores por cuenta ajena.

Page 58: Introduccion al procesamiento de datos e5 unesr

Puede decirse que el empleado recibe un sueldo a cambio de poner su

fuerza laboral a disposición del empleador, en el marco de una serie de

obligaciones compartidas que rigen su relación contractual.

CONTABILIDAD: Es la ciencia social, que se encarga de estudiar, medir y

analizar el patrimonio de las organizaciones, empresas e individuos, con el fin

de servir en la toma de decisiones y control, presentando la información,

previamente registrada, de manera sistemática y útil para las distintas partes

interesadas. Posee además una técnica que produce sistemáticamente y

estructuradamente información cuantitativa y valiosa, expresada en unidades

monetarias acerca de las transacciones que efectúan las entidades

económicas y de ciertos eventos económicos identificables y cuantificables que

la afectan, con la finalidad de facilitarla a los diversos públicos interesados.

La finalidad de la contabilidad es suministrar información en un momento

dado y de los resultados obtenidos durante un período de tiempo, que resulta

de utilidad a los usuarios en la toma de sus decisiones, tanto para el control de

la gestión pasada, como para las estimaciones de los resultados futuros,

dotando tales decisiones de racionalidad y eficiencia.

STOCK: Es una voz inglesa que se usa en español con el sentido de

existencias. En el lenguaje comercial y financiero su empleo como anglicismo

es frecuente, y por ello la RAE recomienda evitarlo y utilizar las voces en

español correspondientes a cada contexto. Se puede definir también como:

todo lo referente a los bienes que una persona u organización posee y que

sirven para la realización de sus objetivos.

CUENTAS CORRIENTES: La cuenta corriente es un contrato entre un banco y

un cliente que establece que la entidad cumplirá las órdenes de pago de la

persona de acuerdo a la cantidad de dinero que haya depositado o al crédito

que haya acordado. Dicha cuenta puede ser abierta y administrada por una

persona o por un grupo de personas; en este último caso, según las

condiciones, todos los individuos pueden estar habilitados para operar.

El propietario de una cuenta corriente puede disponer del dinero a través

de un cajero automático, la ventanilla de caja o algún tipo de talonario (como un

cheque). Es posible realizar descuentos de efectos, vincular pagos a la cuenta

y cobrar o pagar intereses o impuestos.

MODALIDADES DE LAS LICENCIAS DEL SOFWARE:

MODALIDADES DE ADQUISICION DEL SOFWARE FORMAS DE

ADQUISICION

LICENCIA DE SOFWARE: Una licencia de software es un permiso que se le

otorga a un individuo o grupo, para el uso de una pieza de software. La licencia

tiene un costo asociado y el software está sujeto a derechos de autor. “NOTA”

Page 59: Introduccion al procesamiento de datos e5 unesr

software se adquiere totalmente desarrollado y se utiliza exactamente como fue

escrito.

2. FORMAS DE ADQUISICION: SHAREWARE Se refiere a programas sujetos

a derechos de autor que se distribuyen originalmente sin cargo, pero cuyo uso

regular requiere el pago de una tarifa al autor. El cancelar, el usuario queda

registrado y puede recibir asistencia y actualizaciones. Se puede copiar y

distribuir el shareware, pero se espera a que cada usuario pague la tarifa si usa

regularmente el producto.“NOTA” software que se adquiere totalmente

desarrollado y se utiliza exactamente como fue escrito.

3. FORMAS DE ADQUISICION: FREEWARE. Se refiere a programas

protegidos por derechos de autor, pero liberados por el autor para su uso

gratuito. El freeware está disponible sin costo, pero el usuario solo puede

utilizarlo en las formas expresamente permitidas por el autor. Generalmente, se

permite el uso pero no la reproducción con fines comerciales. “NOTA” software

que se adquiere totalmente desarrollado y se utiliza exactamente como fue

escrito.

4. FORMAS DE ADQUISICION: SOFWARE DE DOMINIO PÚBLICO. Se

refiere a cualquier programa que no está sujeto a derechos de autor. Este

software es gratuito y se puede usar sin restricciones. En la mayoría de los

casos, el software de dominio público se publica en internet, por lo que los

usuarios pueden obtenerlo fácilmente. VENTAJAS: Con algunas

modificaciones, el usuario obtiene los resultados específicos que requiere.

DESVENTAJAS: no siempre se encuentra una opción valida en el mercado. No

siempre se logra una adaptación completa. Puede crear dependencia del

desarrollo. “NOTA” software se adquiere totalmente desarrollado y se modifica

para adaptarlo a las necesidades específicas del usuario.

5. FORMAS DE ADQUSICION: LICENCIA O VENTA DEL SOFWARE. Las

condiciones de adquisición de este tipo de software incluyen la posibilidad de

aplicarle las modificaciones necesarias al programa original .Estos cambios

pueden estar a cargo del usuario o del desarrollador, según el convenio que

establezca. VENTAJAS: el programa hace exactamente lo que el usuario

necesita. DESVENTAJAS: tiene costo relativamente elevado. Toma más

tiempo obtener el programa. “NOTA” software que se desarrolla completamente

bajo las especificaciones del usuario.

PROTECCION LEGAL DEL SOFWARE: La protección de la propiedad

intelectual en el mercado mundial ha tomado reciente significación en los

recientes años. Los propietarios de tecnología del mundo desarrollado,

particularmente los estadounidenses, han presionado recientemente para

obtener un régimen legal de propiedad intelectual fuerte y relativamente

uniforme, como piedra de toque para obtener un tratamiento equitativo en el

sistema global del comercio que emerge.

Page 60: Introduccion al procesamiento de datos e5 unesr

Por otro lado, la posibilidad de incorporar a la protección jurídica estos

programas de computo en el ámbito del derecho, específicamente en el de la

propiedad intelectual y particularmente en las normas autorales, viene dictada

por consideraciones de oportunidad, dada la dimensión económica de los

intereses en juego entre los que cabe destacar: la posible conservación de la

industria nacional frente a una fuerte concurrencia extranjera, la protección de

un producto cuya elaboración requiere un gran esfuerzo de inversión,

investigación y posterior difusión, y sobre todo, la evidente necesidad de una

harmonización internacional de reglamentaciones.

En la práctica jurídica internacional, la evolución de la materia no es

específica. Se puede comprobar, como en un principio, los programas de

computadora fueron objeto de protección a través de diversas formulas como el

secreto industrial, las cláusulas de confidencialidad en los contratos y la

competencia desleal, pero pronto se puso de manifiesto su insuficiencia, y los

medios profesionales interesados solicitaron una regulación que les asegurara

la propiedad y la protección derivada de la misma.

LENGUAJE: es un lenguaje usado por, o asociado con, ordenadores. Muchas

veces, este término es usado como sinónimo de lenguaje de programación,

pero un lenguaje informático no tiene por qué ser un lenguaje de programación.

Como ejemplo un lenguaje de marcas como el HTML no es un lenguaje

de programación, pero sí es un lenguaje informático.

En general, como cualquier otro lenguaje, un lenguaje de ordenador es

creado cuando hay que transmitir una información de algo a alguien basado en

computadora.

El lenguaje de programación es el medio que utilizan los programadores

para crear un programa de ordenador; un lenguaje de marcas es el medio para

describir a un ordenador el formato o la estructura de un documento; etc.

CLASIFICAION: Los Lenguajes informáticos pueden ser clasificados en varias

clases, entre las que se incluyen las siguientes.

Lenguaje de programación

Lenguaje de especificación

Lenguaje de consulta, como SQL o XQuery

Lenguaje de marcas, como XML y otros más ligeros

Lenguaje de transformación, como XSLT

Protocolo de comunicaciones, como http,ftp

Lenguaje de sonido, para crear sonidos,

Lenguaje gráfico, para crear figuras y dibujos. Metapost,

Pseudocódigo

Page 61: Introduccion al procesamiento de datos e5 unesr

LENGUAJE DE MAQUINA DE BAJO Y ALTO NIVEL:

Bajo Nivel: Es el que proporciona un conjunto de instrucciones

aritmeticológicas sin la capacidad de encapsular dichas instrucciones en

funciones que no estén ya contempladas en la arquitectura del hardware.

Alto Nivel: Se caracteriza por expresar los algoritmos de una manera adecuada

a la capacidad cognitiva humana, en lugar de a la capacidad ejecutora de las

máquinas.

LENGUAJE DE CUARTA Y QUINTA GENERACION:

De Cuarta: Son lenguajes que se relacionan menos con procedimientos y que

son aun mas parecidos al ingles que los lenguajes de tercera generación.

•Algunas características incluyen capacidades de consulta y base de datos, de

creación de códigos y capacidades gráficas.

Ejemplos Visual C++, Visual Basic, PowerBuilder, Delphi, Forte y muchos otros.

•Lenguajes de consulta son utilizados para hacer preguntas ala computadora

con frases parecidas alas de un idioma, ejemplo el inglés.

•Lenguaje de consulta estructurado. Lenguaje estándar que a menudo se usa

para realizar consultas y manipulaciones ala base de datos.

De Quinta: Alrededor de la mitad 1998 surgieron gripos de herramientas de

lenguajes de quinta generación, los cuales combinan la creación de códigos

basadas en reglas, la administración de reutilización y otros avances.

Programación basada en conocimiento. Método para el desarrollo de

programas de computación en el que se le ordena ala computadora realizar un

propósito en vez de instruirla para hacerlo.

CARACTERISTICAS:

De Cuarta: término 4GL fue utilizado por primera vez en el libro

ApplicationsDevelopmentWithoutProgrammers de James Martin en 1982, para

referirse a los lenguajes de alto nivel no procedimentales.

Los primeros lenguajes que podrían llamarse "iniciadores primitivos" de

la categoría 4GL son el RPG de IBM del año 1960, el Informatics MARK-IV de

1967 y el MAPPER de Sperry de 1969.

Los lenguajes 4GL fueron evolucionando junto con el hardware y los

sistemas operativos. Aquellos lenguajes que tienen incorporado una interfaz de

desarrollo y un sistema de base de datos, constituyen claros ejemplos de la

cuarta generación de lenguajes de programación.

Page 62: Introduccion al procesamiento de datos e5 unesr

De Quinta: Lanzado por Japón a finales de los 70. Su objetivo era el desarrollo

de una clase de computadoras que utilizarían técnicas de inteligencia artificial

al nivel del lenguaje de máquina y serían capaces de resolver problemas

complejos, como la traducción automática de una lengua natural a otra (del

japonés al inglés, por ejemplo). El proyecto duró diez años, pero no obtuvo los

resultados esperados.

PROGRAMACION: programación es la acción y efecto de programar. Este

verbo tiene varios usos: se refiere a idear y ordenar las acciones que se

realizarán en el marco de un proyecto; al anuncio de las partes que componen

un acto o espectáculo; a la preparación de máquinas para cumplan con una

cierta tarea en un momento determinado; a la elaboración de programas para

la resolución de problemas mediante computadoras; y a la preparación de los

datos necesarios para obtener una solución de un problema a través de una

calculadora electrónica, por ejemplo.

En la actualidad, la noción de programación se encuentra muy asociada

a la programación en informática. Este es el proceso por el cual un

programador escribe, en un lenguaje de programación, el código fuente de un

software. Este código le indicará al programa informático qué tiene que hacer y

cómo realizarlo.

El programador se encarga de escribir, probar, depurar y mantener el

código fuente. En este sentido, los modelos de desarrollo de software se

enmarcan en una disciplina de la informática conocida como ingeniería de

software.

METODO DE CICLO DE VIDA: El término ciclo de vida del software describe el

desarrollo de software, desde la fase inicial hasta la fase final. El propósito de

este programa es definir las distintas fases intermedias que se requieren para

validar el desarrollo de la aplicación, es decir, para garantizar que el software

cumpla los requisitos para la aplicación y verificación de los procedimientos de

desarrollo: se asegura de que los métodos utilizados son apropiados.

Estos programas se originan en el hecho de que es muy costoso

rectificar los errores que se detectan tarde dentro de la fase de implementación.

El ciclo de vida permite que los errores se detecten lo antes posible y por lo

tanto, permite a los desarrolladores concentrarse en la calidad del software, en

los plazos de implementación y en los costos asociados.

El ciclo de vida básico de un software consta de los siguientes procedimientos:

•Definición de objetivos: definir el resultado del proyecto y su papel en la

estrategia global.

•Análisis de los requisitos y su viabilidad: recopilar, examinar y formular los

requisitos del cliente y examinar cualquier restricción que se pueda aplicar.

Page 63: Introduccion al procesamiento de datos e5 unesr

•Diseño general: requisitos generales de la arquitectura de la aplicación.

•Diseño en detalle: definición precisa de cada subconjunto de la aplicación.

•Programación (programación e implementación): es la implementación de un

lenguaje de programación para crear las funciones definidas durante la etapa

de diseño.

•Prueba de unidad: prueba individual de cada subconjunto de la aplicación

para garantizar que se implementaron de acuerdo con las especificaciones.

•Integración: para garantizar que los diferentes módulos se integren con la

aplicación. Éste es el propósito de la prueba de integración que está

cuidadosamente documentada.

•Prueba beta (o validación), para garantizar que el software cumple con las

especificaciones originales.

•Documentación: sirve para documentar información necesaria para los

usuarios del software y para desarrollos futuros.

•Implementación

•Mantenimiento: para todos los procedimientos correctivos (mantenimiento

correctivo) y las actualizaciones secundarias del software (mantenimiento

continuo).

El orden y la presencia de cada uno de estos procedimientos en el ciclo

de vida de una aplicación dependen del tipo de modelo de ciclo de vida

acordado entre el cliente y el equipo de desarrolladores.

Modelos de ciclo de vida

Para facilitar una metodología común entre el cliente y la compañía de

software, los modelos de ciclo de vida se han actualizado para reflejar las

etapas de desarrollo involucradas y la documentación requerida, de manera

que cada etapa se valide antes de continuar con la siguiente etapa. Al final de

cada etapa se arreglan las revisiones de manera que (texto faltante).

COPILADORES: es un programa informático que traduce un programa escrito

en un lenguaje de programación a otro lenguaje de programación, generando

un programa equivalente que la máquina será capaz de interpretar.

Usualmente el segundo lenguaje es lenguaje de máquina, pero también puede

ser un código intermedio (bytecode), o simplemente texto. Este proceso de

traducción se conoce como compilación.

Un compilador es un programa que permite traducir el código fuente de

un programa en lenguaje de alto nivel, a otro lenguaje de nivel inferior

(típicamente lenguaje de máquina). De esta manera un programador puede

Page 64: Introduccion al procesamiento de datos e5 unesr

diseñar un programa en un lenguaje mucho más cercano a como piensa un ser

humano, para luego compilarlo a un programa más manejable por una

computadora.

HERRAMIENTAS DE PROGRAMACION: son aquellas que permiten realizar

aplicativos, programas, rutinas, utilitarios y sistemas para que la parte física del

computador u ordenador, funcione y pueda producir resultados.

Hoy dia existen múltiples herramientas de programación en el mercado,

tanto para analistas expertos como para analistas inexpertos.

Las herramientas de programación más comunes del mercado, cuentan

hoy dia con programas de depuración o debugger, que son utilitarios que nos

permiten detectar los posibles errores en tiempo de ejecución o corrida de

rutinas y programas.

Muchas herramientas de software que manipulan programas fuente

realizan primero algún tipo de análisis. Algunos ejemplos de tales herramientas

son:

•1. Editores de estructuras: Un editor de estructuras toma como entrada una

secuencia de órdenes para construir un programa fuente. El editor de

estructuras no sólo realiza las funciones de creación y modificación de textos

de un editor de textos ordinario, sino que también analiza el texto del programa,

imponiendo al programa fuente una estructura jerárquica apropiada. De esa

manera, el editor de estructuras puede realizar tareas adicionales útiles para la

preparación de programas. Por ejemplo, puede comprobar si la entrada está

formada correctamente, puede proporcionar palabras clave de manera

automática (por ejemplo, cuando el usuario escribe while, el editor proporciona

el correspondiente do y le recuerda al usuario que entre las dos palabras debe

ir un condicional) y puede saltar desde un begin o un paréntesis izquierdo hasta

su correspondiente o paréntesis derecho. Además, la salida de tal editor suele

ser similar a la salida de la fase de análisis de un compilador.

•2. Impresoras estéticas: Una impresora estética analiza un programa y lo

imprime de forma que la estructura del programa resulte claramente visible. Por

ejemplo, los comentarios pueden aparecer con un tipo de letra especial, y las

proposiciones pueden aparecer con una indentación proporcional a la

profundidad de su anidamiento en la organización jerárquica de las

proposiciones.

•3. Verificadores estáticos: Un verificador estático lee un programa, lo analiza e

intenta descubrir errores potenciales sin ejecutar el programa. La parte de

análisis a menudo es similar a la que se encuentra en los compiladores de

optimización. Así, un verificador estático puede detectar si hay partes de un

programa que nunca se podrán ejecutar o si cierta variable se usa antes de ser

Page 65: Introduccion al procesamiento de datos e5 unesr

definida. Además, puede detectar errores de lógica, como intentar utilizar una

variable real como apuntador, empleando las técnicas de verificación de tipos.

•4. Intérpretes: En lugar de producir un programa objeto como resultado de una

traducción, un intérprete realiza las operaciones que implica el programa

fuente. Para una proposición de asignación, por ejemplo, un intérprete podría

construir un árbol como el de la figura 1 y después efectuar las operaciones de

los nodos conforme “recorre” el árbol. En la raíz descubriría que tiene que

realizar una asignación, y llamaría a una rutina para evaluar la expresión de la

derecha y después almacenaría el valor resultante en la localidad de memoria

asociada con la identificadora posición. En el hijo derecho de la raíz, la rutina

descubriría que tiene que calcular la suma de dos expresiones. Se llamaría a sí

misma de manera recursiva para calcular el valor de la expresión velocidad*60.

Después sumaría ese valor de la variable inicial. Muchas veces los intérpretes

se usan para ejecutar lenguajes de órdenes, pues cada operador que se

ejecuta en un lenguaje de órdenes suele ser una invocación de una rutina

compleja, como un editor o un compilador. Del mismo modo algunos lenguajes

de “muy alto nivel”, normalmente son interpretados, porque hay muchas cosas

sobre los datos, como el tamaño y la forma de las matrices, que no se pueden

deducir en el momento de la compilación.

•5. Compiladores: Tradicionalmente, se concibe un compilador como un

programa que traduce un programa fuente, como FORTRAN, al lenguaje

ensamblador o de máquina de algún computador. Sin embargo, hay lugares, al

parecer, no relacionados donde la tecnología de los compiladores se usa con

regularidad. La parte de análisis de cada uno de los siguientes ejemplos es

parecida a la de un compilador convencional.

a) Formadores de textos. Un formador de textos toma como entrada una

cadena de caracteres, la mayor parte de la cual es texto para componer, pero

alguna incluye órdenes para indicar párrafos, figuras o estructuras

matemáticas, como subíndices o superíndices.

b) Compiladores de circuitos de silicio. Un compilador de circuitos de silicio

tiene un lenguaje fuente similar o idéntico a un lenguaje de programación

convencional. Sin embargo las variables del lenguaje no representan

localidades de memoria, sino señales lógicas (0 o 1) o grupos de señales en un

circuito de conmutación. La salida es el diseño de un circuito en un lenguaje

apropiado.

c) Intérpretes de consultas. Un intérprete de consultas traduce un predicado

que contiene operadores relacionales y boléanos a órdenes para buscar en una

base de datos registros que satisfagan ese predicado.

Page 66: Introduccion al procesamiento de datos e5 unesr

UNIDAD VI

INTRODUCCION A LA COMUNICACIÓN DE DATOS: Es el proceso de

comunicar información en forma binaria entre dos o más puntos. Requiere

cuatro elementos básicos que son:

Emisor: Dispositivo que transmite los datos

Mensaje: lo conforman los datos a ser transmitidos

Medio: consiste en el recorrido de los datos desde el origen hasta su

destino

MEDIOS DE TRANSMISION: Constituye el canal que permite la transmisión de

información entre dos terminales en un sistema de transmisión. Las

transmisiones se realizan habitualmente empleando ondas electromagnéticas

que se propagan a través del canal 1.

A veces el canal es un medio físico y otras veces no, ya que las ondas

electromagnéticas son susceptibles de ser transmitidas por el vacío.

PROTOCOLO DE COMUNICACIONES: Es el conjunto de reglas normalizadas

para la representación, señalización, autenticación y detección de errores

necesario para enviar información a través de un canal de comunicación. Un

ejemplo de un protocolo de comunicaciones simple adaptado a la comunicación

por voz es el caso de un locutor de radio hablando a sus radioyentes.

Los protocolos de comunicación para la comunicación digital por redes

de computadoras tienen características destinadas a asegurar un intercambio

de datos fiable a través de un canal de comunicación imperfecto. Los

protocolos de comunicación siguen ciertas reglas para que el sistema funcione

apropiadamente.

REDES DE COMUNICACIÓN DE DATOS LAN: Una red de área local (LAN)

es una red de computadoras de cualquier variedad que están, ubicadas

relativamente cerca una de otra y conectadas por un cable contiguo (o por

enlace inalámbrico). .Una LAN puede consistir de solo dos o tres computadoras

interconectadas para compartir recursos, o puede incluir cientos de ellas.

Cualquier red que resida dentro de una sola edificación e incluso dentro de un

grupo de edificaciones contiguas, se considera una LAN.

Una LAN permite a todas las computadoras conectadas a ella compartir

el hardware, software e informaciones. Los recursos mas a menudo

compartidos son los dispositivos de discos de almacenamiento e impresoras.

ARQUITECTURAS DE REDES LOCALES: La arquitectura de red es el medio

más efectivo en cuanto a costos para desarrollar e implementar un conjunto

Page 67: Introduccion al procesamiento de datos e5 unesr

coordinado de productos que se puedan interconectar. La arquitectura es el

“plan” con el que se conectan los protocolos y otros programas de software.

Estos es benéfico tanto para los usuarios de la red como para los proveedores

de hardware y software.

COMUNICACIONES PARA TENER VENTAJAS COMPETITIVAS: Un Sistema

de Información estratégico puede ser considerado como el uso de la tecnología

de la información para soportar o dar forma a la estrategia competitiva de la

organización, a su plan para incrementar o mantener la ventaja competitiva o

bien reducir la ventaja de sus rivales.

Su función primordial no es apoyar la automatización de los procesos

operativos ni proporcionar información para apoyar a la toma de decisiones .

Sin embargo, este tipo de sistemas puede llevar a cabo dichas funciones.

Suelen desarrollarse dentro de la organización (in house), por lo tanto no

pueden adaptarse fácilmente a paquetes disponibles en el mercado.

Su función es lograr ventajas que los competidores no posean, tales

como ventajas en costos y servicios diferenciados con clientes y proveedores.

Apoyan el proceso de innovación de productos dentro de la empresa

Beneficios del Sistema de Información Estratégicos:

CORREO ELECTRONICO: Es un servicio de red que permite a los usuarios

enviar y recibir mensajes y archivos rápidamente (también denominados

mensajes electrónicos o cartas electrónicas) mediante sistemas de

comunicación electrónicos. Principalmente se usa este nombre para denominar

al sistema que provee este servicio en Internet, mediante el protocolo SMTP,

aunque por extensión también puede verse aplicado a sistemas análogos que

usen otras tecnologías. Por medio de mensajes de correo electrónico se puede

enviar, no solamente texto, sino todo tipo de documentos digitales. Su

Page 68: Introduccion al procesamiento de datos e5 unesr

eficiencia, conveniencia y bajo coste están logrando que el correo electrónico

desplace al correo ordinario para muchos usos habituales.

CORREO DE VOZ: Es un sistema centralizado de manejo de mensajes

telefónicos para un gran grupo de personas. Permite a los usuarios recibir,

almacenar y gestionar mensajes de voz de las personas que le llaman cuando

se encuentra ausente o con la línea ocupada.

Los buzones de voz se han convertido en una funcionalidad siempre

presente en los sistemas telefónicos de casi todas las compañías. Están

disponibles en sistemas de telefonía fija, móvil y en aplicaciones de software

como Asterisk o FreeSWITCH.

VIDEO CONFERENCIA: Es la comunicación simultánea bidireccional de audio

y vídeo, permitiendo mantener reuniones con grupos de personas situadas en

lugares alejados entre sí. Adicionalmente, pueden ofrecerse facilidades

telemáticas o de otro tipo como el intercambio de gráficos, imágenes fijas,

transmisión de ficheros desde el ordenador, etc.

El núcleo tecnológico usado en un sistema de videoconferencia es la

compresión digital de los flujos de audio y vídeo en tiempo real. Su

implementación proporciona importantes beneficios, como el trabajo

colaborativo entre personas geográficamente distantes y una mayor integración

entre grupos de trabajo.

INTERCAMBIO ELECTRONICO DE DATOS: No es otra cosa que la

homogenización de estructuras diversas para datos idénticos manejados por

lenguajes informáticos distintos, persiguiendo un estándar genérico que permita

realizar transacciones con el mínimo error, a la mayor velocidad, con el menor

costo, y en forma transparente para cualquier integrante de una cadena de

negocios, o grupo de entidades afines.

En una mirada retrospectiva, encontramos una lenta evolución en el

progreso de su implementación. Costos iniciales significativos y variedad de

estándares en el mundo, atentaron contra su desarrollo, pese a la indiscutible

necesidad de agregar valor a los negocios por este medio.

Nacido particularmente para rubros específicos (banca, transporte,

automotrices, etc.), hoy se extiende aguas abajo de las grandes corporaciones

merced a dos grandes pilares que devinieron en el tiempo: las mejoras en las

comunicaciones y la aparición de la red Internet.

Estadísticas realizadas indican en casos reales y pruebas piloto, mejoras

de diez a uno en procesos típicos como compras, reducciones de stocks,

servicio al cliente, etc.

Page 69: Introduccion al procesamiento de datos e5 unesr

Técnicamente, su funcionamiento se basa en las VAN, unidades

informáticas que reciben en paquetes de datos estandarizados las

informaciones que sus clientes quieren intercambiar. Actúan semejantes a un

correo electrónico, agregando encriptación, seguridad y confidencialidad a los

envíos, como también, implementación de software de base para las interfaces

internas de cada uno.

TRANSFERENCIA ELECTRONICA DE FONDOS: Permiten enviar dinero a

través de medios electrónicos a una cuenta de cheques o tarjeta de débito en

cualesquiera de las instituciones bancarias ubicadas dentro del territorio

nacional. Algunas instituciones ofrecen la posibilidad de realizar pagos y

depósitos en forma programada, es decir a través del banco por Internet, se

pueden programar los pagos ya sea 24 o 48 hrs. antes. Hay que tomar en

cuenta que para poder realizar esta transacción es necesario contar con la

CLABE del beneficiario.

Para hacer la transferencia (depósito) es necesario que seas

cuentahabiente del banco y la operación la puedes hacer a través de:

•Internet. En este caso, también deberás proporcionar la CLABE del

destinatario. El banco realizará el cargo por el importe enviado más la comisión

correspondiente.

PROCESO DISTRIBUIDO: Es una forma de proceso en la que los datos y las

funciones están distribuidos en los distintos elementos de una configuración o

sistema que implica la presencia de una red de área local o una red de área

amplia.

CLIENTE SERVIDOR: En una red cliente/servidor existen dos tipos de equipos:

clientes y servidores. Véase, en la siguiente figura, el ejemplo de una red

cliente/servidor compuesta por tres equipos cliente y un equipo servidor, el cual

permite compartir un escáner y una impresora.

Page 70: Introduccion al procesamiento de datos e5 unesr

Las estaciones de trabajo son equipos clientes que pueden emplear los

usuarios de una red para solicitar información (datos) y servicios (impresión de

documentos, transferencia de ficheros, correo electrónico) a los equipos

servidores.

INTERNET: Es un conjunto descentralizado de redes de comunicación

interconectadas que utilizan la familia de protocolos TCP/IP, garantizando que

las redes físicas heterogéneas que la componen funcionen como una red lógica

única, de alcance mundial. Sus orígenes se remontan a 1969, cuando se

estableció la primera conexión de computadoras, conocida como ARPANET,

entre tres universidades en California y una en Utah, Estados Unidos.

HISTORIA: Internet se inició en torno al año 1969, cuando el Departamento de

Defensa de los EE.UU desarrolló ARPANET, una red de ordenadores creada

durante la Guerra Fría cuyo objetivo era eliminar la dependencia de un

Ordenador Central, y así hacer mucho menos vulnerables las comunicaciones

militares norteamericanas.

Tanto el protocolo de Internet como el de Control de Transmisión fueron

desarrollados a partir de 1973, también por el departamento de Defensa

norteamericano.

Cuando en los años 1980 la red dejó de tener interés militar, pasó a

otras agencias que ven en ella interés científico. En Europa las redes

aparecieron en los años 1980, vinculadas siempre a entornos académicos,

universitarios. En 1989 se desarrolló el World Wide Web (www) para el Consejo

Europeo de Investigación Nuclear. En España no fue hasta 1985 cuando el

Page 71: Introduccion al procesamiento de datos e5 unesr

Ministerio de Educación y Ciencia elaboró el proyecto IRIS para conectar entre

sí todas las universidades españolas.

Las principales características “positivas” de Internet es que ofrece

información actualizada, inmediatez a la hora de publicar información, una

información personalizada, información interactiva e información donde no hay

límites ni de espacio ni de tiempo.

Pero para navegar por la red de redes, por internet, hay que tener en

cuenta también otras muchas cosas, o estar al menos al tanto de ellas para no

caer en las muchas trampas que están tendidas por la red. Por ejemplo:

1) La autoría de la información: siempre hay que desconfiar de la información

que no tiene autor. En este sentido, a la hora de utilizar información, optemos

por las que estén avaladas por el prestigio y reconocimiento tanto del medio

como de los autores que en él intervienen.

2) La caducidad de la información: La fecha de la fuente es esencial, pues así

sabemos su actualidad. Hay que desconfiar de toda información ofrecida por

internet que no disponga de fecha.

3) “Internet profunda”: desconocemos todo lo que ofrece internet. Es lo que se

llama Internet oculta, profunda o infranet. Hay que optar por “buscadores” que

busquen el valor cualitativo y no cuantitativo. En este sentido hay algunos

ejemplos de buscadores como Luxmark, About, AksGits, que permiten hacer

preguntas.

4) Información/conocimiento: Toda información sin análisis, sin gestionar...,

puede incluso causar desinformación. Nunca hay que confundir información

con conocimiento. El conocimiento permite desbrozar la información que se nos

ofrece, “navegar” con seguridad y dirección por entre los océanos de

información que realmente inunda la red, muchísimas veces con datos

erróneos o irrelevantes

5) El “ruido” documental o informativo: Al iniciar una búsqueda en internet se

nos ofrece una cantidad de páginas imposibles de asimilar. A eso se le llama

“ruido”, es decir, al exceso de información no jerarquizada habitualmente por la

calidad de los contenidos, sino tan sólo por el número de consultas realizadas.

La única fiabilidad a la que podemos agarrarnos con seguridad para no

naufragar en el exceso de información, es el conocimiento, el propio

conocimiento o el ajeno, fiándonos en este caso del prestigio de la fuente de

información.

REQUISITOS: Para conectarse a Internet se requiere que su Computadora

(PC) cumpla con ciertos requisitos pero como un mínimo las siguientes

especificaciones:

Page 72: Introduccion al procesamiento de datos e5 unesr

Procesador 486, con 16 o 32 megabytes (MB) de memoria en RAM y un

disco duro de al menos 1GB (un gigabyte) de capacidad. Sin embargo, en la

medida en que el usuario vaya apreciando los servicios que le ofrece internet,

querrá disponer de mas espacio de disco; por lo tanto, es aconsejable que

adquiera, desde un principio, uno de 3.0 a 4.0GB de capacidad.

Nuestrarecomendación es una maquina con un procesador con velocidad de

166mhz y 32 de Memoria en RAM

Módem. Buena parte de las Computadoras que se venden hoy en día

tienen incluido un módem interno; si no es así, se puede adquirir en el comercio

local que mediante un cable se conecta a uno de los puertos de su

computadora. Su velocidad se mide por la cantidad de bits de información que

puede transferir cada segundo (bps). Hoy en día se ofrecen módems 36.600 o

56.000 bps a un precio que es directamente proporcional a la velocidad que

alcanzan. Esto significa que, entre mas rápida sea la transmisión de los datos,

mejor será su conexión a internet. Sin embargo, la velocidad a la que su

computadora puede enviar y recibir datos, no solamente depende del modém,

sino también de la calidad de la línea telefónica y de la cantidad de gente que

esté conectada a la red de su proveedor mas el trafico (flujo de datos o

información) en internet al mismo tiempo.

Línea telefónica Una líneatelefónica común servirá para establecer una

conexión tipo DUN (Dial Up Network) del Ingles: Red de Marcado o mas

conocida como red de acceso telefónico, esta debe de estar en buen estado y

sin ruido para un flujo optimo.

Proveedor de acceso. El costo de este servicio ha venido en un

descenso paulatino. Los primeros proveedores que tuvo el mercado cobraban

tarifas de inscripción y mensualidades que estaban lejos del alcance del bolsillo

promedio.

El servicio de Internet tiene un costo representado en las cuentas de

cobro que el proveedor de acceso y la empresa de teléfonos le pasan

mensualmente al usuario. Normalmente los primeros pagos por el uso del

teléfono (la cuota del proveedor es fija) sobrepasan los cálculos más optimistas

del 'navegante'. Porqué? La novedad de esta herramienta y el desconocimiento

de su funcionamiento hacen que inicialmente su uso se prolongue durante

varias horas a la semana.

LOS USUARIOS: Es aquél que usa algo» o «que usa ordinariamente algo.

Esto se opone a los conceptos de web semántica, web 2.0 y 3.0, trabajo

colaborativo, ya que la realidad actual prima a los ciudadanos como emisores y

no solo como receptores que «usan» los medios.

Page 73: Introduccion al procesamiento de datos e5 unesr

Es preferible, por tanto, hablar de actores, sujetos, ciudadanos, etc. para

referirse a las personas que interactúan en las redes digitales. En informática

este término se utiliza con especial relevancia.

E-MAIL: Es un servicio muy utilizado en internet, que permite el intercambio de

mensajes entre usuarios.

En sus orígenes, los e-mails eran enviados directamente desde un

usuario a una computadora, lo que requería que ambas computadoras estén

online al mismo tiempo. Luego se crearon los servidores de email que aceptan,

renvían, entregan y almacenan mensajes. De esta manera los usuarios no

deben estar online de forma simultánea.

WWW: Es básicamente un medio de comunicación de texto, gráficos y otros

objetos multimedia a través de Internet, es decir, la web es un sistema de

hipertexto que utiliza Internet como su mecanismo de transporte o desde otro

punto de vista, una forma gráfica de explorar Internet.

FTP: Siglas de File Transfer Protocol. Método muy común para transferir uno o

más ficheros de un ordenador a otro. FTP es un medio específico de conexión

de un Sitio web para cargar y descargar ficheros. FTP fue desarrollado durante

los comienzos de Internet para copiar ficheros de un ordenador a otro. Con la

llegada del World Wide Web, y de los navegadores, ya no se necesitan conocer

sus complejos comandos; se puede utilizar FTP escribiendo el URL en la barra

de localización que se encuentra en la parte superior de la pantalla del

navegador. Por ejemplo, al escribir

ftp://nombre.del.sitio/carpeta/nombredelfichero.zip se transfiere el fichero

nombredelfichero.zip al disco duro del ordenador. Al escribir

ftp://nombre.del.sitio/carpeta/ da una lista con todos los ficheros disponibles en

esa carpeta.

Cuando un navegador no está equipado con la función FTP, o si se

quiere cargar ficheros en un ordenador remoto, se necesitará utilizar un

programa cliente FTP. Para utilizar el FTP, se necesita conocer el nombre del

fichero, el ordenador en que reside y la carpeta en la que se encuentra. La

mayoría de los ficheros están disponibles a través de "FTP Anonymous", lo que

significa que se puede entrar en el ordenador con el nombre de usuario

"anónimo" y utilizar la dirección de correo electrónico propia como contraseña.

USENET: Es uno de los sistemas de comunicaciones más antiguos. Permite a

cualquier persona, intercambiar mensajes en foros públicos, generalmente

relacionados a un tema específico (determinado por el grupo donde se

publican-leen los mensajes).

Cuando un usuario se suscribe a un grupo de noticias, la aplicación

cliente de noticias se encarga de descargar todos los mensajes disponibles en

Page 74: Introduccion al procesamiento de datos e5 unesr

un servidor y los ordena. Cada servidor determina el tiempo que durará un

mensaje almacenado.

Actualmente los grupos de noticias de usenet no sólo se usan para

intercambiar texto, sino que son una fuente inagotable de todo tipo de

contenidos: videos, imágenes, documentos, música, etc. Mucho de ese

material es pirateado.

INTRANET: Es una red de ordenadores privada basada en los estándares de

Internet.

Las Intranets utilizan tecnologías de Internet para enlazar los recursos

informativos de una organización, desde documentos de texto a documentos

multimedia, desde bases de datos legales a sistemas de gestión de

documentos. Las Intranets pueden incluir sistemas de seguridad para la red,

tablones de anuncios y motores de búsqueda.

Una Intranet puede extenderse a través de Internet. Esto se hace

generalmente usando una red privada virtual (VPN).

EXTRANET: Es una red privada que utiliza protocolos de Internet, protocolos

de comunicación y probablemente infraestructura pública de comunicación para

compartir de forma segura parte de la información u operación propia de una

organización con proveedores, compradores, socios, clientes o cualquier otro

negocio u organización. Se puede decir en otras palabras que una extranet es

parte de la Intranet de una organización que se extiende a usuarios fuera de

ella. Usualmente utilizando Internet. La extranet suele tener un acceso

semiprivado, para acceder a la extranet de una empresa no necesariamente el

usuario ha de ser trabajador de la empresa, pero si tener un vínculo con la

entidad. Es por ello que una extranet requiere o necesita un grado de

seguridad, para que no pueda acceder cualquier persona. Otra característica

de la extranet es que se puede utilizar como una Intranet de colaboración con

otras compañías.

UNIDAD VII (INTEGRACION)

ASEGURAMIENTO DE LA CALIDAD DE LOS SISTEMAS: El aseguramiento

de la calidad, se puede definir como el esfuerzo total para plantear, organizar,

dirigir y controlar la calidad en un sistema de producción con el objetivo de dar

al cliente productos con la calidad adecuada. Es simplemente asegurar que la

calidad sea lo que debe ser.

VIRUS INFORMATICOS: es un malware que tiene por objeto alterar el normal

funcionamiento de la computadora, sin el permiso o el conocimiento del

usuario. Los virus, habitualmente, remplazan archivos ejecutables por otros

infectados con el código de este. Los virus pueden destruir, de manera

Page 75: Introduccion al procesamiento de datos e5 unesr

intencionada, los datos almacenados en un ordenador, aunque también existen

otros más inofensivos, que solo se caracterizan por ser molestos.

Los virus informáticos tienen, básicamente, la función de propagarse a

través de un software, no se replican a sí mismos porque no tienen esa facultad

como el gusano informático, son muy nocivos y algunos contienen además una

carga dañina (payload) con distintos objetivos, desde una simple broma hasta

realizar daños importantes en los sistemas, o bloquear las redes informáticas

generando tráfico inútil.

El funcionamiento de un virus informático es conceptualmente simple. Se

ejecuta un programa que está infectado, en la mayoría de las ocasiones, por

desconocimiento del usuario. El código del virus queda residente (alojado) en la

memoria RAM de la computadora, aun cuando el programa que lo contenía

haya terminado de ejecutarse. El virus toma entonces el control de los servicios

básicos del sistema operativo, infectando, de manera posterior, archivos

ejecutables que sean llamados para su ejecución. Finalmente se añade el

código del virus al programa infectado y se graba en el disco, con lo cual el

proceso de replicado se completa.

SEGURIDAD FISICA Y LOGICA: Es muy importante ser consiente que por

más que nuestra empresa sea la más segura desde el punto de vista de

ataques externos (hackers, virus, ataques de Dos, etc.); la seguridad de la

misma será nula si no se ha previsto como combatir un incendio o cualquier

otro tipo de desastre natural y no tener presente políticas claras de

recuperación.

La seguridad física es uno de los aspectos más olvidados a la hora del

diseño de un sistema informático. Si bien algunos de los aspectos de seguridad

física básicos se prevén, otros, como la detección de un atacante interno a la

empresa que intenta acceder físicamente a una sala de cómputo de la misma,

no. Esto puede derivar en que para un atacante sea más fácil lograr tomar y

copiar una cinta de backup de la sala de cómputo, que intentar acceder vía

lógica a la misma.

Así, la Seguridad Física consiste en la “aplicación de barreras físicas y

procedimientos de control, como medidas de prevención y contramedidas ante

amenazas a los recursos e información confidencial”. Se refiere a los controles

y mecanismos de seguridad dentro y alrededor del centro de cómputo, así

como los medios de acceso remoto al y desde el mismo; implementados para

proteger el hardware y medios de almacenamiento de datos.

CONTROL DE ACCESO:Es el conjunto de mecanismos y protocolos por los

que varios "interlocutores" (dispositivos en una red, como ordenadores,

teléfonos móviles, etc.) se ponen de acuerdo para compartir un medio de

transmisión común (por lo general, un cable eléctrico u óptico, o en

Page 76: Introduccion al procesamiento de datos e5 unesr

comunicaciones inalámbricas el rango de frecuencias asignado a su sistema).

En ocasiones se habla también de multiplexación para referirse a un concepto

similar.

SEGURIDAD EN LOS ENTORNOS PERSONALES: Se enfoca en la

protección de la infraestructura computacional y todo lo relacionado con esta

(incluyendo la información contenida). Para ello existen una serie de

estándares, protocolos, métodos, reglas, herramientas y leyes concebidas para

minimizar los posibles riesgos a la infraestructura o a la información. La

seguridad informática comprende software, bases de datos, metadatos,

archivos y todo lo que la organización valore (activo) y signifique un riesgo si

ésta llega a manos de otras personas. Este tipo de información se conoce

como información privilegiada o confidencial.

El concepto de seguridad de la información no debe ser confundido con

el de seguridad informática, ya que este último sólo se encarga de la seguridad

en el medio informático, pudiendo encontrar información en diferentes medios o

formas.

PLAN DE CONTIGENCIA: Es un instrumento de gestión para el buen gobierno

de las Tecnologías de la Información y las Comunicaciones en el dominio del

soporte y el desempeño (delivery and support, véase ITIL).

Dicho plan contiene las medidas técnicas, humanas y organizativas

necesarias para garantizar la continuidad del negocio y las operaciones de una

compañía. Un plan de contingencias es un caso particular de plan de

continuidad del negocio aplicado al departamento de informática o tecnologías.

Otros departamentos pueden tener planes de continuidad que persiguen el

mismo objetivo desde otro punto de vista. No obstante, dada la importancia de

las tecnologías en las organizaciones modernas, el plan de contingencia es el

más relevante.

PREVENCION: Prevenir los riesgos informáticos es conocer las

vulnerabilidades de la empresa y el impacto de las incidencias, especialmente

en las áreas de Sistemas de Información y de Recursos Humanos. La

seguridad informática es un concepto joven, por este motivo todavía hay

muchas empresas que mantienen sin coordinación sus disciplinas de seguridad

informática. El hecho de tener un cortafuegos no significa estar seguro, es un

medio más que ayuda a ir consolidando la protección de nuestros Sistemas,

pero no sólo hay que ir apagando los fuegos sino que hay que prevenir los

riesgos analizando los Sistemas, las Comunicaciones y la Seguridad

Informática, para encontrar la mejor solución global para la empresa.

Page 77: Introduccion al procesamiento de datos e5 unesr

Las empresas invierten en equipos de protección y monitorización con la

intención de hacer una gestión proactiva; también en conexiones rápidas y

seguras con autentificación fuerte. Todo ello reduce los riesgos, pero de nada

sirven si los usuarios no son sensibles a los problemas de seguridad. En otras

ocasiones, la empresa no tiene recursos suficientes para hacer una gestión

proactiva y las soluciones de gestión de ancho de banda o de monitorización se

consideran secundarias; en ese caso la sensibilización de los usuarios es

todavía más importante. Debe partirse de la base de que la competitividad de la

empresa pasa siempre por concienciar al usuario de la importancia de la

seguridad y que un usuario sin formar es un peligro en potencia para la red.

PROCESAMIENTO DE DATOS: Hasta el momento hemos supuesto que los

datos que maneja una aplicación no son tan voluminosos y por lo tanto caben

en memoria. Cuando recurrimos a archivos se debe a la necesidad de

conservar datos después de que termina un programa, por ejemplo para

apagar el computador.

Sin embargo, existen problemas en donde el volumen de datos es tan

grande que es imposible mantenerlos en memoria. Entonces, los datos se

almacenan en un conjunto de archivos, los que forman una base de datos. Una

base de datos es por lo tanto un conjunto de archivos que almacenan, por

ejemplo, datos con respecto al negocio de una empresa.

EL COMPUTADOR Y LAS ORGANIZACIONES: Es una máquina electrónica

que recibe y procesa datos para convertirlos en información útil. Una

computadora es una colección de circuitos integrados y otros componentes

relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo

indicado por un usuario o automáticamente por otro programa, una gran

variedad de secuencias o rutinas de instrucciones que son ordenadas,

organizadas y sistematizadas en función a una amplia gama de aplicaciones

prácticas y precisamente determinadas, proceso al cual se le ha denominado

con el nombre de programación y al que lo realiza se le llama programador. La

computadora, además de la rutina o programa informático, necesita de datos

específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés o

de entrada) que deben ser suministrados, y que son requeridos al momento de

la ejecución, para proporcionar el producto final del procesamiento de datos,

que recibe el nombre de "output" o de salida. La información puede ser

entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s)

persona(s), computadora(s) o componente(s) electrónico(s) local o

remotamente usando diferentes sistemas de telecomunicación, pudiendo ser

grabada, salvada o almacenada en algún tipo de dispositivo o unidad de

almacenamiento.

Page 78: Introduccion al procesamiento de datos e5 unesr

La característica principal que la distingue de otros dispositivos similares,

como la calculadora no programable, es que es una máquina de propósito

general, es decir, puede realizar tareas muy diversas, de acuerdo a las

posibilidades que brinde los lenguajes de programación y el hardware.

TECNOLOGIA Y SISTEMA:

Tecnología: Es el conjunto de conocimientos técnicos, ordenados

científicamente, que permiten diseñar y crear bienes y servicios que facilitan la

adaptación al medio ambiente y satisfacer tanto las necesidades esenciales

como los deseos de las personas. Es una palabra de origen griego, τεχνολογία,

formada por téchnē (arte, técnica u oficio, que puede ser traducido como

destreza) y logía (el estudio de algo). Aunque hay muchas tecnologías muy

diferentes entre sí, es frecuente usar el término en singular para referirse a una

de ellas o al conjunto de todas. Cuando se lo escribe con mayúscula,

Tecnología, puede referirse tanto a la disciplina teórica que estudia los saberes

comunes a todas las tecnologías como a educación tecnológica, la disciplina

escolar abocada a la familiarización con las tecnologías más importantes.

La actividad tecnológica influye en el progreso social y económico, pero

su carácter abrumadoramente comercial hace que esté más orientada a

satisfacer los deseos de los más prósperos (consumismo) que las necesidades

esenciales de los más necesitados, lo que tiende además a hacer un uso no

sostenible del medio ambiente. Sin embargo, la tecnología también puede ser

usada para proteger el medio ambiente y evitar que las crecientes necesidades

provoquen un agotamiento o degradación de los recursos materiales y

energéticos del planeta o aumenten las desigualdades sociales. Como hace

uso intensivo, directo o indirecto, del medio ambiente (biosfera), es la causa

principal del creciente agotamiento y degradación de los recursos naturales del

planeta.

Sistema: Es un objeto compuesto cuyos componentes se relacionan con al

menos algún otro componente; puede ser material o conceptual. Todos los

sistemas tienen composición, estructura y entorno, pero sólo los sistemas

materiales tienen mecanismo, y sólo algunos sistemas materiales tienen figura

(forma). Según el sistemismo, todos los objetos son sistemas o componentes

de otro sistema. Por ejemplo, un núcleo atómico es un sistema material físico

compuesto de protones y neutrones relacionados por la interacción nuclear

fuerte; una molécula es un sistema material químico compuesto de átomos

relacionados por enlaces químicos; una célula es un sistema material biológico

compuesto de orgánulos relacionados por enlaces químicos no-covalentes y

rutas metabólicas; una corteza cerebral es un sistema material psicológico

(mental) compuesto de neuronas relacionadas por potenciales de acción y

neurotransmisores; un ejército es un sistema material social y parcialmente

artificial compuesto de personas y artefactos relacionados por el mando, el

Page 79: Introduccion al procesamiento de datos e5 unesr

abastecimiento, la comunicación y la guerra; el anillo de los números enteros

es un sistema conceptual algebraico compuesto de números positivos,

negativos y el cero relacionados por la suma y la multiplicación; y una teoría

científica es un sistema conceptual lógico compuesto de hipótesis, definiciones

y teoremas relacionados por la correferencia y la deducción (implicación).

NUEVAS CORRIENTES EN TECNOLOGIA INFORMATICA: Se habla mucho

de Tecnología Informática, y de como ésta influye en nuestro diario vivir.

Sabemos que la tecnología está siendo innovada y reinventada cada vez que

dormimos, caminamos y si es posible respiramos (es decir cada vez con más

prontitud), con el fin de hacernos la vida mas simple...

Pero en este mundo en el que la tecnología crece de manera

exponencial, cuales son las ultimas tendencia????...Bueno, leyendo un poco

por ahí, me encontré con esta información...espero les interese...

Green IT, que ha hecho que la industria desarrolle tecnologías más

amables con el entorno, que promueven el uso de la energía de manera

eficiente, emplean materiales biodegradables o menos contaminantes.

SaaS y Cloud Computing: Software como servicio, que responde al

acrónimo inglés SaaS y que evolucionó de ASP (ApplicationServiceProvider),

es un modelo de implementación de software en las compañías, en el que la

instalación, el mantenimiento, los respaldos y el soporte de las aplicaciones es

responsabilidad del proveedor, al que se le paga por uso y que da acceso

parametrizado y privado vía Internet a las empresas.Cloud computing es un

modelo en el que, ya no sólo el software, sino las capacidades tecnológicas

flexibles y escalables se proporcionan a los clientes mediante tecnologías Web,

con ventajas que ofrecen valor al negocio como movilidad, reducción de

riesgos y costes, procesos de negocio prácticamente estandarizados, etc.

Destaca en estas áreas el éxito de Salesforce.com, NetSuite, Intacct, Aplicor o

Google Apps.

Gobierno IT: Esta tendencia surge de la necesidad de alinear tecnología y

negocio. Históricamente, los tecnólogos no conocen el negocio y los usuarios

desconocen las actividades del departamento de sistemas. Para paliar este

déficit en un momento en el que las inversiones en TI son relevantes, se han

creado unidades intermedias entre negocio e informática que racionalizan y

justifican las inversiones, además de optimizar el uso de los recursos. Con las

Oficinas de Proyectos, PMOs en sus siglas inglesas, emergen aplicaciones de

Project Management, que ponen en orden y facilitan los proyectos informáticos,

un ámbito en el que destacan proveedores como CA, Oracle o Microsoft.

Page 80: Introduccion al procesamiento de datos e5 unesr

Web 2.0: Es una evolución en la forma de trabajar en la Web, cuya idea central

es el proceso de colaboración y convergencia de muchas personas en un

medio, lo que facilita la interrelación entre grupos tanto públicos como privados.

Es Tim O’Reilly quien acuña este término, cuyas premisas son el

fortalecimiento de las comunidades de usuarios y una gama especial de

servicios. A partir de 2004, surgen herramientas y tecnologías o grupos de

tecnologías que ayudan a su adopción como AJAX, Java Web, RSS/ATOM,

SEM/SEO, blogs, JCC, Mashups, JSON, XML o APIs REST, entre otros.

Tecnología móvil corporativa: La convergencia digital avanza y se consolidará

como un referente tecnológico del siglo XXI. El smartphone, además de

telefonía, ofrece prestaciones similares a las de un PC, y se consigue una clara

convergencia entre un teléfono móvil, un PC, una PDA y un dispositivo

multimedia. Garantizar el acceso al correo corporativo, el ERP, el CRM, la

intranet, LMS y otras aplicaciones corporativas será el objetivo de la próxima

generación de aplicativos. Es un mercado en el que la competencia es fuerte, y

la liberación de los sistemas operativos para smartphones (Java, Windows

Mobile, Symbian OS, Android, RIM Blackberry, Linux, Mac o Palm OS) está

impulsando.

Gestión del rendimiento: Es una tecnología que, apoyada en el concepto de

Business Intelligence, promueve el uso sistemático y organizado de los datos

históricos de una empresa mediante la gestión de grandes volúmenes de datos

y modernas técnicas estadísticas. Al gestionar el rendimiento, se pone en

marcha una estrategia de control y seguimiento, a través de indicadores de

gestión, de los objetivos y estrategias de la organización, de forma que se

garantiza su cumplimiento y el ajuste de cualquier desviación de las metas

establecidas. Es un concepto que se nutre de tecnologías robustas como

gestores de bases de datos, herramientas de elevada capacidad analítica, etc.

En esta área, destacan líderes como IBM, Oracle, SAP, Microsoft, Sun, etc.

Gestión de contenidos y/o gestión de activos digitales: La gestión de activos

digitales (Digital Asset Management, DAM) es el proceso de identificar,

clasificar, digitalizar, almacenar y recuperar datos e información no

estructurada de todo tipo, con el fin de incrementar la productividad de las

organizaciones que manejan grandes volúmenes de información: imágenes,

vídeos, libros, documentos legales, mapas, etc. DAM ha irrumpido con fuerza

gracias a la robustez de los sistemas de gestión de bases de datos, la potencia

de las CPUs, la consolidación de XML como estándar y el aumento de las

capacidades de almacenamiento. Destacan en este segmento de mercado

IBM, EMC, Open Text, Oracle, Microsoft, Interwoven, Vignette, Hyland

Software, Xerox o HP, entre otras.