2-2-4 conceptos diseño y creacion

27
Concepto de animación: La animación es aquella técnica para dar sensación de movimiento a imágenes o dibujos. Para realizar animación existen numerosas técnicas que van más allá de los familiares dibujos animados . Los cuadros se pueden generar dibujando, pintando, o fotografiando los minúsculos cambios hechos repetidamente a un modelo de la realidad o a un modelo tridimensional virtual ; también es posible animar objetos de la realidad y actores. Concebir animación tiende a ser un trabajo muy intensivo y tedioso. Por esto la mayor parte de la producción proviene de compañías de animación que se han encargado de organizar esta labor. Aun así existe la animación de autor (que tiene relación con la animación independiente), en general más cercana a las artes plásticas . Ésta surge del trabajo personal de uno o de unos pocos artistas. Algunos se valen de las nuevas tecnologías para simplificar la tarea. Stop motion [editar ] Artículo principal: Stop motion Animación de objetos, muñecos, marionetas, figuras de plastilina u otros materiales así como maquetas de modelos a escala. Se utiliza la grabación "fotograma a fotograma" o "cuadro a cuadro". El stop-motion es una técnica de animación que consiste en aparentar el movimiento de objetos estáticos capturando fotografías. En general se denomina animaciones de stop-motion a las que no entran en la categoría de dibujo animado, esto es, que no fueron dibujadas ni pintadas, sino que fueron creadas tomando imágenes de la realidad. Hay dos grandes grupos de animaciones stop-motion: La animación de plastilina (o cualquier material maleable), en inglés claymation , y las animaciones de objetos (más rígidos). La animación con plastilina puede hacerse al "estilo libre", cuando no hay una figura definida, sino que las figuras se van transformando en el progreso de la animación; o puede orientarse a personajes, que mantienen una figura consistente en el transcurso del film.

Upload: cesar

Post on 31-Dec-2015

10 views

Category:

Documents


4 download

TRANSCRIPT

Page 1: 2-2-4 Conceptos diseño y creacion

Concepto de animación:

La animación es aquella técnica para dar sensación de movimiento a imágenes o dibujos. Para realizar animación existen numerosas técnicas que van más allá de los familiares dibujos animados. Los cuadros se pueden generar dibujando, pintando, o fotografiando los minúsculos cambios hechos repetidamente a un modelo de la realidad o a un modelo tridimensional virtual; también es posible animar objetos de la realidad y actores.

Concebir animación tiende a ser un trabajo muy intensivo y tedioso. Por esto la mayor parte de la producción proviene de compañías de animación que se han encargado de organizar esta labor. Aun así existe la animación de autor (que tiene relación con la animación independiente), en general más cercana a las artes plásticas. Ésta surge del trabajo personal de uno o de unos pocos artistas. Algunos se valen de las nuevas tecnologías para simplificar la tarea.

Stop motion [editar]

Artículo principal: Stop motion

Animación de objetos, muñecos, marionetas, figuras de plastilina u otros materiales así como maquetas de modelos a escala. Se utiliza la grabación "fotograma a fotograma" o "cuadro a cuadro".

El stop-motion es una técnica de animación que consiste en aparentar el movimiento de objetos estáticos capturando fotografías. En general se denomina animaciones de stop-motion a las que no entran en la categoría de dibujo animado, esto es, que no fueron dibujadas ni pintadas, sino que fueron creadas tomando imágenes de la realidad.

Hay dos grandes grupos de animaciones stop-motion: La animación de plastilina (o cualquier material maleable), en inglés claymation, y las animaciones de objetos (más rígidos).

La animación con plastilina puede hacerse al "estilo libre", cuando no hay una figura definida, sino que las figuras se van transformando en el progreso de la animación; o puede orientarse a personajes, que mantienen una figura consistente en el transcurso del film.

También esta el go-motion que es un sistema de control que permite a miniaturas y cámara realizar movimientos mientras se utiliza la animación fotograma a fotograma o stop-motion.

Pixilación [editar]

Es una variante del stop-motion, en la que los objetos animados son auténticos objetos comunes (no modelos ni maquetas), e incluso personas. Al igual que en cualquier otra forma de animación, estos objetos son fotografiados repetidas veces, y desplazados ligeramente entre cada fotografía. Norman McLaren fue pionero de esta técnica, empleada en su famoso corto animado A Chairy Tale, donde gracias a ésta da vida a una silla común y corriente. Es ampliamente utilizada en los video-clips.

Rotoscopía [editar]

Se basa en dibujar directamente sobre la referencia, que pueden ser los cuadros de la filmación de una persona real. Así se animó en Disney a Blancanieves, protagonista del primer largometraje animado de Disney.

Page 2: 2-2-4 Conceptos diseño y creacion

Su análoga infográfica puede considerarse la captura de movimiento (motion capture). Existe cierto grado de controversia sobre si el rotoscope es auténtica animación, y sobre su valor artístico como tal.

Animación de recortes [editar]

Más conocido en inglés como cutout animation, es la técnica en que se usan figuras recortadas, ya sea de papel o incluso fotografías. Los cuerpos de los personajes se construyen con los recortes de sus partes. Moviendo y reemplazando las partes se obtienen diversas poses, y así se da vida al personaje.

Otras técnicas [editar]

Virtualmente cualquier forma de producir imágenes, cualquier materia que pueda ser fotografiada, puede utilizarse para animar. Existen muchas técnicas de animación que sólo han sido utilizadas por unos y que son desconocidas para el gran público. Entre estas se incluyen: pintura sobre cristal, animación de arena, pantalla de agujas, pintura sobre celuloide, tweening. pero también es posible reproducirlo por ordenador

Diferencia entre Adobe Flash y Animacion [editar]

La diferencia es que el FLASH utiliza los dibujos y recortes y sonidos “ Fotogramas” para crear animaciones 2D además es más fácil y con menos tiempo son utilizados en páginas web y sitios web multimedia que pueden ser reproducidos por un reproductor Flash que también sirve para hacer multimedia como para crear animaciones, multimedia, juegos, etc.

Y ANIMACION es estilo de dar la sensación de movimiento a dibujos o imágenes tomadas a objetos reales y actores con el mas minúsculo movimiento para crear una animación mas real y en tercera dimensión que puede ser un trabajo muí intensivo y tedioso

Animación completa vs. animación limitada [editar]

En el cine existe un estándar de 24 imágenes por segundo. Esa es la tasa a la que graban las cámaras y proyectan los proyectores. Se toma una fotografía de la imagen cada veinticuatroavo de segundo.

En la animación, sin embargo, las imágenes no se toman sino que se producen individualmente, y por ello no tienen que cumplir necesariamente con el estándar del cine. Una película de animación tiene siempre 24 fotogramas por segundo, pero no necesariamente todos esos fotogramas muestran imágenes diferentes: en la animación, las imágenes suelen repetirse en varios fotogramas.

Así pues, tenemos varias tasas de animación:

En unos: cada imagen es diferente, sin repetición. 24 imágenes por segundo, 1 imagen cada fotograma.

En doses: cada imagen se repite dos veces. 12 imágenes por segundo, 1 imagen cada 2 fotogramas.

En treses: cada imagen se repite tres veces. 8 imágenes por segundo, 1 imagen cada 3 fotogramas.

Se ha calculado que el umbral visual por debajo del que ya no se capta un movimiento sino imágenes individuales es de 7 imágenes por segundo.

Page 3: 2-2-4 Conceptos diseño y creacion

Animación completa es cuando se anima en unos o en doses. Es el estándar de la animación estadounidense para salas de cine, principalmente las películas de Walt Disney, y también los largometrajes europeos. Generalmente, se animan las escenas con muchos movimientos rápidos en unos, y el resto en doses (la pérdida de calidad es imperceptible).

Animación limitada es cuando se anima en una tasa inferior. El estándar del animé japonés es animación en treses. La pérdida de calidad ya es perceptible si se es observador. El concepto de animación limitada también afecta a otros aspectos diferentes de la tasa. Por ejemplo, es animación limitada cuando se repiten ciclos: pensemos en Pedro Picapiedra corriendo mientras al fondo aparecen una y otra vez las mismas casas en el mismo orden.

Hay que tener en cuenta que diferentes elementos de la imagen (un personaje, otro personaje, un objeto móvil, un plano del fondo, otro plano del fondo) se animan por separado, y que por tanto dentro de la misma escena puede haber elementos con diferentes tasas de animación.

Historia de la animación [editar]

Ver cine de animación.

Informática en la animación [editar]

Se puede considerar el aporte de la tecnología en dos campos: como herramienta de creación y como medio de representación.

Para las animaciones dibujadas o pintadas a mano hay programas que asisten a la creación de los cuadros intermedios. Cabe recordar que se necesita una gran cantidad de éstos para dar la sensación de movimiento. En las animaciones hechas con gráficos vectoriales y con modelos tridimensionales el programa mismo calcula la transformación (interpola) de una pose a otra.

Diversos formatos de archivo permiten representar animación en una computadora, y a través de Internet. Entre los más conocidos están Adobe Flash, GIF, MNG y SVG. El archivo puede contener una secuencia de cuadros, como gráficos rasterizados (o la diferencia entre un cuadro y el anterior), o puede contener la definición de trazos y sus deformaciones en el tiempo, en un formato vectorial. Hay formatos de archivo específicos para animaciones, y también se utilizan formatos genéricos que pueden contener diversos tipos de multimedios.

Concepto de mapas de bits vrs. Gráficos vectoriales:

Utilización de mapas de bits

Los mapas de bits son imágenes compuestas de pequeños cuadrados de color denominados píxeles, que se combinan como las teselas de un mosaico para crear una imagen. Algunos ejemplos de mapas de bits son fotografías, imágenes tomadas con un escáner y elementos gráficos creados con programas de pintura. A veces reciben el nombre de imágenes entramadas.

Macromedia Fireworks 8 combina las ventajas de la edición fotográfica, el dibujo vectorial y las aplicaciones de pintura. Las imágenes de mapa de bits se crean dibujando y pintando con herramientas de mapa de bits, convirtiendo objetos vectoriales en imágenes de mapa de bits o abriendo e importando imágenes.

Page 4: 2-2-4 Conceptos diseño y creacion

Fireworks posee un potente conjunto de filtros automáticos para ajustar el tono y el color y numerosos recursos para retocar imágenes de mapa de bits, como el recorte, el fundido y la duplicación o clonación de imágenes. Además, Fireworks incluye herramientas de retoque de imágenes: Desenfocar, Perfilar, Aclarar, Oscurecer y Difuminar.

Para más información sobre los distintos métodos de selección y transformación de imágenes y áreas de píxeles, consulte el Selección y transformación de objetos.

http://livedocs.adobe.com/fireworks/8_es/fwhelp/wwhelp/wwhimpl/common/html/wwhelp.htm?context=LiveDocs_Parts&file=03_bitma.htm

Existen dos categorías principales de imágenes:

imágenes de mapa de bits (también denominadas imágenes raster): son imágenes pixeladas, es decir que están formadas por un conjunto de puntos (píxeles) contenidos en una tabla. Cada uno de estos puntos tiene un valor o más que describe su color.

imágenes vectoriales: las imágenes vectoriales son representaciones de entidades geométricas tales como círculos, rectángulos o segmentos. Están representadas por fórmulas matemáticas (un rectángulo está definido por dos puntos; un círculo, por un centro y un radio; una curva, por varios puntos y una ecuación). El procesador "traducirá" estas formas en información que la tarjeta gráfica pueda interpretar.

Dado que una imagen vectorial está compuesta solamente por entidades matemáticas, se le pueden aplicar fácilmente transformaciones geométricas a la misma (ampliación, expansión, etc.), mientras que una imagen de mapa de bits, compuesta por píxeles, no podrá ser sometida a dichas transformaciones sin sufrir una pérdida de información llamada distorsión. La apariencia de los píxeles en una imagen después de una transformación geométrica (en particular cuando se la amplía) se denomina pixelación (también conocida como efecto escalonado). Además, las imágenes vectoriales (denominadas clipart en el caso de un objeto vectorial) permiten definir una imagen con muy poca información, por lo que los archivos son bastante pequeños.

Por otra parte, una imagen vectorial sólo permite la representación de formas simples. Si bien es verdad que la superposición de varios elementos simples puede producir resultados impresionantes, no es posible describir todas las imágenes con vectores; éste es particularmente el caso de las fotografías realistas.

Imagen vectorial Imagen de mapa de bits

Page 5: 2-2-4 Conceptos diseño y creacion

La imagen "vectorial" anterior es sólo la representación de lo que una imagen vectorial podría parecer, porque la calidad de la imagen depende del dispositivo utilizado para hacerla visible al ojo humano. Probablemente su pantalla le permita ver esta imagen con una resolución de al menos 72 píxeles por pulgada. El mismo archivo impreso en una impresora ofrecería una mejor calidad de imagen ya que la impresión se realizaría con al menos 300 píxeles por pulgada.

Gracias a la tecnología desarrollada por Macromedia y su software Macromedia Flash, o SVG ("complemento"), actualmente se puede utilizar el formato vectorial en Internet.

http://es.kioskea.net/contents/video/vector.php3

Orientación a objetos:

La Programación Orientada a Objetos (POO u OOP según sus siglas en inglés) es un paradigma de programación que usa objetos y sus interacciones para diseñar aplicaciones y programas de computadora. Está basado en varias técnicas, incluyendo herencia, modularidad, polimorfismo y encapsulamiento. Su uso se popularizó a principios de la década de 1990. Actualmente son muchos los lenguajes de programación que soportan la orientación a objetos.

Contenido[ocultar]

1 Introducción 2 Origen 3 Conceptos fundamentales 4 Características de la POO 5 Resumen

6 Lenguajes orientados a objetos

Introducción [editar]

Los objetos son entidades que combinan estado, comportamiento e identidad:

El estado está compuesto de datos, será uno o varios atributos a los que se habrán asignado unos valores concretos (datos).

El comportamiento está definido por los procedimientos o métodos con que puede operar dicho objeto, es decir, qué operaciones se pueden realizar con él.

La identidad es una propiedad de un objeto que lo diferencia del resto, dicho con otras palabras, es su identificador (concepto análogo al de identificador de una variable o una constante).

La programación orientada a objetos expresa un programa como un conjunto de estos objetos, que colaboran entre ellos para realizar tareas. Esto permite hacer los programas y módulos más fáciles de escribir, mantener y reutilizar.

De esta forma, un objeto contiene toda la información que permite definirlo e identificarlo frente a otros objetos pertenecientes a otras clases e incluso frente a objetos de una misma clase, al poder

Page 6: 2-2-4 Conceptos diseño y creacion

tener valores bien diferenciados en sus atributos. A su vez, los objetos disponen de mecanismos de interacción llamados métodos que favorecen la comunicación entre ellos. Esta comunicación favorece a su vez el cambio de estado en los propios objetos. Esta característica lleva a tratarlos como unidades indivisibles, en las que no se separan ni deben separarse el estado y el comportamiento.

Los métodos (comportamiento) y atributos (estado) están estrechamente relacionados por la propiedad de conjunto. Esta propiedad destaca que una clase requiere de métodos para poder tratar los atributos con los que cuenta. El programador debe pensar indistintamente en ambos conceptos, sin separar ni darle mayor importancia a ninguno de ellos, hacerlo podría producir el hábito erróneo de crear clases contenedoras de información por un lado y clases con métodos que manejen a las primeras por el otro. De esta manera se estaría realizando una programación estructurada camuflada en un lenguaje de programación orientado a objetos.

Esto difiere de la programación estructurada tradicional, en la que los datos y los procedimientos están separados y sin relación, ya que lo único que se busca es el procesamiento de unos datos de entrada para obtener otros de salida. La programación estructurada anima al programador a pensar sobre todo en términos de procedimientos o funciones, y en segundo lugar en las estructuras de datos que esos procedimientos manejan. En la programación estructurada sólo se escriben funciones que procesan datos. Los programadores que emplean éste nuevo paradigma, en cambio, primero definen objetos para luego enviarles mensajes solicitándoles que realicen sus métodos por sí mismos.

Origen [editar]

Los conceptos de la programación orientada a objetos tienen origen en Simula 67, un lenguaje diseñado para hacer simulaciones, creado por Ole-Johan Dahl y Kristen Nygaard del Centro de Cómputo Noruego en Oslo. Al parecer, en este centro, trabajaban en simulaciones de naves, y fueron confundidos por la explosión combinatoria de cómo las diversas cualidades de diversas naves podían afectar unas a las otras. La idea ocurrió para agrupar los diversos tipos de naves en diversas clases de objetos, siendo responsable cada clase de objetos de definir sus propios datos y comportamiento. Fueron refinados más tarde en Smalltalk, que fue desarrollado en Simula en Xerox PARC (y cuya primera versión fue escrita sobre Basic) pero diseñado para ser un sistema completamente dinámico en el cual los objetos se podrían crear y modificar "en marcha" en lugar de tener un sistema basado en programas estáticos.

La programación orientada a objetos tomó posición como el estilo de programación dominante a mediados de los años ochenta, en gran parte debido a la influencia de C++, una extensión del lenguaje de programación C. Su dominación fue consolidada gracias al auge de las Interfaces gráficas de usuario, para las cuales la programación orientada a objetos está particularmente bien adaptada. En este caso, se habla también de programación dirigida por eventos.

Las características de orientación a objetos fueron agregadas a muchos lenguajes existentes durante ese tiempo, incluyendo Ada, BASIC, Lisp, Pascal, entre otros. La adición de estas características a los lenguajes que no fueron diseñados inicialmente para ellas condujo a menudo a problemas de compatibilidad y a la capacidad de mantenimiento del código. Los lenguajes orientados a objetos "puros", por otra parte, carecían de las características de las cuales muchos programadores habían venido a depender. Para saltar este obstáculo, se hicieron muchas tentativas para crear nuevos lenguajes basados en métodos orientados a objetos, pero permitiendo algunas características imperativas de maneras "seguras". El Eiffel de Bertrand Meyer fue un temprano y moderadamente acertado lenguaje con esos objetivos pero ahora ha sido esencialmente reemplazado por Java, en gran parte debido a la aparición de Internet, y a la implementación de la máquina virtual de Java en

Page 7: 2-2-4 Conceptos diseño y creacion

la mayoría de navegadores. PHP en su versión 5 se ha ido modificando y soporta una orientación completa a objetos, cumpliendo todas las características propias de la orientación a objetos.

Conceptos fundamentales [editar]

La programación orientada a objetos es una nueva forma de programar que trata de encontrar una solución a estos problemas. Introduce nuevos conceptos, que superan y amplían conceptos antiguos ya conocidos. Entre ellos destacan los siguientes:

Clase : definiciones de las propiedades y comportamiento de un tipo de objeto concreto. La instanciación es la lectura de estas definiciones y la creación de un objeto a partir de ellas.

Herencia: (por ejemplo, herencia de la clase D a la clase C) Es la facilidad mediante la cual la clase D hereda en ella cada uno de los atributos y operaciones de C, como si esos atributos y operaciones hubiesen sido definidos por la misma D. Por lo tanto, puede usar los mismos métodos y variables publicas declaradas en C. Los componentes registrados como "privados" (private) también se heredan, pero como no pertenecen a la clase, se mantienen escondidos al programador y sólo pueden ser accedidos a través de otros métodos públicos. Esto es así para mantener hegemónico el ideal de OOP.

Objeto : entidad provista de un conjunto de propiedades o atributos (datos) y de comportamiento o funcionalidad (métodos). Se corresponde con los objetos reales del mundo que nos rodea, o a objetos internos del sistema (del programa). Es una instancia a una clase.

Método : Algoritmo asociado a un objeto (o a una clase de objetos), cuya ejecución se desencadena tras la recepción de un "mensaje". Desde el punto de vista del comportamiento, es lo que el objeto puede hacer. Un método puede producir un cambio en las propiedades del objeto, o la generación de un "evento" con un nuevo mensaje para otro objeto del sistema.

Evento: un suceso en el sistema (tal como una interacción del usuario con la máquina, o un mensaje enviado por un objeto). El sistema maneja el evento enviando el mensaje adecuado al objeto pertinente. También se puede definir como evento, a la reacción que puede desencadenar un objeto, es decir la acción que genera.

Mensaje: una comunicación dirigida a un objeto, que le ordena que ejecute uno de sus métodos con ciertos parámetros asociados al evento que lo generó.

Propiedad o atributo: contenedor de un tipo de datos asociados a un objeto (o a una clase de objetos), que hace los datos visibles desde fuera del objeto y esto se define como sus características predeterminadas, y cuyo valor puede ser alterado por la ejecución de algún método.

Estado interno: es una variable que se declara privada, que puede ser únicamente accedida y alterada por un método del objeto, y que se utiliza para indicar distintas situaciones posibles para el objeto (o clase de objetos). No es visible al programador que maneja una instancia de la clase.

Componentes de un objeto:atributos, identidad, relaciones y métodos. Representación de un objeto: un objeto se representa por medio de una tabla o entidad que

esté compuesta por sus atributos y funciones correspondientes.

En comparación con un lenguaje imperativo, una "variable", no es más que un contenedor interno del atributo del objeto o de un estado interno, así como la "función" es un procedimiento interno del método del objeto.

http://es.wikipedia.org/wiki/Programaci%C3%B3n_orientada_a_objetos

Imágenes prediseñadas:

Page 8: 2-2-4 Conceptos diseño y creacion

Imágenes prediseñadas es el nombre general que reciben los archivos multimedia, como ilustraciones, fotografías, sonidos, animaciones o películas que se distribuyen con Microsoft Office. Por lo general, se usa para indicar ilustraciones, fotos y otras imágenes.

Imágenes prediseñadas se incluye en el CD-ROM de Microsoft Office o se pueden descargar desde la página principal de Galería de imágenes y multimedia.

Hay más de 900.000 imágenes prediseñadas disponibles. Puede encontrarlas más rápidamente si examina las categorías y realiza búsquedas. Microsoft Office incluye herramientas específicas, como Galería multimedia y Galería de imágenes. Estas herramientas le permiten organizar de forma sencilla imágenes guardadas en su disco duro y de Office Online. Le invitamos a que les eche un vistazo.

Si es usuario de Microsoft Office, puede usar y distribuir de forma gratuita Imágenes prediseñadas bajo ciertas condiciones.

Si utiliza las imágenes prediseñadas de forma correcta para crear un documento, puede generar algo realmente atractivo y entretenido.

http://office.microsoft.com/es-es/Novice/FX102704893082.aspx

Diseño asistido por computador

Pieza desarrollada en CAD

El diseño asistido por computador (o computadora u ordenador), abreviado como DAO (Diseño Asistido por Ordenador) pero más conocido por sus siglas inglesas CAD (Computer Aided Design), es el uso de un amplio rango de herramientas computacionales que asisten a ingenieros, arquitectos y a otros profesionales del diseño en sus respectivas actividades. También se llega a encontrar denotado con las siglas CADD, dibujo y diseño asistido por computadora (Computer Aided Drafting and Design). El CAD es también utilizado en el marco de procesos de administración del ciclo de vida de productos (Product Lifecycle Management).

Page 9: 2-2-4 Conceptos diseño y creacion

Dibujo realizado con software CAD

Estas herramientas se pueden dividir básicamente en programas de dibujo en dos dimensiones (2D) y modeladores en tres dimensiones (3D). Las herramientas de dibujo en 2D se basan en entidades geométricas vectoriales como puntos, líneas, arcos y polígonos, con las que se puede operar a través de una interfaz gráfica. Los modeladores en 3D añaden superficies y sólidos.

El usuario puede asociar a cada entidad una serie de propiedades como color, usuario, capa, estilo de línea, nombre, definición geométrica, etc., que permiten manejar la información de forma lógica. Además pueden asociarse a las entidades o conjuntos de éstas otro tipo de propiedades como material, etc., que permiten enlazar el CAD a los sistemas de gestión y produccíon.

De los modelos pueden obtenerse planos con cotas y anotaciones para generar la documentación técnica específica de cada proyecto. Los modeladores en 3D pueden, además, producir previsualizaciones fotorealistas del producto, aunque a menudo se prefiere exportar los modelos a programas especializados en visualización y animación, como Maya, Softimage XSI o 3D Studio Max.

http://es.wikipedia.org/wiki/Dise%C3%B1o_asistido_por_computador

Hipermedios:Grupo de documentos en el que cada uno puede contener texto, gráficos, fragmentos de vídeo y audio, así como referencias a otros documentos. Las páginas de la WWW son documentos de hipermedios.

http://www.usando.info/main_file.php/us_dicc/8193/

Hipermedia

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsqueda

Hipermedia es el término con que se designa al conjunto de métodos o procedimientos para escribir, diseñar, o componer contenidos que tengan texto, video, audio, mapas u otros medios, y que además tenga la posibilidad de interactuar con los usuarios.

Page 10: 2-2-4 Conceptos diseño y creacion

Aspen Movie Map es uno de los primeros sistemas de hipermedia. En la foto aparece una pantalla y la interfaz

El enfoque hipermedia de estos contenidos, los califica especialmente como medios de comunicación e interacción humanas, en este sentido, un espacio hipermedia es un ámbito, sin dimensiones físicas, que alberga, potencia y estructura las actividades de las personas.

El término es originario de Ted Nelson en el año de 1970 en su libro: No more Teacher's Dirty Looks. En 1987 Nelson dijo:

El texto, los gráficos, el audio y el video pueden ahora estar en vivo de forma unificada, respondiendo a las nuevas necesidades que tenemos con las diferentes formas de expresar la información.

Designándole a una media que pueda bifurcar o ejecutar presentaciones. Además, que respondan a las acciones de los usuarios, a los sistemas de preordenamiento de palabras y gráficos y puedan ser explorado libremente. Dicho sistemas puede ser editado, graficado, o diseñado por artistas, diseñadores o editores. Para Nelson, la idea de que dicha media maneje múltiples espacios simultánea o secuencialmente, hace que las medias se llame hiper-media. En donde el prefijo hiper, es un término prestado por las matemáticas para describir los espacios multidimensionales.

En contextos específicos, se identifica hipermedia como extensión del término Hipertexto, en el cual audio, video, texto e hipervínculos generalmente no secuenciales, se entrelazan para formar un continuo de información, que puede considerarse como virtualmente infinito desde la perspectiva de Internet.

El hipertexto se considera un subconjunto de los hipermedios y ésta a su vez de los multimedios según palabras de Woodhead en 1991. Para Dale en 1997 el hipertexto se utiliza para indicar las conexiones entre los documentos de naturaleza textual e hipermedios se refiere a la conexión entre los documentos de diversos tipos de medios.

Entre los tipos de hipermedia se encuentra:

Hipertexto . Hiperfilmes . Hipergrama .

El primer sistema hipermedia creado fue el Aspen Movie Map. Actualmente ejemplos de hipermedia pueden ser:

La World Wide Web, Las películas almacenadas en un DVD. Las presentaciones en Powerpoint o en Flash, o productos informáticos similares.

Page 11: 2-2-4 Conceptos diseño y creacion

http://es.wikipedia.org/wiki/Hipermedia

Hiperxtexto:

Definiciones.

El hipertexto es una tecnología que organiza una base de información en bloques distintos de contenidos, conectados a través de una serie de enlaces cuya activación o selección provoca la recuperación de información [Díaz et al, 1996].

El hipertexto ha sido definido como un enfoque para manejar y organizar información, en el cual los datos se almacenan en una red de nodos conectados por enlaces. Los nodos contenienen textos y si contienen además gráficos, imágenes, audio, animaciones y video, así como código ejecutable u otra forma de datos se les da el nombre de hipermedio, es decir, una generalización de hipertexto.

Considerando cómo se representa el conocimiento humano, el hombre opera por asociación, saltando de un item al próximo, en forma casi instantánea. El paradigma hipermedia intenta modelar este proceso con enlaces entre pedazos de información contenidos en nodos.

A diferencia de los libros impresos, en los cuales la lectura se realiza en forma secuencial desde el principio hasta el final, en un ambiente hipermedial la "lectura" puede realizarse en forma no lineal, y los usuarios no están obligados a seguir una secuencia establecida, sino que pueden moverse a través de la información y hojear intuitivamente los contenidos por asociación, siguiendo sus intereses en búsqueda de un término o concepto. En la figura, a continuación, se representan el estilo secuencial, el estilo jerárquico, el estilo reticulado y el hipermedio.  

Page 12: 2-2-4 Conceptos diseño y creacion

En términos más sencillos, y a la vez más amplio, un hipermedio es un sistema de bases de datos que provee al usuario una forma libre y única de acceder y explorar la información realizando saltos entre un documento y otro.

En la literatura se utiliza, a veces, en forma indiscriminada los términos hipertexto, sistemas hipertexto e hiperdocumento; sin embargo, es necesario aclarar que se hace referencia a objetos distintos, y que en lo sucesivo se utilizará las siguientes definiciones para evitar confusiones:

Definición I.a- Hiperdocumento. Es el contenido de información, incluyendo los fragmentos de información y las conexiones entre esos fragmentos, indiferente sea el sistema utilizado para leer o escribir tal documento.

Definición I.b- Sistema hipertexto. Es una herramienta de software que permite leer y escribir hiperdocumentos. Este sistema no contiene un hiperdocumento.

Definición I.c- Hipertexto. Es un sistema hipertexto que contiene hiperdocumentos.

Definición I.d- Hiperespacio. Es el término que describe el número total de locaciones y todas sus interconexiones en un ambiente hipermedial.

Según [Landow et al, 1991], el hipertexto es una forma distinta de literatura; definen hipertexto

http://www.ldc.usb.ve/~abianc/hipertexto.html

Píxel:

Pixel, abreviatura de Picture Element, es un único punto en una imagen gráfica. Los monitores gráficos muestran imágenes dividiendo la pantalla en miles (o millones) de pixeles, dispuestos en filas y columnas. Los pixeles están tan juntos que parece que estén conectados.

El número de bits usados para representar cada pixel determina cuántos colores o gamas de gris pueden ser mostrados. Por ejemplo, en modo color de 8-bits, el monitor en color utiliza 8 bits para cada pixel, permitiendo mostrar 2 elevado a 8 (256) colores diferentes o gamas de gris.

En monitores de color, cada pixel se compone realmente de tres puntos -- uno rojo, uno azul, y uno verde. Idealmente, los tres puntos convergen en el mismo punto, pero todos los monitores tienen cierto error de convergencia que puede hacer que el color los pixeles aparezca borroso.

La calidad de un sistema de visualización depende en gran medida de su resolución, es decir, cuántos bits utilizan para representar cada pixel.

http://www.masadelante.com/faq-pixel.htm

Page 13: 2-2-4 Conceptos diseño y creacion

Resolución de imagen

La resolución de imagen indica cuánto detalle puede observarse en una imagen. El término es comúnmente utilizado en relación a imágenes de fotografía digital, pero también se utiliza para describir cuán nítida (como antónimo de granular) es una imagen de fotografía convencional (o fotografía química). Tener mayor resolución se traduce en obtener una imagen con más detalle o calidad visual. Para las imágenes digitales almacenadas como mapa de bits, la convención es describir la resolución de la imagen con dos números enteros, donde el primero es la cantidad de columnas de píxeles (cuántos píxeles tiene la imagen a lo ancho) y el segundo es la cantidad de filas de píxeles (cuántos píxeles tiene la imagen a lo alto). La convención que le sigue en popularidad es describir el número total de píxeles en la imagen (usualmente expresado como la cantidad de megapíxeles), que puede ser calculado multiplicando la cantidad de columnas de píxeles por la cantidad de filas de píxeles. Otras convenciones incluyen describir la resolución en una unidad de superficie (por ejemplo píxeles por pulgada). A continuación se presenta una ilustración sobre cómo se vería la misma imagen en diferentes resoluciones.

Para saber cuál es la resolución de una cámara digital debemos conocer los píxeles de ancho x alto a los que es capaz de obtener una imagen. Así una cámara capaz de obtener una imagen de 1600 x 1200 píxeles tiene una resolución de 1600x1200=1.920.000 píxeles, es decir 1,92 megapíxeles.

Además, hay que considerar la resolución de impresión, es decir, los puntos por pulgada (ppp) a los que se puede imprimir una imagen digital de calidad. A partir de 200 ppp podemos decir que la resolución de impresión es buena, y si queremos asegurarnos debemos alcanzar los 300 ppp porque muchas veces la óptica de la cámara, la limpieza de la lente o el procesador de imágenes de la cámara digital disminuyen la calidad.

Para saber cual es la resolución de impresión máxima que permite una imagen digital hay que dividir el ancho de esa imagen (por ejemplo, 1600 entre la resolución de impresión 200, 1600/200 = 8 pulgadas). Esto significa que la máxima longitud de foto que se puede obtener en papel para una foto digital de 1600 píxeles de largo es de 8 pulgadas de largo en calidad 200 ppp (1600/300=5.33 pulgadas en el caso de una resolución de 300 ppp). Una pulgada equivale a 2,54 centímetros.

http://es.wikipedia.org/wiki/Alta_resoluci%C3%B3n

MP3

De Wikipedia, la enciclopedia libre

Saltar a navegación, búsquedaMPEG-1 Audio Layer 3

Extensión de archivo: .mp3

Tipo de MIME: audio/mpeg

Page 14: 2-2-4 Conceptos diseño y creacion

Tipo de formato: Audio

MPEG-1 Audio Layer 3, más conocido como MP3, es un formato de audio digital comprimido con pérdida desarrollado por el Moving Picture Experts Group (MPEG) para formar parte de la versión 1 (y posteriormente ampliado en la versión 2) del formato de vídeo MPEG. El mp3 estándar es de 44 KHz y un bitrate de 128 kbps por la relación de calidad/tamaño. Su nombre es el acrónimo de MPEG-1 Audio Layer 3 y el término no se debe confundir con el de reproductor MP3.

Contenido

[ocultar] 1 Historia 2 Detalles técnicos

o 2.1 Banco de filtros o 2.2 El modelo psicoacústico o 2.3 Codificación y cuantificación

2.3.1 Ciclo interno 2.3.2 Ciclo externo

o 2.4 Empaquetado o formateador de bitstream 3 Estructura de un fichero MP3 4 Transformada de Fourier discreta 5 Véase también

6 Enlaces externos

Historia [editar]

Este formato fue desarrollado principalmente por Karlheinz Brandenburg, director de tecnologías de medios electrónicos del Instituto Fraunhofer IIS, perteneciente al Fraunhofer-Gesellschaft - red de centros de investigación alemanes - que junto con Thomson Multimedia controla el grueso de las patentes relacionadas con el MP3. La primera de ellas fue registrada en 1986 y varias más en 1991. Pero no fue hasta julio de 1995 cuando Brandenburg usó por primera vez la extensión .mp3 para los archivos relacionados con el MP3 que guardaba en su ordenador. Un año después su instituto ingresaba en concepto de patentes 1,2 millones de euros. Diez años más tarde esta cantidad ha alcanzado los 26,1 millones.

El formato MP3 se convirtió en el estándar utilizado para streaming de audio y compresión de audio de alta calidad (con pérdida en equipos de alta fidelidad) gracias a la posibilidad de ajustar la calidad de la compresión, proporcional al tamaño por segundo (bitrate), y por tanto el tamaño final del archivo, que podía llegar a ocupar 12 e incluso 15 veces menos que el archivo original sin comprimir.

Fue el primer formato de compresión de audio popularizado gracias a Internet, ya que hizo posible el intercambio de ficheros musicales. Los procesos judiciales contra empresas como Napster y AudioGalaxy son resultado de la facilidad con que se comparten este tipo de ficheros.

Tras el desarrollo de reproductores autónomos, portátiles o integrados en cadenas musicales (estéreos), el formato MP3 llega más allá del mundo de la informática.

A principios de 2002 otros formatos de audio comprimido como Windows Media Audio y Ogg Vorbis empiezan a ser masivamente incluidos en programas, sistemas operativos y reproductores

Page 15: 2-2-4 Conceptos diseño y creacion

autónomos, lo que hizo prever que el MP3 fuera paulatinamente cayendo en desuso, en favor de otros formatos, como los mencionados, de mucha mejor calidad. Uno de los factores que influye en el declive del MP3 es que tiene patente. Técnicamente no significa que su calidad sea inferior ni superior, pero impide que la comunidad pueda seguir mejorándolo y puede obligar a pagar por la utilización de algún códec, esto es lo que ocurre con los reproductores de MP3. Aun así, a inicios del 2008, el formato mp3 continua siendo el más usado y el que goza de más éxito.

Detalles técnicos [editar]

En esta capa existen varias diferencias respecto a los estándares MPEG-1 y MPEG-2, entre las que se encuentra el llamado banco de filtros híbrido que hace que su diseño tenga mayor complejidad. Esta mejora de la resolución frecuencial empeora la resolución temporal introduciendo problemas de pre-eco que son predichos y corregidos. Además, permite calidad de audio en tasas tan bajas como 64Kbps.

Banco de filtros [editar]

El banco de filtros utilizado en esta capa es el llamado banco de filtros híbrido polifase/MDCT. Se encarga de realizar el mapeado del dominio del tiempo al de la frecuencia tanto para el codificador como para los filtros de reconstrucción del decodificador. Las muestras de salida del banco están cuantizadas y proporcionan una resolución en frecuencia variable, 6x32 o 18x32 subbandas, ajustándose mucho mejor a las bandas críticas de las diferentes frecuencias. Usando 18 puntos, el número máximo de componentes frecuenciales es: 32 x 18 = 576. Dando lugar a una resolución frecuencial de: 24000/576 = 41,67 Hz (si fs = 48 Khz.). Si se usan 6 líneas de frecuencia la resolución frecuencial es menor, pero la temporal es mayor, y se aplica en aquellas zonas en las que se espera efectos de preeco (transiciones bruscas de silencio a altos niveles energéticos).

La Capa III tiene tres modos de bloque de funcionamiento: dos modos donde las 32 salidas del banco de filtros pueden pasar a través de las ventanas y las transformadas MDCT y un modo de bloque mixto donde las dos bandas de frecuencia más baja usan bloques largos y las 30 bandas superiores usan bloques cortos. Para el caso concreto del MPEG-1 Audio Layer 3 (que concretamente significa la tercera capa de audio para el estandar MPEG-1) especifica cuatro tipos de ventanas: (a) NORMAL, (b) transición de ventana larga a corta (START), (c) 3 ventanas cortas (SHORT), y (d) transición de ventana corta a larga (STOP).

El modelo psicoacústico [editar]

La compresión se basa en la reducción del margen dinámico irrelevante, es decir, en la incapacidad del sistema auditivo para detectar los errores de cuantificación en condiciones de enmascaramiento. Este estándar divide la señal en bandas de frecuencia que se aproximan a las bandas críticas, y luego cuantifica cada subbanda en función del umbral de detección del ruido dentro de esa banda. El modelo psicoacústico es una modificación del empleado en el esquema II, y utiliza un método denominado predicción polinómica. Analiza la señal de audio y calcula la cantidad de ruido que se puede introducir en función de la frecuencia, es decir, calcula la “cantidad de enmascaramiento” o umbral de enmascaramiento en función de la frecuencia.

El codificador usa esta información para decidir la mejor manera de gastar los bits disponibles. Este estándar provee dos modelos psicoacústicos de diferente complejidad: el modelo I es menos complejo que el modelo psicoacústico II y simplifica mucho los cálculos. Estudios demuestran que la distorsión generada es imperceptible para el oído experimentado en un ambiente óptimo desde los 256 kbps y en condiciones normales. Para el oído no experimentado, o común, con 128 kbps o hasta

Page 16: 2-2-4 Conceptos diseño y creacion

96 kbps basta para que se oiga "bien" (a menos que se posea un equipo de audio de alta calidad donde se nota excesivamente la falta de graves y se destaca el sonido de "fritura" en los agudos). En personas que escuchan mucha música o que tienen experiencia en la parte auditiva, desde 192 o 256 kbps basta para oír bien. La música que circula por Internet, en su mayoría, está codificada entre 128 y 192 kbps.

Codificación y cuantificación [editar]

La solución que propone este estándar en cuanto a la repartición de bits o ruido, se hace en un ciclo de iteración que consiste de un ciclo interno y uno externo. Examina tanto las muestras de salida del banco de filtros como el SMR (signal-to-mask ratio) proporcionado por el modelo psicoacústico, y ajusta la asignación de bits o ruido, según el esquema utilizado, para satisfacer simultáneamente los requisitos de tasa de bits y de enmascaramiento. Dichos ciclos consisten en:

Ciclo interno [editar]

El ciclo interno realiza la cuantización no-uniforme de acuerdo con el sistema de punto flotante (cada valor espectral MDCT se eleva a la potencia 3/4). El ciclo escoge un determinado intervalo de cuantización y, a los datos cuantizados, se les aplica codificación de Huffman en el siguiente bloque. El ciclo termina cuando los valores cuantizados que han sido codificados con Huffman usan menor o igual número de bits que la máxima cantidad de bits permitida.

Ciclo externo [editar]

Ahora el ciclo externo se encarga de verificar si el factor de escala para cada subbanda tiene más distorsión de la permitida (ruido en la señal codificada), comparando cada banda del factor de escala con los datos previamente calculados en el análisis psicoacústico. El ciclo externo termina cuando una de las siguientes condiciones se cumple:

Ninguna de las bandas del factor de escala tiene mucho ruido. Si la siguiente iteración amplifica una de las bandas más de lo permitido. Todas las bandas han sido amplificadas al menos una vez.

Empaquetado o formateador de bitstream [editar]

Este bloque toma las muestras cuantificadas del banco de filtros, junto a los datos de asignación de bits/ruido y almacena el audio codificado y algunos datos adicionales en las tramas. Cada trama contiene información de 1152 muestras de audio y consiste de un encabezado, de los datos de audio junto con el chequeo de errores mediante CRC y de los datos auxiliares (estos dos últimos opcionales). El encabezado nos describe cuál capa, tasa de bits y frecuencia de muestreo se están usando para el audio codificado. Las tramas empiezan con la misma cabecera de sincronización y diferenciación y su longitud puede variar. Además de tratar con esta información, también incluye la codificación Huffman de longitud variable, un método de codificación entrópica que sin pérdida de información elimina redundancia. Actúa al final de la compresión para codificar la información. Los métodos de longitud variable se caracterizan, en general, por asignar palabras cortas a los eventos más frecuentes, dejando las largas para los más infrecuentes.

Estructura de un fichero MP3 [editar]

Un fichero Mp3 se constituye de diferentes frames MP3 que a su vez se componen de una cabecera Mp3 y los datos MP3. Esta secuencia de datos es la denominada "stream elemental". Cada uno de

Page 17: 2-2-4 Conceptos diseño y creacion

los Frames son independientes, es decir, una persona puede cortar los frames de un fichero MP3 y después reproducirlos en cualquier reproductor MP3 del Mercado. El gráfico muestra que la cabecera consta de una palabra de sincronismo que es utilizada para indicar el principio de un frame válido. A continuación siguen una serie de bits que indican que el fichero analizado es un fichero Standard MPEG y si usa o no la capa 3. Después de todo esto, los valores difieren dependiendo del tipo de archivo MP3. Los rangos de valores quedan definidos en la ISO/IEC 11172-3.

http://es.wikipedia.org/wiki/MP3

MIDI

son las siglas de Musical Instrument Digital Interface (Interfaz Digital de Instrumentos Musicales). Se trata de un protocolo industrial estándar que permite a las computadoras, sintetizadores, secuenciadores, controladores y otros dispositivos musicales electrónicos comunicarse y compartir información para la generación de sonidos.

Esta información define diversos tipos de datos como números que pueden corresponder a notas particulares, números de patches de sintetizadores o valores de controladores. Gracias a esta simplicidad, los datos pueden ser interpretados de diversas maneras y utilizados con fines diferentes a la música. El protocolo incluye especificaciones complementarias de hardware y software.

Historia [editar]

El repentino inicio de los sintetizadores analógicos en la música popular de los años 1970 llevó a los músicos a exigir más prestaciones de sus instrumentos. Interconectar sintetizadores analógicos es relativamente fácil ya que éstos pueden controlarse a través de osciladores de voltaje variable.

La aparición del sintetizador digital a finales de la misma década trajo consigo el problema de la incompatibilidad de los sistemas que usaba cada compañía fabricante. De este modo se hacía necesario crear un lenguaje común por encima de los parámetros que cada marca iba generando a lo largo del desarrollo de los distintos instrumentos electrónicos puestos a disposición de los profesionales del sector.

El estándar MIDI fue inicialmente propuesto en un documento dirigido a la Audio Engineering Society por Dave Smith, presidente de la compañía Sequential Circuits en 1981. La primera especificación MIDI se publicó en agosto de 1983.

Cabe aclarar que MIDI no transmite señales de audio, sino datos de eventos y mensajes controladores que se pueden interpretar de manera arbitraria, de acuerdo con la programación del dispositivo que los recibe. Es decir, MIDI es una especie de "partitura" que contiene las instrucciones en valores numéricos (0-127) sobre cuándo generar cada nota de sonido y las características que debe tener; el aparato al que se envíe dicha partitura la transformará en música completamente audible.

En la actualidad la gran mayoría de los creadores musicales utilizan el lenguaje MIDI a fin de llevar a cabo la edición de partituras y la instrumentación previa a la grabación con instrumentos reales. Sin embargo, la perfección adquirida por los sintetizadores en la actualidad lleva a la utilización de forma directa en las grabaciones de los sonidos resultantes del envío de la partitura electrónica a dichos sintetizadores de última generación.

Page 18: 2-2-4 Conceptos diseño y creacion

Hardware [editar]

Buena parte de los dispositivos MIDI son capaces de enviar y recibir información, pero desempeñan un papel diferente dependiendo de si están recibiendo o enviando información, también depende de la configuración del programa o programas que se puede usar dicho dispositvo. El que envía los mensajes de activación se denomina Maestro (del inglés master, o ‘amo’) y el que responde a esa información Esclavo (slave).

Aparatos [editar]

Los aparatos MIDI se pueden clasificar en tres grandes categorías:

Controladores: generan los mensajes MIDI (activación o desactivación de una nota, variaciones de tono, etc). El controlador más familiar a los músicos tiene forma de teclado de piano, al ser este instrumento el más utilizado a la hora de componer e interpretar las obras orquestales; sin embargo, hoy día se han construido todo tipo de instrumentos con capacidad de transmisión vía interfaz MIDI: guitarras, parches de percusión, clarinetes electrónicos, incluso gaitas MIDI.

Unidades generadoras de sonido: también conocidas como módulos de sonido, reciben los mensajes MIDI y los transforman en señales sonoras (recordemos que MIDI no transmite audio, sino paquetes de órdenes en formato numérico).

Secuenciadores: no son más que aparatos destinados a grabar, reproducir o editar mensajes MIDI. Pueden desarrollarse bien en formato de hardware, bien como software de computadora, o bien incorporados en un sintetizador.

Éstos son los tres grandes tipos de aparatos MIDI. Aun así, podemos encontrar en el mercado aparatos que reúnen dos o tres de las funciones descritas. Por ejemplo, los órganos electrónicos disponen de un controlador (el propio teclado) y una unidad generadora de sonido; algunos modelos también incluyen un secuenciador.

http://es.wikipedia.org/wiki/MIDI

El morphing:

técnica de retoque de imagen muy utilizada en televisión, música, cine, revistas, etc. También se suele usar para que los usuarios creen divertidas imágenes. El morphing cuenta con 2 fotografías, una al principio y otra al final. Mediante esta técnica se logra una secuencia que une las 2. Si se captura la imagen intermedia de la misma, se vería una unión de ambas imágenes. Por ejemplo: en el caso de dos personas, resulta una tercera irreal con los rasgos de las dos reales.

http://aguirregimena-imdtp1.blogspot.com/2007/09/que-es-el-morphing.html