tecnologia 2013

25
Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología. Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos ser más pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de nano escala como la materia programable. Hecho: Nano tipografía ha tenido sus inicios en la invención del microscopio en 1590. El arte de la computadora muestra un nano tubo convertido en anillo. La Nano- litografía es un método usado para crear tableros de circuitos El poder de la información

Upload: bryan-moreno

Post on 25-Mar-2016

219 views

Category:

Documents


0 download

DESCRIPTION

MAGAZINE TECNOLOGIES

TRANSCRIPT

Page 1: TECNOLOGIA 2013

Nano-litografía (1999) Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son, sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la nanotecnología.

Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos ser más pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que podrían ser usadas en otra tecnología de nano escala como la materia programable.

Hecho: Nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.

El arte de la computadora muestra un nano tubo convertido en anillo. La Nano-litografía es un método usado para crear tableros de circuitos

El poder de la información

Page 2: TECNOLOGIA 2013

Nanotubos de Carbono (1991)

En 1991 el físico Japonés Sumio Lijuma descubrió los nanotubos de carbono, considerado uno de los más importantes descubrimientos en la historia de los físicos. Los nanotubos pueden ser construidos por un método de evaporación en arco, en el cual una corriente de 50 amp pasa en medio de dos electrodos de grafito en helio. Los resultados son notables a la medida de 3 a 30 nanómetros en diámetro.

Una de la más impresionante propiedad de los nanotubos de carbono es su fuerza. Su resistencia a la presión es 5 veces que la del metal, y su fuerza de tensión está 50 veces arriba que la del metal. Los nanotubos de

carbono pueden ser también usados como semiconductores. Algo de la conductividad de los nanotubos es más grande que la del cobre, por ejemplo.

Científicos e ingenieros están buscando maneras de usar los nanotubos en la construcción industrial tanto como en aplicaciones aeroespaciales.

Hoy en día, las pantallas de paneles planos y algunos microscopios y aparatos sensibles incorporan nanotubos de carbono. En el futuro muchos artículos diarios desde los chips de las computadoras de los hogares hasta las baterías de los autos podrían ser hechos de nanotubos de carbono.

Los nanotubos de carbono están hechos

Page 3: TECNOLOGIA 2013

WORLD WIDE WEB (1990)

El ancho mundo de la web a cambiado vidas desde siempre conectando computadoras a través del mundo, de esta manera haciendo toda la información y su contenido al alcance para todos. Además el termino ancho mundo de la web e internet son usados como intercambiables, pero no son lo mismo. El internet es el sistema que conecta las redes de información esa es la red. Es posible tener internet sin la red pero la red no puede existir sin el internet.

El internet empezó en 1962 como ARPANET, una red de dos computadoras adquiridas por el ejército de estados unidos. La red creció con más de un millón de computadoras para 1992. En 1990 el científico británico Tim Berners –lee invento la web, eso es el primer buscador de web y páginas web con el cual accedes vía internet, páginas web con hipertexto- texto desplazado en un monitor con hiperconectores a otros documentos- en un monitor.

Un mapa global de la internet mostro una red extensa para la búsqueda de hoy

Page 4: TECNOLOGIA 2013

4 BUCKYBALL (1985)

A principios de 1965 científicos predijeron la teoría existente de una molécula hecha de múltiples átomos de carbón en forma de esfera o cilindro. Pero 20 años más tarde Richard Smalley y otros profesores de Houston, Texas y profesores de Sussex, Inglaterra se centraron en el láser, ellos generaron imitando simétricamente y geométricamente, en esta notable semejanza hicieron construcciones de ángulos. El arquitecto R. Buckminster llamo al nuevo kminsterfullerene o buchyball para acortarlo. El recibió el premio novel en 1996.

Cada fullerene tenía tecnología implicada en moléculas. Análisis de buckyball hiso entender la manipulación de hojas conductoras de calor y materiales de silicón basado en dispositivos como computadoras, celulares y eléctricos similares.

El material también exhibe increíble resistencia a la tracción así prometiendo nuevas posibilidades en arquitectura, ingeniería y diseños de avión.

En 1991 un investigador japonés Sumio Lijima descubrió un oblond versión de el buckyball últimamente llamado nanotubo, estimulando la revolución de la nanotecnología del siglo 21

Page 5: TECNOLOGIA 2013

5 SISTEMA DE POSICION GLOBAL (1978)

LOCALIZADO AL RREDEDOR DE 12,00O MILES DE LA TIERRA Y VIAJA A UNA VELOCIDAD DE 7,000 MILES POR HORA, EL SATELITE BASADO EN EL SISTEMA DE NAVEGACION FUE LANZADO EN 1978 POR ESTADOS UNIDOS. DEPARTAMENTO DE DEFENSA PARA FINES MILITARES POCO DESPUES, LOS FABRICANTES DE GPS SAI'S ATIENDEN RECONOCIDO SU MASA DE MERCADO POTENCIAL Y CLAMA POR SU USO COMO UNA APLICAION CIVIL. EL DEPARTAMENTO DE DEFENSA CUMNPLIO CON SU PETICION EN EL DECENIO DE 1980.

GPS, QUE ES EXTREMADAMENTE PRECISO, FUNCIONA SOBRE EL PRINCIPIO DE TRIANGULACION, MEDIANTE EL LA POSICION DE UN DETERMINANDO OBJETO (UNA PERSONA EN UN COCHE, POR EJEMPLO) ES DETERMINANDO POR LA DISTANCIA DEL OBJETO DE CUATRO SATELITES EN LA RED CON UN DISPOSITIVO QUE ES COMUNICADO. LA RED GPS, ESTA COMPUESTA POR 24 SATELITES CON 3 A LA ESPERA EN CASO DE FRACASO, Y CADA UNO DE LOS SATÉLITES HACE DOS VUELTAS COMPLETAS ALREDEDOR DEL PLANETA TODOS LOS DIAS.

ASI PUES, ¿QUÉ SIGNIFICA EL FUTURO DEL GPS? PARA ESTAR SEGURO, LA RED SIGUEN SIENDO MÁS PRECISOS Y A UNA CADA VEZ MAYOR DE GRANO FINO INFORMACIÓN DE UN LUGAR DETERMINADO.LOS CONDUCTORES QUE AÚN NECESIDAD DE TENER SUS OJOS DE LA CARRETERA A MIRAR EL DISPOSITIVO GPS. PERO ESO PUEDE CAMBIAR. UNA EMPRESA VIRTUAL CALLET DECISIONES SÓLIDAS ESTÁ TRABAJANDO EN UNA SOLUCIÓN LLAMADA VIRTUAL CABLE, QUE ESTÁ DISEÑADO PARA SER INTEGRADO EN UN COCHE DE WHINDSHIELD. UNA LÍNEA ROJA QUE PARECE SEGUIR EL PAISAJE GUÍA AL CONDUCTOR A SU DESTINO.

Page 6: TECNOLOGIA 2013

LACOMPUTADORA PERSONAL (1997)

De acuerdo a la compañía Nielsen, en 2008, más del 80 por ciento de las familias de E.U tenían una computadora en casa, y de estas, cerca del 90 por ciento tenían acceso a internet. Ya sea uno de los primeros modelos –como el Commodore PET (Muy popular en las escuelas en la década de 1970). La Apple II (Uno de los primeros microcomputadores de producción masiva) y la IBM PC (Diseñada para reemplazar los primeros dos dispositivos en los hogares)- O lo ultimo y lo mejor en maquinas, todas las computadoras tienen los mismos componentes básicos. Una computadora está construida con una tarjeta madre (Mother Board), un procesador, una unidad central d procesamiento (CPU), memoria, controladores, un ventilador y cables. Agregados a la computadora están los periféricos: el ratón,

teclado, monitos, bocinas, impresora, escáner y más. Estos componentes trabajan juntos para correr software: el sistema operativo y programas adicionales, tales como el procesador de textos, las hojas de cálculo, o un programa editor de fotografías.

Con la computadora personal, la tecnología de la computación ha llegado a estar disponible al público en general. Las computadoras han dejado de ser grandes, o piezas de equipos demasiado costosos solo grandes corporaciones o agencias gubernamentales pueden pagar o computadoras que solo los científicos pudieran operar. Este significante desarrollo ha permitido el nacimiento de nuevas industrias, ha cambiado el cómo la gente se comunica e irrevocablemente ha alterado su trabajo y vidas personales.

6

Page 7: TECNOLOGIA 2013

A diferencia de la realidad virtual, cual está basado en un ambiente generado por computadora, el aumento de realidad está diseñado para aumentar el mundo real, con la súper presentación en audio, visual, y otros elementos de tus sentidos.

El investigador de Boeing Tom Caulled fue el primero en acuñar el término de aumento de realidad en 1990 para describir la explosióndigitalusada por los electricistas de las aerolíneas, cual combina graficas virtuales con la realidad física. Pero el concepto es mucho más antiguo que eso. En la película Quien engaño al conejo Roger de 1988, es un buen ejemplo de esta tecnología- y originalmente antes en una versión simple en las demostraciones de las flechas amarillas de los anunciadores de la televisión en los juego de futbol americano cuando analizaban las jugadas.

El aumento de realidad actualmente está dirigido al desarrollo de consumo de electrónicos porque esta es usada en las aplicaciones the Smartphone. Una aplicación llamada Layar usa la cámara de un celular

y las capacidades de un GPS para obtener la información de los alrededores de una área. Layar entonces muestra la información de ciertos sitios cercanos, como restaurantes o cines, entonces aparece información de estos en la pantalla del celular. Apunta el celular hacia unaedificación y Layr te dirá si en esaedificaciónestán contratando o localiza edificios históricos en la enciclopedia en línea Wikipedia.

Hay algunas limitaciones para el aumento de realidad que actualmente existen; el sistema GPS tiene solo un rango de 30 pasos, las pantallas de celular son pequeñas, y haytambién unos entendimientos en las cláusulas de privacidad, especialmente la tecnología afecta más y más nuestras vidas. Sin embargo, el futuro de estas tecnologías es brillante, con ambición pronto será usado para los videos juegos, la educación, seguridad, medicina, negocios y otras áreas.

AUMENTO DE REALIDAD

Page 8: TECNOLOGIA 2013

Aprender más.

Como títulos en una pagina, la realidad aumentada puede

Proporcionar antecedentes y la explicación, tal como una

Biografía del arquitecto Frank Gehry al visitar sus edificios de

firma.

Orientarse y navegar.

Sistemas de posicionamiento global permitirán etiquetas

geográficas que se asignan a una persona su ubicación en

cualquier momento y vías alternas.

Tomar decisiones

Considera opciones y toma decisiones virtualmente. Aquí las galerías están representadas por imágenes del museo holdings, tal como

Richard Serra’s la materia del tiempo

Page 9: TECNOLOGIA 2013

ELECTRONICA MOLECULAR (1974)

Como su nombre implica, la electronica molecular se refiere al uso molecular de componentes para la construccion de dispositvos electronicos. Desde que los quimicos, Mark Ratner and Ari Aviram crearon el primer dispositivo electrónico molecular rectificado en 1974, los cuales se convirtieron de corriente alterna a corriente directa. Los científicos tuvieron que continuar en avanzar juntos y entender de la ciencia y sus aplicaciones potenciales. Muchos investigadores han trabajo para reemplazar semiconductores en todas

sus aplicaciones con los interruptores moleculares electrónicos

Algunas compañías están preparadas para insertar interruptores en las computadoras y en dispositivos electrónicos manufacturados. Un ejemplo es en Huntsville, Alabama basada en la compañía llamada CALMEC el cual ha creado un dispositivo molecular, este dispositivo puede ser usado en semiconductores electrónicos el cual permiten que sea monitorizada a tecnología más de lo que es en día.

El metal oro es depositado en agua para formar circuitos electrónicos para los dispositivos mecánicos micro electrónicos (MEM).

Page 10: TECNOLOGIA 2013

10

es difícil decir qué es más ubicuo en la palabra de hoy el ordenador personal o el teléfono celular que fue inventado en 1973 por Martin Cooper cuando era el director de investigación y desarrollo de Motorola. Un teléfono celular es en realidad una radio, si bien de manera muy sofisticada., Es un full-duplex devece, lo que significa que dos frecuencias diferentes se utilizan para hablar y escuchar. La comunicación se produce en los canales, de los cuales el teléfono celular promedio contiene más de 1.650. En una red de telefonía celular típica un vehículo, que proporciona el servicio de telefonía celular se asigna 800frecuencies que se proporciona intohexagonal unidades llamadas células. Cada célula contiene cerca de diez millas cuadradas Cada célula tiene su propia estación base y la torre de los dos teléfonos celulares y la torre celular tienen bajo potencia transmisores en ellos. el teléfono y la célula torre utilizar una frecuencia especial para comunicarse entre sí (que esta frecuencia no se puede encontrar una fuera de alcance o no de servicio de mensaje se visualiza en la pantalla del teléfono como un usuario utiliza el teléfono y películas a partir de una célula a otra. el frecuncy se pasa de una célula a la siguiente. las montañas Carner la frecuencia necesaria para comunicarse con la persona en el otro extremo controla continuamente la señal strengh.It las películas de llamantes de una portadores networkto que de otra, la llamada no será dado de baja de la mandíbula, pero las personas que llaman pueden dejar cuando ve a los cargos que significa en su factura Los primeros teléfonos móviles eran bullky y tenía antenas (izquierda) de hoy los teléfonos inteligentes (abajo) son más pequeños y mucho más potente.

Page 11: TECNOLOGIA 2013

Gracias al Internet, más aspectos de la vida se mueven “en línea” como nunca antes. Lo que comenzócomo una colaboración entre academia, gobierno e industria en los últimos años de los 60´s y losprimeros de los 70´s, se ha visto envuelto en una vasta información de infraestructura. El internet funciona gracias a solo unas cuantas tecnologías. La primera de ellas es el paquete deswitch”, que contiene la información en unidades especialmente formateadas o paquetes, que estándirigidos desde la fuente al destinatario vía red de trabajo y enrutadores. Cada paquete contiene lainformación de la dirección que identifica al remitente y al destinatario. Usando estas direcciones, la red el trabajo y los enrutadores determinan la mejor manera de transferir el paquete entre ambos puntos enel camino para su llegada. En un segundo plano, el Internet está basado en un concepto clave conocido como arquitectura de red

de trabajo abierta. En este sentido, esto es lo que hace que el Internet sea Internet Con este concepto,diferentes proveedores pueden usar cualquier red de trabajo individual que ellos quieran, y la red detrabajo funciona junta a través de esta arquitectura. De esta manera, las redes de trabajo actúan demanera semejante en una unión que ofrece un servicio de principio a fin. Una tercera tecnología importante es el protocolo de control de transmisión /protocolo de Internet oTCP/IP. Esto es lo que hace posible una arquitectura de red de trabajo. Se piensa de esto como elsistema básico de comunicación del lenguaje de Internet. TCP transforma un mensaje o documento enpaquetes más pequeños que son transmitidos a través del Internet y el IP lee la dirección de cadapaquete de manera que obtiene el correcto destino. Cada computadora en la red checa esta direcciónpara determinar de donde es el mensaje.

<<HECHO: Se estima que arriba de 2 billones de personas en el mundo ingresaron a Internet en el 2011.

Un mapa del uso del Internet muestra la densidad de conexiones en Norte América y Europa.

Page 12: TECNOLOGIA 2013

Por el año 1959 el objetivo de crear dispositivos más inteligentes estaba en las mentes de científicos y investigadores, y ellos hicieron algunos progresos. Por ejemplo, inventores desarrollaron motores que eran sobre el tamaño de un dedo. Richard Feynman, profesor de física del instituto de tecnología de california , ambicionaba en extremo hacer grandes avances. En la noche del 29 de diciembre de 1959, el dio su nuevo famoso discurso de nanotecnología en el evento para la sociedad de físicos americanos. En su discurso, titulado “hayun montón de espacio en la parte inferior”el describió la habilidad para escribir la enciclopedia británica entera en la cabeza de un código usando herramientas y maquinas del tamaño de un átomo. La visión de nanotecnología de Feynman consideraba que tiene muchas aplicaciones. El basaba sus revolucionarias ideas en el hecho de que cada célula viva de un organismo contenía toda la información genética necesaria para crear ese organismo. Esta fue la evidencia de la que almaceno más cantidades de información por minuto de objetos como fuera posible.

EL PODER DE LA INFORMACION

NANOTECNOLOGIA (1959)

Los vidrios resistentes al fuego contienen una capa de nanopartículas de sílice con paneles que ayudan a resistir temperaturas de hasta 1800° F. por más de 2 horas.

Page 13: TECNOLOGIA 2013

Los circuitos integrados (iCs) son encontrados en casi todos los electrónicos usados hoy endía, desde los celulares hasta los equipos de televisión. Un circuito e electrónico complejo.Cada CI contiene un diodo, un transistor, y un capacitor. Estos componentes trabajan juntospara regular el fluido de electricidad atreves de dispositivo. Pero los circuitos integradostienen desventajas. Todas las conexiones deben permanecer intactas o el dispositivo “n” trabaje y la rapidez es definitivamente un factor. Si los componentes del CI son muy largos o los cables de conexión de los componentes son largos, por ejemplo, l dispositivo eslento e inefectivo. En 1958, los americanos Jack Kilby y Robert Noyce separadamente resolvieron esteproblema usando el mismo material para instruir ambos, el circuito integrado y el chipcolocado.

Los cable4s y componentes no tan largos tienen que ser ensamblados manualmente. Estoscircuitos pueden ser hechos más pequeños y el proceso manual puede ser automático.(Para demostrar solo que tan pequeños estos pueden ser, consideran esto: el Ci originaltenía un solo transistor tres resistores y un capacitor y era del tamaño del dedo meñique den adulto. Hoy en día un Ci más pequeño que un penique puede sostenes 125 millones detransistores.) En 1961 el primer circuito integrado comercialmente disponibles fue integrado fueintroducido y los productores de computadoras inmediatamente vieron la ventaja queofrecían. En 1968 Noyce fundo INTEL, la compañía que introdujo el microprocesor el cualtomo un CI un paso adelante para posicionar la unidad de proceso central de lacomputadora memoria y controles de entada y salida con un pequeño chip.

<< HECHO: La invencion de los semiconductores en 1911 allanaron el camino para el desarrollo de los circuito

CIRCUITOS INTEGRADOS (1958)

Page 14: TECNOLOGIA 2013

En el pasado, la computadora era tomada en una infraestructura física: rutas, enlace de datos, hardware y servidores. Estos objetos aun no desaparecen- y no parece que vayan a desaparecer al mismo tiempo- pero el proceso de entrega de fuentes y servicios se transforma en un modelo en donde el internet es usado para almacenar las aplicaciones necesarias. Un inmediato beneficio de este modelo es un costo menos elevado. Por ejemplo, las compañías no comprarían licencias de software individual a cada empleado. Con ´´nubes de informática´´, una simple aplicación daría a múltiples usuarios un acceso remoto a software. La dirección de un servidor, como Gmail de google, es un ejemplo de computación en las nubes. Para entender el concepto de computación en las nubes, ayuda a pensar en los términos de las capas. Los principios de un proceso que es visto e interactuado por los usuarios con- la cuenta de Facebook, por ejemplo. El final de un proceso consiste en la arquitectura de que corre la interface del software y el hardware hacia el primer proceso. Porque las computadoras son establecidas en una red, las aplicaciones pueden tomar ventaja de todas las combinaciones de cableado como si estuvieran conectadas a una maquina en particular. Mientras hay ventajas de este modelo, no existe sin inconvenientes. Privacidad y seguridad son dos de

las más grandes preocupaciones. Después de todo, la compañía permite importante, datos potentemente sensibles que están en línea, donde en teoría, nadie puede accesar a ellos. Las compañías que proveen servicios de ‘’ nubes de informática’’, sin embargo, son altamente motivadas para garantizar su privacidad y seguridad- su reputación está estancada. Una autenticación del sistema de seudónimos y contraseñas u otras autorizaciones para los empleados ayudaría a asegurar la privacidad. · 3 las aplicaciones de computación en las nubes, por definición, en las redes de todo el mundo. · 6 la computadora personal es el significado por el cual la mayoría de gente accesa a la nube. · 8 la clave pública criptográfica enlaza el cifrado electrónico transmitido para la información privada. · 11 el internet es la fundación de computación en las nubes que permite a los usuarios a correr aplicaciones en otras computadoras tanto como en casa.

NUBES DE INFORMATICA

Visitar sitios web de medios sociales tales como Facebook, Twiter, Flickr, o el disparo de National Geographic (en la imagen) y puedas entrar en la nube.

Page 15: TECNOLOGIA 2013

· 19 una gran escala de una red eléctrica suministrada es necesario para el uso de la infraestructura de

computación en las nubes.

15 Teoria de la Informacion (1948)

eoría de la información tiene su origen en un documento de 1948 por el ingeniero americano matemático Claude Shannon: "La teoría matemática de comunicación esta

teoría permite que la información en un mensaje a ser cuantificados, usando como bits de datos que representan uno de dos estados: Dentro o fuera de. También dicta cómo codificar y transmitir información en la presencia de "ruido". Genérale puede corromper un mensaje en el camino. en el oído de la teoría de Shannon es el concepto de incertidumbre. La mayor incertidumbre que hay con respecto a lo que es la señal. La más vista de información tiene la obligación de asegurarse de que la información esencial se transmite. Shannon llamó a esta incertidumbre-medida basada entro de información. Que matemáticamente probado que una señal puede ser codificado-reducido a su forma más simple. Eliminando de este modo la interferencia o ruido para transmitir un mensaje claro y sólo el mensaje. Aunque hay siempre una posibilidad de error en transmisión, la aplicación de la teoría de la información ampliamente minimiza esa posibilidad. A través de teoría de la codificación, una rama importante de la teoría de la información, los ingenieros de estudiar las propiedades de los códigos para el diseño eficiente propósito de, por datos fiables la eliminación de redundancia

y los errores en los datos transmitidos. Tiene dos características principales.

Codificación de fuente es un intento para comprimir los datos de una fuente con el fin de transmitir los datos de forma más eficiente en una fuente con el fin de transmisión de los datos de manera más eficiente (si alguna vez ha "comprimido" en un archivo para enviar a alguien). Codificación de canal añade bits de datos extra para hacer la transmisión de datos más resistentes a las perturbaciones presentes

en el canal de transmisión. >>HECHO, la teoría de la información se desarrolló a partir de Shannon deseo de aclarar el "ruido" en las conversaciones telefónicas

T

Page 16: TECNOLOGIA 2013

EL PODER DE LA INFORMACION

TRANSISTOR (1947) Transistor es un tipo de semiconductor, sin que módem dispositivos electrónicos -. Incluyendo ordenadores-no podría funcionar Aunque hay varios tipos diferentes de transistores, todos contienen una pieza sólida de material semiconductor, con al menos terminales que se pueden conectar a un dispositivo externo transferencias circuito. Actuales de la tecnología a través de un material que normalmente tiene una resistencia alta (en otras palabras, una resistencia): por lo tanto, es una resistencia de transferencia, acortado a transistor. Antes de la introducción del transistor, los ordenadores operados por medio de tubos de vacío, que eran voluminosos y caros para producir. Los ordenadores más potentes contenían miles de ellos, por lo que los primeros ordenadores llena habitaciones enteras. estadounidenses John Bardeen y Walter Brattain en los Laboratorios Bell observó que cuando los

contactos eléctricos se aplicaron a un cristal de germanio, la energía generada fue mayor que la potencia utilizada. Americano William Shockley, también físico, vio el potencial en esto, y en los meses el equipo ha trabajado para ampliar su conocimiento de los semiconductores, en 1956, los tres hombres ganó el premio Nobel de Física por la invención del transistor. ¿Por qué es tan importante el transistor a la electrónica moderna? entre otros beneficios, que pueden ser producidos en masa usando un proceso altamente automatizado para una adición cost.in relativamente bajo. Transistores se puede producir por separado o, más comúnmente, empaquetado en circuitos integrados con otra componentes para producir circuitos electrónicos completos.

16

Page 17: TECNOLOGIA 2013

EL PODER DE LA INFORMACION

Aunque la mayoría lo conoce como un prolífico autor de ciencia ficción, Arthur C. Clarke hizo una contribución significante a las tecnologías de la comunicación. En octubre de el esquematizó su concepto de satélites de comunicación geoestacionario en un documento titulado “Relevancia Extraterrestre - ¿Pueden las estaciones espaciales dar cobertura de radio mundial?” Aunque Clarke no fue el primero en llegar con la teoría, el fue el primero en popularizarla. El término geoestacionario se refierea la posición de la órbita del satélite alrededor de la Tierra. La orbita de un satélite “geosynchronus” se repiten regularmente a través de puntos específicos. Cuando esa orbita regular yace cerca del Ecuador y es circular, es llamado: geoestacionario

Las ventajas de los satélites geoestacionarios son muchas. Recibiendo y transmitiendo antenas al suelo no es necesario enviar satélites porque no…… en sus orbitas. Las antenas no enviadas son más baratas que las antenas enviadas, así que el costo de operación como un sistema, son reducidos. Las desventajas: Porque los satélites están tan altos, las señales de radio tardan un poco para ser recibidas y transmitidas, resultando en un pequeño pero significante retraso. En adición, estos satélites tienen cobertura geográfica incompleta porque las estaciones terrestres a mayor una mayor altura más o menos 60º de latitud tienen dificultad …..a elevaciones bajas. Independientemente de las desventajas, no se puede negar que las comunicaciones satelitales han revolucionado áreas como las comunicaciones globales, radiodifusión televisiva y predicciones de clima, y tienen

SATELITES DE COMUNICACIÓN (1945)

PODER DE LA INFORMACION

Page 18: TECNOLOGIA 2013

EL PODER DE LA INFORMACION

defensa importante y aplicaciones de inteligencia.

18 Ondas de Radio.

El físico escoses James Clerk Maxwell fue uno de los primeros científicos en especular sobre la naturaleza del electromagnetismo. Las ecuaciones que el formulo describen el comportamiento de los campos eléctricos y magnéticos, así como la importancia de sus interacciones. Maxwell postulo que los campos eléctricos y magnéticos viajan a través de de espacio vacío, en forma de ondas, a una velocidad constante. También propuso que las ondas de luz y las ondas de radio son dos formas de de radiación electromagnética.

En 1888. El físico alemán Heinrich Hertz se convirtió en la primera persona en demostrar satisfactoriamente la teoría de Maxwell al probar la existencia de las ondas de radio. Hertz lo logro al construir un dispositivo que pudo detectar altas e intensas frecuencias de ondas de radio. Publico su trabajo en un libro llamado Ondas Eléctricas: Siendo búsquedas en la propagación de acciones eléctricas finitas a través del espacio. Estos experimentos expandieron en gran cantidad el campo de transmisiones electromagnéticas, y otros científicos en la rama eventualmente apoyaron la teoría de de Hertz de la recepción de la antena.

Hertz también encontró que las ondas de radio pueden transmitirse a través de diferentes maneras y ser reflejadas por otras. Este descubrimiento ayudo a la invención del radar. El incluso implemento la manera de comunicarnos inalámbricamente, sin embargo el nunca reconoció la importancia de sus experimentos.

En reconocimiento a sus contribuciones, el diseño de hertz ha sido una parte oficial del sistema métrico internacional desde 1933. Es el término usado para las terminaciones de frecuencia radiales y eléctricas.

Page 19: TECNOLOGIA 2013

EL PODER DE LA INFORMACION

Gran Escala Eléctrica en la Red (1880)

El inventor Thomas Edison fue la primera persona que dispuso e implemento la generación de poder eléctrico y la distribución a casas, negocios y fabricas, una llave “Hito” en el desarrollo del moderno mundo de la industrialización. Edison patento este sistema en 1980 en lugar de capitalizar en su invención de la lámpara eléctrica, él no era nada, sino un sagaz hombre de negocios. El 17 de Diciembre de 1880 él encontró la compañía de iluminación “Edison”, sede en la calle “Pearl” en la ciudad de Nueva York. El 4 de Septiembre de 1882, Edison conmuto en su estación “Pearl”, generando estaciones con sistemas de poder de distribución eléctrica, las cuales previeron 110 volteos de corriente directa a cerca de 60 clientes en Lower Manhattan.

Aunque Edison perdió la entonces llamada “Guerra de Corrientes” eso permitió como consecuencia que la corriente alterna fuera el sistema a través del cual se distribuyera la energía eléctrica. Su sistema de distribución es aun importante por pocas razones. El valor comercial fue establecido como tal y eso ayudo a simular avances en el campo de la ingeniería eléctrica, ya que la gente comenzó a ver al campo como una ocupación valiosa. Por ejemplo, el ingeniero eléctrico Americano Charles Proteus Steinmetz a través de su trabajo en corrientes alternas, hizo posible la expansión de la industria eléctrica en Estados Unidos formulando teorías Matemáticas para ingenieros quienes estuvieron diseñando motores eléctricos para el uso de la industria.

Hecho: El sistema de poder eléctrico en Estados Unidos, es el más grande en el mundo.

Page 20: TECNOLOGIA 2013

EL PODER DE LA INFORMACION

Fransue Alberto Angulo Terova y Luz María Cruz Sanchez 2A

LÓGICA BOOLEANO (1854)

La operación de las computadoras está basada en una cosa:

Determinar si una puerta o cambio está abierto o cerrado, lo cual es usualmente señalado por los numero 0 y 1. Esta es la esencia de la Lógica Booleano que subraya toda la informática moderna. El concepto fue llamado después por el matemático ingles George Boole, quien definió un sistema de lógica algebraica en 1854. La motivación de Boole para crear esta teoría fue su creencia de que los símbolos de la operación matemática podrían estar separados de esas cantidades y podrían estar tratadas como distintos objetos de cálculo.

Cercano al siglo siguiente, Claude Shannon demostró que los circuitos eléctricos con transmisiones eran modelos perfectos para la lógica de Boolean, un hecho que permite el desarrollo

de la computadora eléctrica.las computadoras usan la lógica de Boolean para decidir si una declaración es verdadera o falsa ( esto tenía que ser con una evaluación, no verazmente). Estas son tres puertas básicas: Y, O Y NO. La operación Y dice que si solamente todas las entradas están encendidas las salidas estarán encendidas. La operación O dice que si alguna entrada está encendida la salida estará encendida. La operación NO dice que las salidas tendrá un estado opuesto al de la entrada.

HECHO.: aunque inventada en el siglo XIX, las formas lógicas de Boolean las bases de la mayoría de las investigaciones de internet del siglo XXI.

Page 21: TECNOLOGIA 2013

EL PODER DE LA INFORMACION

0: ABIERTO

1: CERRADO

La tradición algebraica en lógica, desarrollado por el matemático ingles George Boole (anteriormente). Hoy encontramos esta aplicación den varios tipos de tomas de daciones

materia programable 21

Materia programable La materia programable la cual fue la primera introducida por Massachusetts instituto de tecnología (MIT) los investigadores Tommaso Tofoli y Norman Margolus en el tratado de 1991, es rápidamente convertido en realidad, albeit relativamente a pequeña escala. La materia programable es materia que puede simular o formar diferentes objetos como un resultado de su propio uso puesto dentro de nuestras computaciones. Algunas materias programables son diseñadas para crear diferentes formas, mientras que otra materia, tal como las células biológicas sintéticas, es programada para trabajar como un interruptor genérico que encienda las señales de otras células, para cambiar las propiedades como el color o la forma. El potencial de los beneficios y aplicaciones de la materia programable en particular la posibilidad del uso de este para interpretar información procesando y otras formas de la informática, muchos de los éxitos son creados en las investigaciones del mundo.

Page 22: TECNOLOGIA 2013

Desde la publicación del tratado de Toffoli y Margolus´s ellos predijeron que han trabajado mucho para desempeñar su potencial. En 2008 por ejemplo, la corporación de intel anuncio que estas investigaciones han sido usadas para materia programable para desarrollar prototipos tempranamente de un dispositivo de teléfono celular en la escala de centímetro y milímetro. En 2009 la agencia de proyectos de la defensa de investigaciones avanzadas de estados unidos. El departamento de la defensa reporto que 5 equipos diferentes de investigadores de la universidad de Harvard . MIT. Y la universidad de Cornell fue haciendo progresos en la investigación de materia programable. En el 2010 estor equipos encabezados por Daniela Rus de MIT, anuncio este suceso en la creación de estas hojas de origami. La agencia de la defensa avanzada en la investigación de proyectos espera por conceptos de futuras aplicaciones, por ejemplo: un soldado equipado con luces fuertes de materia programable que puede ser moderno. Justamente acerca algo que ella o el necesita.

Page 23: TECNOLOGIA 2013

EL PODER DE LA INFORMACIÓN

Diferencia

del motor (1822)

harles Babbage un filósofo matemático inglés, inventor e ingeniero mecánico, realizado en 1822 que un motor de clases podría ser programado con el uso de tarjetas de papel que guardan información en las columnas que contienen patrones de orificios perforados. Babbage vio que una persona podría programar una serie de instrucciones por medio

de tarjetas perforadas, y la máquina automáticamente podría llevar a cabo esas instrucciones. El uso que vaya de la máquina diferencial de Babbage fue calcular diversas funciones matemáticas, tales como logaritmos. A pesar de que nunca fue terminado, se considera una de las primeras computadoras de uso general digitales.

>>HECHO: en 2011 los investigadores Británicos comenzaron a construir el motor diseñado Babbage pero construido nunca.

Elizabeth Cortés Juárez & Guillermina Acosta González 2”D

Page 24: TECNOLOGIA 2013

NUMEROS BINARIOS /

CÓDIGO BINARIO (1697)

En 1670 el filósofo y matemático alemán Gottfried Wilhelm Leibniz, -en cuyos logros se incluye la invención del cálculo y muchos avances importantes en las matemáticas, la lógica y la ciencia- invento una máquina aritmética que podía multiplicar así como sumar.

Leibniz también vio que su máquina podría ser modificada para usar un sistema binario de cálculo,-- un concepto que está en el corazón de la computación digital. En el sistema de Leibniz, el término binario se refiere a un sistema de número mediante el cual todos los valores eran expresados con

los números 1 y 0. El sistema binario puede entenderse mejor por su comparación con el sistema de base 10, de hoy que se expresa usando números del 0 al 9. En la base 10, el número 367, por ejemplo, se representa 3 x 100 + 6 x 10 +7 x. Cada posición en el numeral 367 representa una potencia de diez, comenzando con cero y aumentando de derecha a izquierda. En el sistema binario, o base 2, cada posición representa una potencia de dos. Así, en binario, 1101 representa 1 x 23 + 1 x 22 + 0 x21 +1 x 20 , lo que es igual 8+ 4+ 0+ 1, o 13.

23

En código binario, Toda información Es espesada Por los números 1 y 0.

Page 25: TECNOLOGIA 2013

EL PODER DE LA INFORMACION

Sistema numérico Moderno (800)

l sistema de numeración hindú-árabe sobre la que se basa el sistema de numeración módem se desarrolló probablemente en el siglo IX por los matemáticos indios, adoptadas por el matemático persa Al-Khwarizmi y matemático árabe Al-Kindi, y se

extendió a todo el mundo Westem por la alta Edad Media. Las características del sistema de numeración módem son los conceptos de valor relativo y valores deciman. El sistema de valor posicional indica que el valor de cada dígito en un número de varios dígitos depende de su posición. Tome el número 279, por ejemplo. De acuerdo con el sistema de valor de posición, el 2 representa las decenas, y el 9 representa unos. Así, el número aparece como 279. Mientras tanto, el sistema decimal relacionada presenta números en incrementos de diez. En otras palabras, cada valor de posición es diez veces el valor del lugar antes de ella. El sistema decimal matemáticos permite realizar operaciones aritméticas con números altos que de otro modo sería muy engorroso de manipular. Ordenadores hacer uso de la sistema de numeración posicional. Ya que un equipo utiliza una pequeña cantidad de memoria para almacenar un número, algunos números son demasiado grandes o demasiado pequeños para ser representado. Que es donde números de punto flotante vienen pulg punto decimal puede "flotar" en relación con los dígitos significativos en un número. Por ejemplo, una representación de punto fijo que tiene siete dígitos decimales con dos cifras decimales pueden representar los números, 12345,67 123,45, 1,23, y así sucesivamente, mientras que la misma representación de coma flotante también puede representar a 1,234567, 123456,7, 0,00001234567, y así sucesivamente.

24 E