revista 2° "a"
DESCRIPTION
traduccion de revistaTRANSCRIPT
Nano-litografía (1999)
Los celulares computadoras y los sistemas de GPS de hoy no serian tan compactos como los son,
sin la técnica conocida como nano litografía, una rama de la ciencia revolucionaria de la
nanotecnología.
Nano tipografía es una manera de manipular la materia, en una escala de de átomos individuales
con el fin de crear tableros de circuitos para una variedad de dispositivos eléctricos. A través del
uso de un microscopio de fuerza atómica, nano materiales del tamaño de nano cristales, nano
capas, y nano tubos son organizados en estructuras. La nano tecnología Dip Pen fue desarrollada
en 1999 por Chad Mirkin de la universidad del noroeste ha permitido a los tableros de circuitos
ser mas pequeños. Esto, a su vez ha permitido el desarrollo de computadoras tan pequeñas que
podrían ser usadas en otra tecnología de nano escala como la materia programable.
Hecho: nano tipografía ha tenido sus inicios en la invención del microscopio en 1590.
2. Nanotubos de Carbono
En 1991 el físico Japonés Sumio Lijuma descubrió los nanotubos de carbono, considerado uno de
los más importantes descubrimientos en la historia de los físicos.
Los nanotubos pueden ser construidos por un método de evaporación en arco, en el cual una
corriente de 50 amp pasa en medio de dos electrodos de grafito en helio. Los resultados son
notables a la medida de 3 a 30 nanómetros en diámetro.
Una de la más impresionante propiedad de los nanotubos de carbono es su fuerza. Su resistencia a
la presión es 5 veces que la del metal, y su fuerza de tensión está 50 veces arriba que la del metal.
Los nanotubos de carbono pueden ser también usados como semiconductores. Algo de la
conductividad de los nanotubos es más grande que la del cobre, por ejemplo.
Científicos e ingenieros están buscando maneras de usar los nanotubos en la construcción
industrial tanto como en aplicaciones aeroespaciales.
Hoy en día, las pantallas de páneles planos y algunos microscopios y aparatos sensibles incorporan
nanotubos de carbono. En el futuro muchos artículos diarios desde los chips de las computadoras
de los hogares hasta las baterías de los autos podrían ser hechos de nanotubos de carbono.
El ancho mundo de la web a cambiado vidas desde siempre conectando computadoras a través del
mundo, de esta manera haciendo toda la información y su contenido al alcance para todos.
Además el termino ancho mundo de la web e internet son usados como intercambiables, pero no
son lo mismo. El internet es el sistema que conecta las redes de información esa es la red. Es
posible tener internet sin la red pero la red no puede existir sin el internet.
El internet empezó en 1962 como ARPANET, una red de dos computadoras adquiridas por el
ejército de estados unidos. La red creció con mas de un millón de computadoras para 1992. En
1990 el científico británico Tim Berners –lee invento la web, eso es el primer buscador de web y
paginas web con el cual accedes vía internet, paginas web con hipertexto- texto desplazado en un
monitor con hiperconectores a otros documentos-
(4) Buckyball (1985)
Tan temprano como 1965, científicos predijeron la existencia teórica de una molécula
hecha de átomos de carbono y forma múltiples de cilindro o esfera.
Pero 20 años mas tarde que Richard smalley…
El material también presenta una resistencia a la tracción increíble, prometiendo nuevas
posibilidades en el diseño de la arquitectura, la ingeniería y las aeronaves.
En 1991 el descubrimiento del investigador japonés de una versión alargada de la
buckyball finalmente llamado nanotubo, impulsó la revolución de la nanotecnología del
siglo 21.
Localizado a 12,000 millas debajo de la tierra y navegando a la velocidad de
7,000 millas por hora, el satélite basado en el sistema de navegación se puso
en marcha en 1978 por el departamento de defensa de Estados Unidos de
América con propósitos militares. Poco después las manifacturas del equipo
de GPS reconocieron que el mercado de masas mas potencial y clamado
utilizado para la aplicación civil. El departamento de defensa cumplió con su
solicitud en 1980.
GPS, el cual es muy exacto trabaja en principio de triangulación, en la
posición del objeto dado (una persona en un auto, por ejemplo) es
determinada la distancia del objeto por cuatro satélites en la red con la cual
divisada es comunicando. La red del GPS esta compuesta por 24 satélites,
tres es espera en caso de una falla, y cada satélite hace dos revoluciones
completas alrededor del mundo todos los días.
¿Entonces como se ve el futuro de un GPS? para estar seguro la red
continuara a ser mas exacta proporcionar información cada vez de grano
fino en una ubicación dada. Conductores todavía deben de quitar la
vista al camino para poder observar el GPS, pero eso cambiara. Una
compañía llamada Virtual Solid esta trabajando en una solución
llamada Virtual cable, la cual esta diseñada para construir parabrisas
en los carros. Una Línea roja que parece seguir el paisaje del
conductor a su destino.
6. La Computadora Personal (1997)
De acuerdo a la compañía Nielsen, en 2008, más del 80 porciento de las familias de E.U tenían una
computadora en casa, y de estas, cerca del 90 porciento tenían acceso a internet. Ya sea uno de
los primeros modelos –como el Commodore PET (Muy popular en las escuelas en la década de
1970). La Apple II (Uno de los primeros microcomputadores de producción masiva) y la IBM PC
(Diseñada para reemplazar los primeros dos dispositivos en los hogares)- O lo ultimo y lo mejor en
maquinas, todas las computadoras tienen los mismos componentes básicos. Una computadora
esta construida con una tarjeta madre (Mother Board), un procesador, una unidad central d
procesamiento (CPU), memoria, controladores, un ventilador y cables. Agregados a la
computadora están los periféricos: el ratón, teclado, monitos, bocinas, impresora, escáner y mas.
Estos componentes trabajan juntos para correr software: el sistema operativo y programas
adicionales, tales como el procesador de textos, las hojas de cálculo, o un programa editor de
fotografías.
Con la computadora personal, la tecnología de la computación ha llegado a estar disponible al
público en general. Las computadoras han dejado de ser grandes, o piezas de equipos demasiado
costosos solo grandes corporaciones o agencias gubernamentales pueden pagar o computadoras
que solo los científicos pudieran operar. Este significante desarrollo ha permitido el nacimiento de
nuevas industrias, ah cambiado el como la gente se comunica e irrevocablemente ha alterado su
trabajo y vidas personales.
A diferencia de la realidad virtual, cual esta basado en un ambiente generado por computadora, el
aumento de realidad esta diseñado para aumentar el mundo real, con la superpresentasion en
audio, visual , y otros elementos de tus sentidos.
El invetigador de Boeing Tom Caulled fue el primero en acuñar el término de aumento de reallidad
en 1990 para descrevir la exposion degital usadad por los electricistas de las aerolineas, cual
combina graficas virtuales con la realidad fisica. Pero el concepto es mucho más antigo que eso. En
la pelicula Quien engaño al conejo Roger de 1988, es un buen ejemplo the esta tecnologia- and
originalmente antes en una vercion simple en las demostrasiones de las flechas amarillas de los
anunciadores de la television en los juego de futbol americano cuando analizaban las jugadas.
El aumento de realidad actualmente esta dirigido al desarrollo de consumo de electronicos porque
esta es usada en las aplicasiones the smart-phones. Una aplicasion llamada Layar usa la camara de
un cellular y las capasidades de un GPS para obtener la informasion de los alrrededores de una
area. Layar entoses muestra la informasion de siertos sitios sercanos, como restaurantes o cines,
entoses aparece informasion de estos en la pantalla del celular. Apunta el celular hacia un
edificion y Layr te dira si en ese edificion estan contratando o localisa edificios historicos en la
enciclopedia en linea Wikipedia.
Hay algunas limitasiones para el aumento de realidad que actualmente existen; el sistema GPS
tiene solo un rango de 30 pasos, las pantallas de cellular son pequeñas, y hat tambien unos
unentendimientos en las clausulas de privacidad, espesialmente la tecnologia afecta mas y mas
nuestras vidas. Sin enbargo, el futoro de estas tecnologia es brillante, con ambision pronto sera
usado para los video juego, la educasion, sewguridad, medicina, negosion
8
Aprende más
Como subtítulos en una página,
realmente puede proporcionar
antecedentes y explicaciones, tales
como una biografía del arquitecto
Frank Gehry cuando visitó sus edificios
firmados.
Oriente y navegar
Los sistemas de posición global permite
marcar geográficamente la ubicación
de las personas notifica en momentos y
luego los alrededores de las parcelas y
los senderos.
Haz decisiones
Considera opciones y haz decisiones
virtualmente. Aquí, galerías son
representadas por imágenes de
museos conservados, como Richard
Serra’s “La materia del tiempo”.
(Illustrado)
Usa un teléfono
inteligente para
visualizar entradas
conectadas a un lugar
actual, tales como el
museo Guggenheim
Bilbao, y puedes
descargar información.
9. Electrónicos moleculares!!
ELECTRÓNICOS MOLECULARES ( 1974 )
Como su nombre implica los electrónicos moleculares se refieren a los componentes moleculares para crear dispositivos electrónicos Desde que los químicos Mark Ratner and Ari aviram crearon el primer
dispositivo electrónico molecular rectificado en 1974 el cual convirtió alternando corriente. Los científicos han continuado con su avance y entendimiento ellos mismos, de la ciencia y su aplicación potencial. Muchos investigadores han trabajado para reemplazar semiconductores en todas sus aplicaciones con los interruptores moleculares electronicos. Algunas compañías están preparadas insertar interruptores en las computadoras y en dispositivos electrónicos manufacturados. Un ejemplo es en Huntsville, Alabama basada en la compañía llamada CALMEC el cual ah creado un dispositivo molecular, este dispositivo puede ser usado en semiconductores electrónicos el cual permiten que sea miniturizada la tecnología mas de lo que es en día.
11. Internet (1969)
Un mapa del uso del Internet muestra la densidad de conexiones en Norte América y Europa.
Gracias al Internet, más aspectos de la vida se mueven “en línea” como nunca antes. Lo que
comenzó como una colaboración entre academia, gobierno e industria en los últimos años de los
60´s y los primeros de los 70´s, se ha visto envuelto en una vasta información de infraestructura.
El internet funciona gracias a solo unas cuantas tecnologías. La primera de ellas es el paquete de
“switch”, que contiene la información en unidades especialmente formateadas o paquetes, que
están dirigidos desde la fuente al destinatario vía red de trabajo y enrutadores. Cada paquete
contiene la información de la dirección que identifica al remitente y al destinatario. Usando estas
direcciones, la red de trabajo y los enrutadores determinan la mejor manera de transferir el paquete
entre ambos puntos en el camino para su llegada.
En un segundo plano, el Internet está basado en un concepto clave conocido como arquitectura de
red de trabajo abierta. En este sentido, esto es lo que hace que el Internet sea Internet Con este
concepto, diferentes proveedores pueden usar cualquier red de trabajo individual que ellos quieran,
y la red de trabajo funciona junta a través de esta arquitectura. De esta manera, las redes de
trabajo actúan de manera semejante en una unión que ofrece un servicio de principio a fin.
Una tercera tecnología importante es el protocolo de control de transmisión /protocolo de Internet o
TCP/IP. Esto es lo que hace posible una arquitectura de red de trabajo. Se piensa de esto como el
sistema básico de comunicación del lenguaje de Internet. TCP transforma un mensaje o
documento en paquetes más pequeños que son transmitidos a través del Internet y el IP lee la
dirección de cada paquete de manera que obtiene el correcto destino. Cada computadora en la red
checa esta dirección para determinar de donde es el mensaje.
Hecho: Se estima que arriba de 2 billones de personas en el mundo ingresaron a Internet en el
2011.
El poder de la información
NANOTECNOLOGIA
(1959) Por el año 1959 el objetivo de crear dispositivos mas inteligentes estaba
en las mentes de científicos y investigadores, y ellos hicieron algunos
progresos. Por ejemplo, inventores desarrollaron motores que eran sobre
el tamaño de un dedo.
Richard Feynman, profesor de física del instituto de tecnología de
california , ambicionaba en extremo hacer grandes avances. En la noche
del 29 de diciembre de 1959, el dio su nuevo famoso discurso de
nanotecnología en el evento para la sociedad de físicos americanos. En su
discurso, titulado “hay un montón de espacio en la parte inferior”el
describió la habilidad para escribir la enciclopedia británica entera en la
cabeza de un código usando herramientas y maquinas del tamaño de un
átomo.
La visión de nanotecnología de Feynman consideraba que tiene muchas
aplicaciones. El basaba sus revolucionarias ideas en el hecho de que cada
célula viva de un organismo contenía toda la información genética
necesaria para crear ese organismo.
Esta fue la evidencia de la que almaceno mas cantidades de información
por minuto de objetos como fuera posible
CIRCUITOS INTEGRADOS
Los circuitos integrados (iCs) son encontrados en casi todos los electrónicos usados hoy en día, desde los celulares hasta los equipos de televisión. Un circuito e electrónico complejo. Cada CI contiene un diodo, un transistor, y un capacitor. Estos componentes trabajan juntos para regular el fluido de electricidad atreves de dispositivo. Pero los circuitos integrados tienen desventajas. Todas las conexiones deben permanecer intactas o el dispositivo n trabajare y la rapidez es definitivamente un factor. Si los componentes del CI son muy largos o los cables de conexión de los componentes son largos, por ejemplo, l dispositivo es lento e inefectivo.
En 1958, los americanos Jack Kilby y Robert Noyce separadamente resolvieron este problema usando el mismo material para instruir ambos, el circuito integrado y el chip colocado.
Los cable4s y componentes no tan largos tienen que ser ensamblados manualmente. Estos circuitos pueden ser hechos más pequeños y el proceso manual puede ser automático. (Para demostrar solo que tan pequeños estos pueden ser, consideran esto: el Ci original tenía un solo transistor tres resistores y un capacitor y era del tamaño del dedo meñique de n adulto. Hoy en día un Ci más pequeño que un penique puede sostenes 125 millones de transistores.)
En 1961 el primer circuito integrado comercialmente disponibles fue integrado fue introducido y los productores de computadoras inmediatamente vieron la ventaja que ofrecían. En 1968 Noyce fundo INTEL, la compañía que introdujo el microprocesor el cual tomo un CI un paso adelante para posicionar la unidad de proceso central de la computadora memoria y controles de entada y salida con un pequeño chip.
14. COMPUTACION EN LAS NUBES
EN EL PASADO, COMPUTAR ERA TOMADO EN UNA INTRAESTRUCTURA FISICA: RUTAS, ENLACE DE DATOS, HARDWARE Y SERVIDORES. ESTOS OBJETOS AUN NO DESAPARECEN- Y NO PARECE QUE VAYAN A DESAPARECER AL MISMO TIEMPO- PERO EL PROCESO DE ENTREGA DE FUENTES Y SERVICIOS SE TRANSFORMA EN UN MODELO EN DONDE EL INTERNET ES USADO PARA ALMACENAR LAS APLICACIONES NECESARIAS.
UN INMEDIATO BENEFICIO DE ESTE MODELO ES UN COSTO MENOS ELEVADO. POR EJEMPLO, LAS COMPAÑIAS NO COMPRARIAN LICENCIAS DE SOFTWARE INDIVIDUALES A CADA EMPLEADO. CON ´´COMPUTACION EN LAS NUBES´´, UNA SIMPLE APLICACIÓN DARIA A MULTIPLES USUARIOS UN ACCESO REMOTO A SOFTWARE. LA DIRECCION DE UN SERVIDOR, COMO GMAIL DE GOOGLE, ES UN EJEMPLO DE COMPUTACDION EN LAS NUBES.
PARA ENTENDER EL CONCEPTO DE COMPUTACION EN LAS NUBES, AYUDA A PENSAR EN LOS TERMINOS DE LAS CAPAS. LOS PRINCIPIOS DE UN PROCESO QUE ES VISTO E INTERACTUADO POR LOS USUARIOS CON- LA CUENTA DE FACEBOOK, POR EJEMPLO. EL FINAL DE UN PROCESO CONSISTE EN LA ARQUITECTURA DE QUE CORRE LA INTERFASE DEL SOFTWARE Y EL HARDWARE HACIA EL PRIMER PROCESO. PORQUE LAS COMPUTADORAS SON ESTABLECIDAS EN UNA RED, LAS APLICACIONES PUEDEN TOMAR VENTAJA DE TODAS LAS COMBINACIONES DE CABLEADO COMO SI ESTUVIERAN CONECTADAS A UNA MAQUINA EN PARTICULAR.
MIENTRAS HAY VENTAJAS DE ESTE MODELO, NO EXISTE SIN INCONVENIENTES. PRIVACIDAD Y SEGURIDAD SON DOS DE LAS MÁS GRANDES PREOCUPACIONES. DESPUES DE TODO, LA COMPAÑÍA PERMITE IMPORTANTE, DATOS POTENTEMENTE SENCIBLES QUE ESTAN EN LINEA, DONDE EN TEORIA, NADIE PUEDE ACCESAR A ELLOS. LAS COMOPAÑIAS QUE PROVEEN SERVICIOS DE ‘’ COMPUTACION EN LAS NUBES’’, SIN EMBARGO, SON ALTAMENTE MOTIVADAS PARA GARANTIZAR SU PRIVACIDAD Y SEGURIDAD- SU REPUTACION ESTA ESTANCADA. UNA AUTENTICACION DEL SISTEMA DE SEUDONIMOS Y CONTRASEÑAS U OTRAS AUTORIZACIONES PARA LOS EMPLEADOS AYUDARIA A ASEGURAR LA PRIVACIDAD.
· 3 LAS APLICACIONES DE COMPUTACION EN LAS NUBES, POR DEFINICION, EN LAS REDES DE TODO EL MUNDO. · 6 LA COMPUTADORA PERSONAL ES EL SIGNIFICADO POR EL CUAL LA MAYORIA DE GENTE ACCESA A LA NUBE. · 8 LA CLAVE PUBLICA CRIPTOGRAFICA ENLAZA EL CIFRADO ELECTRONICO TRANSMITIDO PARA LA INFORMACION PRIVADA. · 11 EL INTERNET ES LA FUNDACION DE COMPUTACION EN LAS NUBES QUE PERMITE A LOS USUARIOS A CORRER APLICACIONES EN OTRAS COMPUTADORAS TANTO COMO EN CASA. · 19 UNA GRAN ESCALA DE UNA RED ELECTRICA SUMINISTRADA ES NECESARIO PARA EL USO DE LA INFRAESTRUCTURA DE COMPUTACION EN LAS NUBES.
La información teórica fue originada en 1948 por el americano Claude
Shanon un ingeniero matemático: La teoría de comunicación
matemática; esta teoría permitió que la información en un mensaje
estuviera cuantificada, usualmente los bits de data que representan
uno de los dos estados; encendido o apagado, esto también dictamina
como para encode y transmitir información en presencia del ruido que
puede interrumpir un mensaje en transición.
En el corazón de Shannon la teoría es un concepto desacertado. Lo
más desacertado ahí es considerar que es la señal. Muchos bits de
información fueron requeridos para hacer segura la transmisión de la
información esencial. Shannon llamo a esto como incertainty-based
medida de información de entrada. El matematico permitió que una
seña puede ser extensa-reducida por una simple forma , para eliminar
interferencias o ruidos, para transmitir un mensaje limpio. Y solo el
mensaje. Aunque esto es siempre una posibilidad de error en la
transmisión. La aplicación de la información de esta teoría
enormemente minimiza las posibilidades.
La teoría via código, es un importante offshoot importante de teoría,
los ingenieros estudian
Un transistor es un tipo de semiconductor sin un cual un dispositivo moderno electrónico
incluyendo computadoras no podrían funcionar. Aunque hay demasiada variación de tipos de
transistores, todos contienen una pieza solida de material semiconductor, con al menos tres
terminales que pueden ser conectadas al circuito externo. Esta tecnología transfiere cuando, a
traviesa un material que normalmente tiene una resistencia alta (en otras palabras un resistor) por
lo tanto es un resistor transferente, reducido al transistor.
Antes de la introducción al transistor las computadoras operan por los tubos de vacío, los cuales
son caros y difíciles para producir. Lo más potente de las computadoras contiene miles de estos, el
por qué, de las antiguas computadoras, llenaban un cuarto entero. En 1947 el físico americano
John bardeen y Walter Brattain en el laboratorio Bell, observaron que cuando contactos eléctricos
eran aplicados a un cristal de germanio el poder que generaba era más fuerte que el poder usado,
el físico americano, William Shockley vio el potencial en esto, sobre los siguientes meses el grupo
trabajo en expandir su conocimiento de semiconductores. En 1956 los tres hombres ganaron la
medalla del premio Nobel en física por inventar el transistor.
Esto es porque el transistor es muy importante entre otros beneficios puede ser, producido
fácilmente usando un proceso automático para un costo relativamente bajo. En adición el
transistor puede ser producido solo o más comúnmente integrado en paquetes de circuitos con
otros componentes para producir circuitos electrónicos completos. Y los transistores son versátiles
el cual es que ellos son usados en prácticamente en todo dispositivo electrónico conocido hoy.
Yesenia Saldaña Cuahquentzi, Eribey Pérez Gutiérrez
17. Satélites de Comunicación.
Aunque la mayoría lo conoce como un prolífico autor de ciencia ficción, Arthur
C. Clarke hizo una contribución significante a las tecnologías de la
comunicación. En octubre de el esquematizó su concepto de satélites de
comunicación geoestacionario en un documento titulado “Relevancia
Extraterrestre - ¿Pueden las estaciones espaciales dar cobertura de radio
mundial?” Aunque Clarke no fue el primero en llegar con la teoría, el fue el
primero en popularizarla.
El termino geoestacionario se refiere a la posición de la orbita del satélite
alrededor de la Tierra. La orbita de un satélite “geosynchronus” se repiten
regularmente a través de puntos específicos. Cuando esa orbita regular yace
cerca del Ecuador y es circular, es llamado: geoestacionario
Las ventajas de los satélites geoestacionarios son muchas. Recibiendo y
transmitiendo antenas al suelo no es necesario enviar satélites porque no…… en
sus orbitas. Las antenas no enviadas son mas baratas que las antenas enviadas,
así que el costo de operación como un sistema, son reducidos. Las desventajas:
Porque los satélites están tan altos, las señales de radio tardan un poco para ser
recibidas y transmitidas, resultando en un pequeño pero significante retraso. En
adición, estos satélites tienen cobertura geográfica incompleta porque las
estaciones terrestres a mayor una mayor altura mas o menos 60º de latitud
tienen dificultad …..a elevaciones bajas.
Independientemente de las desventajas, no se puede negar que las
comunicaciones satelitales han revolucionado áreas como las comunicaciones
globales, radiodifusión televisiva y predicciones de clima, y tienen defensa
importante y aplicaciones de inteligencia.
18. Ondas de Radio.
El físico escoses James Clerk Maxwell fue uno de los primeros científicos en especular sobre la
naturaleza del electromagnetismo. Las ecuaciones que el formulo describen el comportamiento de
los campos eléctricos y magnéticos, así como la importancia de sus interacciones. Maxwell postulo
que los campos eléctricos y magnéticos viajan a través de de espacio vacío, en forma de ondas, a
una velocidad constante. También propuso que las ondas de luz y las ondas de radio son dos
formas de de radiación electromagnética.
En 1888. El físico alemán Heinrich Hertz se convirtió en la primera persona en demostrar
satisfactoriamente la teoría de Maxwell al probar la existencia de las ondas de radio. Hertz lo logro
al construir un dispositivo que pudo detectar altas e intensas frecuencias de ondas de radio.
Publico su trabajo en un libro llamado Ondas Eléctricas: Siendo búsquedas en la propagación de
acciones eléctricas finitas a través del espacio. Estos experimentos expandieron en gran cantidad
el campo de transmisiones electromagnéticas, y otros científicos en la rama eventualmente
apoyaron la teoría de de Hertz de la recepción de la antena.
Hertz también encontró que las ondas de radio pueden transmitirse a través de diferentes
maneras y ser reflejadas por otras. Este descubrimiento ayudo a la invención del radar. El incluso
implemento la manera de comunicarnos inalámbricamente, sin embargo el nunca reconoció la
importancia de sus experimentos.
En reconocimiento a sus contribuciones, el diseño de hertz ha sido una parte oficial del sistema
métrico internacional desde 1933. Es el término usado para las terminaciones
19. Gran Escala Eléctrica en la Red
(1880)
El inventor Thomas Edison fue la primera persona que dispuso e
implemento la generación de poder eléctrico y la distribución a casas,
negocios y fabricas, una llave “Hito” en el desarrollo del moderno mundo
de la industrialización. Edison patento este sistema en 1980 en lugar de
capitalizar en su invención de la lámpara eléctrica, él no era nada, sino
un sagaz hombre de negocios. El 17 de Diciembre de 1880 él encontró
la compañía de iluminación “Edison”, sede en la calle “Pearl” en la
ciudad de Nueva York. El 4 de Septiembre de 1882, Edison conmuto en
su estación “Pearl”, generando estaciones con sistemas de poder de
distribución eléctrica, las cuales previeron 110 volteos de corriente
directa a cerca de 60 clientes en Lower Manhattan.
Aunque Edison perdió la entonces llamada “Guerra de Corrientes” eso
permitió como consecuencia que la corriente alterna fuera el sistema a
través del cual se distribuyera la energía eléctrica. Su sistema de
distribución es aun importante por pocas razones. El valor comercial fue
establecido como tal y eso ayudo a simular avances en el campo de la
ingeniería eléctrica, ya que la gente comenzó a ver al campo como una
ocupación valiosa. Por ejemplo, el ingeniero eléctrico Americano
Charles Proteus Steinmetz a través de su trabajo en corrientes alternas,
hizo posible la expansión de la industria eléctrica en Estados Unidos
formulando teorías Matemáticas para ingenieros quienes estuvieron
diseñando motores eléctricos para el uso de la industria.
Hecho: El sistema de poder eléctrico en Estados Unidos, es
el más grande en el mundo.
Fransue Alberto Angulo Terova y Luz María Cruz Sanchez 2A
20. Boolean Logic
Las operaciones computarizadas están basadas en una sola cosa:
Determinar si n portal o un interruptor está abierto o cerrado y generalmente se
representa por los números o y 1. Esta es la esencia de la lógica de Boolean, la
razón fundamental de La computación moderna. Esta idea posteriormente fue
denominada por el matemático ingles George Bool, quien definió un sistema
lógico algebraico en 1854. La motivación de Boole para crear esta teoría fue que
creía que los simbolos de operaciones matemáticas podían ser separados de
esas cantidades y podrían ser distintos objetos de cálculo.
Aproximadamente un año después Claude Shannon demostró que los circuitos
eléctricos con relaciones eran modelos perfectos de la lógica de Boolean fue un
hecho que incremento el desarrollo de la computadora eletrica. Las
computadoras usan la lógica de Bolean para decidir si la relaciin es cierta o falsa.
Hay tres portales básicos AND, OR y NOT. La operación And dice que si todas la
entradas están abiertas la salida también estarlo. La operación OR dice que si
alguna entrada está abierta la salida estará abierta. La operación NOT dice que
la salida debe estar abierta opuestamente a la entrada.
Materia programable
La materia programable la cual fue la primera introducida por
Massachusetts instituto de tecnología (MIT) los
investigadores Tommaso Tofoli y Norman Margolus en el tratado
de 1991, es rápidamente convertido en realidad, albeit
relativamente a pequeña escala.
La materia programable es materia que puede simular o formar
diferentes objetos como un resultado de su propio uso puesto
dentro de nuestras computaciones. Algunas materias
programables son diseñadas para crear diferentes formas,
mientras que otra materia, tal como las células biológicas
sinteticas, es programado para trabajar como un interruptor
genérico que encienda las señales de otras células, para
cambiar las propiedades como el color o la forma. El
potenmcial de los beneficios y aplicaciones de la materia
programablen en particular la posibilidad del uso de este
para interpretar información procesanda y otras formas de la
informática, muchos de los éxitos son creados en las
investigaciones del mundo.
Desde la publicación del tratado de Toffoli y Margolus´s
ellos predijeron que han trabajado mucho para desempeñar su
potencial.
En 2008 por ejemplo, la corporación de intel anuncio que
estas investigaciones han sido usadas para materia
programable para desarrollar prototipos tempranamente de un
dispositivo de teléfono celular en la escala de centimetro y
milímetro. En 2009 la agencia de proyectos de la defensa de
investigaciones avanzadas de estados unidos. El departamento
de la defensa reporto que 5 equipos diferentes de
investigadores de la universidad de Harvard . MIT. Y la
universidad de Cornell fue haciendo progresos en la
inestigacion de materia programable. En el 2010 estor equipos
encabezados por Daniela Rus de MIT, anuncio este suceso en la
creación de estas hojas de origami. La agencia de la defensa
avanzada en la investigación de proyectos espera por
conceptos de futuras aplicaciones , por ejemplo : un soldado
equipado con luces fuertes de materia programable que puede
ser moderno . justamente acerca algo que ella o el necesita.
miércoles, 30 de enero de 2013
traduccion
Materia programable
La materia programable la cual fue la primera introducida por
Massachusetts instituto de tecnología (MIT) los
investigadores Tommaso Tofoli y Norman Margolus en el tratado
de 1991, es rápidamente convertido en realidad, albeit
relativamente a pequeña escala.
La materia programable es materia que puede simular o formar
diferentes objetos como un resultado de su propio uso puesto
dentro de nuestras computaciones. Algunas materias
programables son diseñadas para crear diferentes formas,
mientras que otra materia, tal como las células biológicas
sinteticas, es programado para trabajar como un interruptor
genérico que encienda las señales de otras células, para
cambiar las propiedades como el color o la forma. El
potenmcial de los beneficios y aplicaciones de la materia
programablen en particular la posibilidad del uso de este
para interpretar información procesanda y otras formas de la
informática, muchos de los éxitos son creados en las
investigaciones del mundo.
Desde la publicación del tratado de Toffoli y Margolus´s
ellos predijeron que han trabajado mucho para desempeñar su
potencial.
En 2008 por ejemplo, la corporación de intel anuncio que
estas investigaciones han sido usadas para materia
programable para desarrollar prototipos tempranamente de un
dispositivo de teléfono celular en la escala de centimetro y
milímetro. En 2009 la agencia de proyectos de la defensa de
investigaciones avanzadas de estados unidos. El departamento
de la defensa reporto que 5 equipos diferentes de
investigadores de la universidad de Harvard . MIT. Y la
universidad de Cornell fue haciendo progresos en la
inestigacion de materia programable. En el 2010 estor equipos
encabezados por Daniela Rus de MIT, anuncio este suceso en la
creación de estas hojas de origami. La agencia de la defensa
avanzada en la investigación de proyectos espera por
conceptos de futuras aplicaciones , por ejemplo : un soldado
equipado con luces fuertes de materia programable que puede
ser moderno . justamente acerca algo que ella o el necesita.
21.1 DIFERENCIA DEL MOTOR (1822)
Charles Babbage, un matemático inglés, filósofo, inventor, e ingeniero mecánico, realizó en 1822
que un tipo de máquina pudiera programarse con el uso de tarjetas de papel que almacena la
información en columnas conteniendo patrones de agujeros perforados. Babbage observó que
una persona podría programar un conjunto de instrucciones a modo de perforar las tarjetas, y la
máquina automáticamente podría guardar esas instrucciones. El propósito de usar el motor de
diferencia de Babagge era calcular varias funciones matemáticas, tal como logaritmos. Aunque
nunca fue completado, es considerado uno de los primeros propósitos generales de las
computadoras digitales.
21.2 CUANDO SE DESPLIEGA
El prototipo del lente telescopio es no medir más de 15 pies de ancho.
Desplegado a 300 pies de ancho.
Programado los motores para despegar el telescopio a 300 pies de ancho cuando
ha sido puesto en marcha en el espacio, el gran lente enfoca la luz en el espejo del lente ocular
orbitando a través de media milla de distancia.
Plegado de 10 a 15 pies de ancho.
úmeros binarios/ Código binario (1697)
En 1670 un filósofo y matemático alemán Gottfied Wilhelm Leibniz, cuyo logro
incluye la invención de cálculos y algunos avances importantes en matemáticas,
lógica y ciencia, invento una maquina aritmética que podía multiplicar así como
sumar.
Leibniz también vio como su máquina podía ser alterada para usar un sistema
binario de calculación, un concepto que es el corazón de la computación digital.
En el sistema de Leibniz el término binario se refiere a un sistema de números por
lo cual todos los valores son expresados con los números 1 y 0. El sistema binario
puede ser mejor entendido contrastándolo con la base 10 del sistema de hoy, el
cual expresa números usando 0 a 9.
En la base 10, el numero 367, por ejemplo, representa 3 x 100 + 6 x 10 + 7 x 1.
Cada posición en la numeración 367 representa un poder de 10 comenzando con
cero e incrementando de derecha a izquierda. En el binario, o sistema base 2,
cada posición representa un poder de dos.
Entonces, en binario, 1101 representa 1 x 2 ³ + 1 x 2 ² + 0 x 2 + 1 x 2 º el cual es
equivalente a 8 + 4 + 0 + 1 o 13.
Números binarios/ Código binario (1697)
En 1670 un filósofo y matemático alemán Gottfied Wilhelm Leibniz, cuyo logro
incluye la invención de cálculos y algunos avances importantes en matemáticas,
lógica y ciencia, invento una maquina aritmética que podía multiplicar así como
sumar.
Leibniz también vio como su máquina podía ser alterada para usar un sistema
binario de calculación, un concepto que es el corazón de la computación digital.
En el sistema de Leibniz el término binario se refiere a un sistema de números por
lo cual todos los valores son expresados con los números 1 y 0. El sistema binario
puede ser mejor entendido contrastándolo con la base 10 del sistema de hoy, el
cual expresa números usando 0 a 9.
En la base 10, el numero 367, por ejemplo, representa 3 x 100 + 6 x 10 + 7 x 1.
Cada posición en la numeración 367 representa un poder de 10 comenzando con
cero e incrementando de derecha a izquierda. En el binario, o sistema base 2,
cada posición representa un poder de dos.
Entonces, en binario, 1101 representa 1 x 2 ³ + 1 x 2 ² + 0 x 2 + 1 x 2 º el cual es
equivalente a 8 + 4 + 0 + 1 o 13.
SISTEMA NUMERICO MODERNO
El sistema numérico Hinduarábico cual el sistema numérico moderno es basado fue
probablemente desarrollado en el siglo nueve por matemáticos de india, adoptado por el
matemático de Persia AI-Khwarizmi y el matemático Árabe AI-Kindi y difundido por el oeste del
mundo a mitad de la edad media.
Las características del sistema numérico moderno son el concepto del valor de lugar y el valor
decimal. El sistema de valor de lugar indica que el valor de cada digito en un número multidigital
depende de su posición. Tomar el número 279, por ejemplo. De acuerdo al sistema del valor de
lugar el 2 representa cientos, el 7 representa decenas, y el 9 representa unidades. Así el número
aparece como 279. Mientras tanto la relación del sistema decimal presenta números en
incremento de diez. En otras palabras, cada valor de lugar es diez veces el valor del lugar anterior.
El sistema decimal permite a los matemáticos transformar aritmética con números grandes que
podrían ser de lo contrario extremadamente manipulados.
Las computadoras hacen uso del sistema numérico posicional. Desde una computadora usas
pequeñas cantidades de memoria, algunos números son muy largos o muy cortos para ser
representados. Que es donde un punto flotante viene. El numero decimal puede flotar relativo a.