génesis de la inteligencia artificial

5
Génesis de la inteligencia artificial ( 1943 – 1956 ) El primer trabajo de inteligencia artificial fue realizado por Mc Culloch y Pitts en 1943. Para esto utilizaron las fuentes del conocimiento sobre la fisiología básica y funcionamiento de las neuronas en el cerebro , el análisis formal de la lógica proporcional y la teoría de la computación de Turing . Propusieron un modelo constituido por neuronas artificiales , cada una estaba encendida o apagada . Mostraron que cualquier función calculable podría calcularse mediante cierta red de neuronas interconectadas y que los conectores lógicos se podían lograr utilizando estructuras de red. Minsky y Edmonds , construyeron la primera computadora de red neural en 1951 , se llamaba Snarc. Newell y Simon contaban con un programa de razonamiento , el teórico lógico , era un programa de computación capaz de pensar de manera no numérica. El programa era capaz de demostrar gran parte de los teoremas. El taller de Dartmovnth , contribuyo a que todos los personajes importantes se conocieran . Lo ultimo del taller fue ponerle a este campo: inteligencia artificial. Entusiasmo inicial , grandes esperanzas ( 1952- 1969) Según el solucionador general de problemas ( SGP) , este programa se diseño para que imitara protocolos de resolución de problemas de los humanos. Fue el primer programa que incorporo el enfoque del pensar humano. Gelernter en 1959 construyo el demostrador de teoremas de geometría (DTG) .

Upload: carlos-guevara

Post on 04-Jul-2015

32 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Génesis de la inteligencia artificial

Génesis de la inteligencia artificial ( 1943 – 1956 )

 

El primer trabajo de inteligencia artificial fue realizado por Mc Culloch y Pitts en 1943. Para esto utilizaron las fuentes del conocimiento sobre la fisiología básica y funcionamiento de las neuronas en el cerebro , el análisis formal de la lógica proporcional y la teoría de la computación de Turing . Propusieron un modelo constituido por neuronas artificiales , cada una estaba encendida o apagada . Mostraron que cualquier función calculable podría calcularse mediante cierta red de neuronas interconectadas y que los conectores lógicos se podían lograr utilizando estructuras de red.

Minsky y Edmonds , construyeron la primera computadora de red neural en 1951 , se llamaba Snarc.

Newell y Simon contaban con un programa de razonamiento , el teórico lógico , era un programa de computación capaz de pensar de manera no numérica. El programa era capaz de demostrar gran parte de los teoremas.

El taller de Dartmovnth , contribuyo a que todos los personajes importantes se conocieran . Lo ultimo del  taller fue ponerle a este campo: inteligencia artificial.

 

 

Entusiasmo inicial , grandes esperanzas ( 1952- 1969)

 

Según el solucionador general de problemas ( SGP) , este programa se diseño para que imitara protocolos de resolución de problemas de los humanos. Fue el primer programa que incorporo el enfoque del pensar humano.

Gelernter en 1959 construyo el demostrador de teoremas de geometría (DTG) .

En 1952 , Samuel escribió un programa para el juego de damas , el programa aprendió a jugar mejor que su creador.

Mc Carthy  definió el lenguaje de alto nivel LISP . Ya tenia la herramienta que necesitaba pero aun existía el problema de los escasos y costosos recursos de cómputo. Para resolverlo inventaron el tiempo compartido . También en 1958 publico un articulo titulado “programas con sentido común” , en el que

Page 2: Génesis de la inteligencia artificial

descubrió el escucha consejos (EC) , podrá considerarse como el primer sistema de inteligencia artificial completo , fue designado para la solución de problemas. Estaba diseñado para usar el conocimiento general del mundo. El programa permitía aceptar nuevas acciones durante el curso normal de operación , permitiendo ampliar la capacidad en áreas nuevas sin necesidad de reprogramacion. El escucha consejos incorporaba los principios medulares de representación y razonamiento.

Estaban los micromundos , eran problemas limitados cuya solución requería de la inteligencia .

 

 

Una dosis de realidad ( 1966 – 1974 )

 

El obstáculo que enfrenta la mayoría de los proyectos de investigación , consistió en que aquellos métodos que demostraban funcionar en uno o dos ejemplos sencillos , fallaban en problemas mas variados o de mayor dificultad.

El primer tipo de obstáculo , fue que los programas contaban con poco o ningún conocimiento de la materia u objeto de estudio. Cuando se intentaba la traducción automatizada para traducir , era necesario contar con un conocimiento general del tema respectivo , lo que permite discernir lo correcto en casos de ambigüedad y así precisar el contenido de una oración.

El segundo obstáculo fue el de la intratabilidad de muchos de los problemas que se estaban intentando resolver mediante inteligencia artificial. Que un programa sea capaz de encontrar una solución no implica que tal programa encierre todos los mecanismos necesarios para encontrar la solución en la practica.

El tercer obstáculo derivo de las limitaciones inherentes a las estructuras básicas que se utilizaban en la generación de la conducta inteligente.

 

 

Sistema basado en el conocimiento ( ¿clave del poder? ).

 

Page 3: Génesis de la inteligencia artificial

La naturaleza de la resolución de problemas de la investigación en la inteligencia artificial residía en un mecanismo de búsqueda de propósito general en el que se entrelazaban pasos del razonamiento elementales para encontrar soluciones complejas. Estos métodos son llamados débiles , debido a que la información sobre el dominio con que cuentan es débil . Para resolver un problema prácticamente es necesario saber de antemano la respuesta respectiva .

Dendral fue el primer sistema de conocimiento intensivo que lograba funcionar: sus conocimientos se basaban en importantes cantidades de reglas para propósitos especiales. Se incorporó la separación del conocimiento (en forma de regla) y la parte correspondiente al razonamiento.

 

 

La inteligencia artificial se convierte en una industria ( 1980- 1988).

 

Casi todas las compañías importantes de EEUU contaban con su propio grupo de inteligencia artificial , el cual investigaba la tecnología de los sistemas expertos.

En 1981 los Japoneses anunciaron el proyecto de la “ quinta generación” un plan de 10 años para construir computadoras inteligentes en la que se corriera Prolog, de igual manera que las computadoras comunes corren código de máquina.

Para contrarrestar el proyecto japonés se fundó la microelectronic and computer tecnology corporation (MCC). Originaba el diseño de chips y la investigación en el campo de las interfaces humanas.

Más de un centenar de compañías constituyeron sistemas de visión robótica para uso industrial.

 

 

El regreso de las redes neurales ( 1986 al presente )

 

 Físicos utilizaron técnicas de la mecánica estadística para analizar las propiedades de almacenamiento y optimización de las redes. Psicólogos

Page 4: Génesis de la inteligencia artificial

estudiaron los modelos de la memoria basados en redes neurales. Cuatro grupos reinventaron el algoritmo de aprendizaje de retroprogramación. El algoritmo se aplica a problemas relacionados con el aprendizaje en computación y en psicología

Había pesimismo en la aplicación de la tecnología de los sistemas expertos. Para construir un sistema experto satisfactorio, se necesitaba algo más que un sistema de razonamiento que estuviera lleno de reglas.

 

 

Acontecimientos recientes (1987 al presente)

           

En  años recientes, hubo un cambio tanto en contenido como en metodología en las investigaciones de inteligencia artificial. Actualmente es común construir sobre teorías ya existentes que proponen teorías totalmente novedosas, toman como base rigurosos teoremas o sólidas evidencias experimentales más que la intuición, y demostrar la utilidad de las aplicaciones en el mundo real, más que crear ejemplos de juguetes.

En el campo de la comprensión del lenguaje, prevalecen los enfoques basados en los modelos de Markov ocultos(MMO). Estos modelos se basan en una teoría matemática, lo que les permitió basarse en resultados dedicados décadas de resultados hechos en otros campos. Los modelos fueron generados mediante un proceso de aprendizaje basados en datos del lenguaje real. Esto garantizó un sólido desempeño.

            El área que se benefició con la formalización fue la planeación. Existe un número de avances sobre los que se apoya el siguiente, en vez de empezar de cero cada vez. En consecuencia en vez de planificación de sistemas que sólo funcionaban para los micromundos, actualmente sirven para la programación del trabajo fabril y de misiones especiales.

            La invención del formalismo de red de creencia, obedece a la necesidad de poder razonar ante una combinación de evidencias inciertas. Este enfoque supera los sistemas de razonamiento probabilístico (década 60 y 70) y actualmente prevalece en la investigación que se hace en inteligencia artificial sobre razonamientos inciertos y sistemas expertos. Este sirvió para promover sistemas expertos normativos, los que actúan racionalmente de acuerdo con las leyes de la teoría de las decisiones, sin que intenten imitar a los expertos humanos.