PROSPECTIVA
ISSN: 1692-8261
Universidad Autónoma del Caribe
Colombia
Aroca Acosta, Richard Rafael
Técnicas de Inteligencia Artificial (parte II)
PROSPECTIVA, vol. 3, núm. 2, julio-diciembre, 2005, pp. 40-43
Universidad Autónoma del Caribe
Disponible en: http://www.redalyc.org/articulo.oa?id=496251106005
Cómo citar el artículo
Número completo
Más información del artículo
Página de la revista en redalyc.org
Sistema de Información Científica
Red de Revistas Científicas de América Latina, el Caribe, España y Portugal
Proyecto académico sin fines de lucro, desarrollado bajo la iniciativa de acceso abierto
Técnicas de Inteligencia Artificial(parte 11)
Richard Rafael Aroca Acosta .
RESUMEN
Este artículo pretende mostrar los enfoques mássignificativos propuestos para el desarrollo de laInteligencia Artificial. Partiendo de la consideración dela máquina universal de Turing como uno de los modelospara explicar los procesos cognitivos del cerebrohumano, convirtiéndose esto, en una tesisepistemológica que se constituye como el paradigmadel computador, hasta al moderno enfoque conexionistadonde el cerebro humano pasa a ser el paradigma quepermite diseñar y desarrollar computadorasemocionales.
PALABRAS CLAVES
Dualismo, Máquina universal de Turing, CorrienteSimbólica, Corriente Subsimbólica, Conexionismo,Computadoras emocionales.
1. Introducción
Probablemente, el comenzar a creer seriamente en laposibilidad de la mecanización del pensamiento, en oposición a la concepción Dualista -creencia de la separación del cuerpo material y la mente espiritual- expuesta sistemáticamente por René Descartes en el año de1641 en su obra "Meditationes de prima philosophia, inquibus Dei existentia, & animae a eorpore distinetio,demonstratur", tiene sus orígenes en las definicionesiniciales de algoritmo como un procedimiento eficaz paracalcular funciones matemáticas. Esta definición inicialmarca una relación estrecha entre la matemática y lainformática, la cual se hace más evidente con el diseñode la máquina de Alan Turing en el año de 1936 comoun recurso dialéctico usado para demostrar la imposibilidad de que las matemáticas fuesen decidibles -problema propuesto por el matemático alemán David Hilberten el año de 1928- definiendo algoritmo como un proceso que puede ser realizado por una máquina "pensaralgorítmicamente es equivalente a pensar mecánicamente" (Gutiérrez, 1994), se extiende al concepto de
40
ABSTRACTThis article tries to show the mostsignificant approaches defined by thedevelopment of the artificial intelligence:Beginning, from the consideration of theTuring universal machine as one of themodels to explain the cognitive processof the human brain, turn into anepistemological thesis that is constitutedas a computer paradigm, to the modemconnectives approach where the humanbrain is turned into a new paradigm thatlet design and develop emotionalcomputers.
KEVWORDSDualism, Turing Universal Machine,symbolical current, subsymbolical current,connectives, Emotional computers.
Máquina Universal, capaz de imitar o simular a cualquier otra máquina utilizando un programa, y se materializa con la construcción de la primera computadoradigital entre los años 1946-48 haciendo realidad laautomatización de los razonamientos lógicos a travésde la ejecución de un conjunto de instrucciones lógicaspara manejar símbolos o lenguaje de programación imperativa, lo que comúnmente se conoce como: la informática tradicional.
Es notable la relación fundamental entre la lógica y elconocimiento: El contenido de nuestro sistema de conocimiento -integración de creencias en redesinterconectadas que mejor garantizan nuestra supervivencia- es producto de nuestra experiencia pero estáorganizado de forma lógica. La lógica se presenta deesta manera como una herramienta científica analíticafundamental, para decidir qué se sigue de qué, qué contradice a que, que apoya a qué, etc., que asegura quela presentación del conocimiento sea eficiente e integral, creando los niveles de abstracción o conceptos(Ontología). .
Desde este punto de vista la lógica, mas que una disciplina matemática, puede verse como un conjunto de tácticas y estrategias de razonamiento (Conjunto de reglasde acción que establecen el rigor del pensamiento paraalcanzar ciertos objetivos específicos) como son el método deductivo y la analogía.
Lo anterior marca la omnipresencia de la lógica en laInformática, cuya mayor evidencia se hace en el diseñoalgorítmico (Construcciones prácticas del razonamiento lógico) que luego serán transformados en programaspara su ejecución en una computadora. Lo más significativo para el ser humano no es la aplicación del algoritmo en sí, sino la capacidad de razonamiento mental queéste desarrolla para diseñarlos.
Lo anterior de alguna manera, marca la concepción tradicional occidental de asociar "pensar", con el hecho dehacerlo en forma lógica y racional.
2. Desarrollo
2.1. La Corriente Simbólica
El diseño de la máquina universal de Turing dio fuerza ala polémica idea de sí ¿pueden pensar las máquinas?,la cual fue analizada formalmente en el artículo "¿CantThink machine?"publicado por Turing en el año de 1950.Es de especial interés anotar que para el diseño de sumáquina, Turing toma por objeto de reflexión a un serhumano que aplica un algoritmo. Esto de alguna manera permite considerar mas adelante a la máquina universal como uno de los modelos para explicar los procesos cognoscitivos del cerebro humano convirtiéndose en una tesis epistemológica que se constituye comoel paradigma del ordenador que da inició a la psicologíacognitiva y la ciencia cognitiva, aportando la "primeraformulación completa del paradigma de las contemporáneas ciencias del conocimiento" (Gutiérrez, 1994).
Esta Ciencia Cognitiva, ofrece una alternativa a la tradición filosófica del estudio del conocimiento y sirve paraabandonar definitivamente el conductismo como teoríapsicológica dominante. La mente humana dejó de seruna caja negra, cuyo contenido era desconocido. Conla materialización de los ordenadores con una arquitectura Von Newman a partir de la máquina universal deTuring se puso de manifiesto que era posible interesarse por las estructuras y procesos internos que hacíanposible el comportamiento humano inteligente (A estasideas se sumaron las teoría de la comunicación deClaude Shannon, los nuevos enfoques que dio Noam
. Chomskya la lingüística y el planteamiento psicológicode Jean Piaget)
Este nuevo enfoque se consolida en el año 1956 en lareunión celebrada en el Dartmouth College (Hanover,New Hampshire) como un modelo para construir máquinas que realizasen tareas equivalentes a las de la inte-
ligencia humana bajo el nombre de Inteligencia Artificial(El término Inteligencia Artificial fue sugerido por JohnMcCarthy) Comenzando un inusitado interés a nivel universitario por esta nueva disciplina, estableciéndose departamentos de Inteligencia Artificial y realizándose regularmente congresos sobre sus temas principales.
La Inteligencia Artificial, por esta época, considera enprincipio que tanto los seres humanos como las máquinas lógicas son procesadores de información, con unaracionalidad estricta y un lenguaje simbólico reglado porleyes lógicas, tal enfoque se conocería mas tarde comoel enfoque simbólico de la Inteligencia Artificial, cuyodominio son los temas lógico-matemáticos. Esta corriente "Pretendían dotar a las máquinas de tal capacidadlógica que pudieran demostrar todo lo demostrable yresolver cualquier problema que tuviera solución» (DeAndrés, 2002).
A pesar del éxito inicial de la concepción simbólica, pronto se pusieron de manifiesto una serie de limitaciones:este tipo de programación hacia que la máquina fuesecapaz de razonar ante problemas lógicos y matemáticos, pero eran totalmente inútiles para interactuar consituaciones cotidianas. Por ejemplo: son incapaces desostener una conversación. Los intentos de enseñar ahablar a los computadores parecía una labor sencillapues se sustentaba inicialmente con las teoríaslingüísticas de Chomsky, que consideraban el lenguajecomo un conjunto de símbolos dotado de estructuras osintaxis y las teorías formales, basadas en un conjuntode reglas ortográficas y sintácticas, del lenguaje dePiaget. Pero resulta que nuestro lenguaje más que unconjunto de sintaxis, tiene semántica y es pragmático,es más, dentro de una conversación normal hay muchainformación que se da por conocida, no se entra en detalles -son de sentido común-, más cierta informacióngestual que facilita la comunicación.
2.1.1. Lógicas Alternativas
Un intento por mejorar la interacción y adaptación delcomputador con el mundo real fue el desarrollo de sistemas lógicos alternativos como la lógica nomonotónica (En la cual es posible que una proposiciónpueda ser verdadera ahora y luego ser falsa, imitandola evolución del pensamiento conforme se acumulannuevos conocimientos) y la lógica difusa (En la cual esposible asignar distintos valores a una proposición).
Pero estas lógicas aunque han resuelto algunos problemas de la lógica tradicional, parecen estar sujetas a ladifícil tarea de su formalización y en cierto modo, todasestarían condenadas al fracaso por los teoremas de KurtG6del: "Existen afirmaciones dentro de un sistema queni se puede demostrar ni se puede refutar' y "Ningúnsistema consistente se puede Lf-sar para demostrarlo aél mismo". Lo que" permite sugerir que «Si sólo se tienerazón, se tiene muy poco» (De Andrés, 2002).
41
Esto pone de manifiesto que los computadores lógicos no son un buen modelo de la psicología humanay más importante aún que la inteligencia humano noes exclusivamente lógica ni enteramente racional.Poniendo en entre dicho la idolatría del pensamientológico y generando entre otros interrogantes: ¿El razonamiento lógico será un invento de la inteligencia,pero no la inteligencia misma?
2.1.2. Los Sistemas Expertos
Ante la imposibilidad de implementar solucionesalgorítmicas (programación imperativa) de tipo general se comienza a explorar aplicaciones más específicas introduciendo una nueva forma de programación declarativa, basados en reglas, orientados aobjetos, etc., donde lo importante es la adecuada caracterización del problema, la selección del métodode búsqueda y el mecanismo de inferencia entre otros.Con estas nuevas herramientas se desarrollan, apartir del año 1970, los llamados Sistemas Expertos: programas que imitan el comportamiento de unespecialista humano, simulando ante todo su pensamiento heurístico al resolver problemas, incorporando a su base de conocimiento teorías (conocimientoformal) y la experiencia (conocimiento no formal),utilizando un mecanismo de inferencia para realizarsus razonamientos. Esto ha permitido hacerse unaidea más clara de cómo pensamos y aplicamos nuestros conocimientos.
A pesar de los avances promisorios de la corrientesimbólica de la Inteligencia Artificial ha resultado hastael momento inadecuada para mecanizar lo que llamamos el «sentido común» humano en los computadores digitales. Esto en parte porque el sentido común aparece como red infinita de datosinterrelacionados, la cual genera una explosióncombinatoria infinita, cuyo procesamiento requiereuna capacidad de cálculo imposible de conseguir aúndisponiendo de una inimaginable velocidad y de todoel tiempo del universo. Por ejemplo: La serie de eventos que habría que tener en cuenta para programaruna Máquina que fuese de compras desde nuestrodomicilio hasta algún supermercado sería enorme, locual conllevaría a una explosión combinatoria infinita, al tratar de determinar en la máquina ¿Qué hacerante tal evento o ante cualesquiera otros eventos?,esto se conoce comúnmente como el problema delmarco (Propuesto por McCarthy y Hayes en 1969).
Pero resulta que la mente humana tratacotidianamente con mucho éxito este tipo de problemas sin mayores esfuerzos y en tiempo finito.
Esto hizo necesario la búsqueda de otras alternativas con cambios radicales.
42
2.2. La Corriente Subsimbólica
Se consolida al retomar las antiguas investigaciones,de los años 60's, sobre el funcionamiento del cerebrohumano mismo y su red neuronal natural para diseñarcomputadores que imiten su funcionamiento: El cerebro humano pasa a ser el paradigma para diseñar ydesarrollar computadoras.
Las Redes Neuronales Artificiales modelan las conexiones sinápticas neuronales, mediante las reglaspropuestas por Donald Hebb, sobre la base de estímulos externos que genera el aprendizaje. Los datos no sealmacenan de forma especifica, el conocimiento es producto de las mismas conexiones de la red (sinápsis),del cálculo paralelo de muchas neuronas asociadas porcapas que simultáneamente cambian sus estados, obteniendo una velocidad de procesamiento tal, que lespermite interactuar con entornos reales en el que la información es amplia, variada e impredecible. Un cambio radical es que: las redes neuronales no se programan, se entrenan (aprenden mediante casos y procedimientos de ensayo-error), esto se conoce como el enfoque Subsimbólicoo conexionista de la InteligenciaArtificial, que plantea nuevas vías de comprensión sobre los procesos mentales humanos proponiendo un modelo que "se asemejan más a nosotros que las máquinas lógicas" (De Andrés, 2002).
Si las investigaciones sobre nuestro cerebro están en locierto, resulta claro que nuestro sistema de tratamientode la información neuronal es intuitivo, asociativo yholístico, muy ajeno a un funcionamiento lógico-formaly simbólico, pero que de alguna manera ha conseguidomanifestarse como pensamiento lógico y racional.«Marvin Minsky, entre otros autores, ha insistido mucho en que el cerebro humano no es una máquina lógica y en que basa su poder no en el rigor y la congruencia sino más bien en la redundancia y en la multiplicidadde instrumentos para razonar» (De Andrés, 2002)
3. Conclusión
La Inteligencia Artificial se propone la mecanización delpensamiento, mediante dos enfoques básicos: el enfoque simbólico, que propone al computador digital comoun modelo para explicar los procesos cognoscitivos delcerebro humano mediante algunos programas generales que procesan información, con una racionalidad estricta, un lenguaje simbólico reglado por leyes lógicas yotros programas que imitan el comportamiento de expertos humanos mediante lenguajes declarativos conmecanismos de inferencias y búsquedas heurísticas enbases de conocimiento formales y no formales y el enfoque Subsimbólico, que propone al cerebro humanocomo modelo para el desarrollo de computadores emocionales que sean capaces de tener sentido común.
Enfoque SimbólicoComputadorAlgoritmos
(Sistemas Expertos)
4. Referencias Bibliograficas.
Mecanización delPensamiento
(Máquinas Inteligentes)
Enfoque SubSimbólicoCerebro
(Redes NeuronalesArtificiales)
[1] De Andrés, Tirso. Homo CyberSapiens, La Inteligencia Artificial y la Humana. 1ª Ed, Editorial EUNSA. 2002.[2] Nilsson, Nils. Inteligencia Artificial, una nueva síntesis. 1ª Ed, Editorial Mc Graw Hill. 2001.[3] Valsechi, Maria Cristina., «La mente artificial», Newton, 27: 14-23, julio, 2000.[4] Rich, Elaine. Knight, Kevin. Inteligencia Artificial. 2ª Ed, Editorial Mc Graw Hill. 1994.[5] Gutiérrez, Claudio. Epistemología e Informática. Proyecto BID/FOD 1991-1994.
EL AUTOR
. Ingeniero de Sistemas, Especialista en Auditoria de Sistemas, Universidad Antonio Nariño. Especialista enEstudios Pedagógicos, Corporación Universitaria de la Costa. Técnico Electrónico Digital-Industrial, Profesor Catedrático de la Facultad de Ingeniería de la Universidad Autónoma del Caribe. Especialista en Informática y telemática de la Universidad Andina, aspirante a Doctor en Ciencias Pedagógicas de la Universidadde Holguín, Cuba
43