Download - 12 ciencia-cognitiva
Objetivos
• Elaborar una presentación de la disciplina desde el punto de vista antropológico.
• Mostrar formas complejas de entendimiento (posible) entre antropología y otras disciplinas
• Poner de manifiesto las limitaciones inherentes a las concepciones antropológicas de los conceptos cognitivos esenciales– Conocimiento, símbolo, representación, mente,
aprendizaje, lógica, pensamiento, imagen, inteligencia, memoria
Comprender la mente puede ser menos complicado de lo que
nuestra vanidad espera o de lo que nuestro intelecto teme.
- Rodolfo Llinás, 1986
Agenda
• Historia de la ciencia cognitiva– Psicología cognitiva*
– Inteligencia artificial, GOFAI– Inteligencia artificial, conexionismo
• Antropología cognitiva
• Conclusiones
• Trabajos pendientes & Referencias
Definiciones
• “Cognición” – Se puede encontrar a fines del siglo XIX (Wilhelm Wundt, William James)
• Ciencia cognitiva = estudio de la mente o de la inteligencia
• Reemplazó a la idea de Inteligencia Artificial• Modelo de caja gris – Restitución de la mente• Investigación multidisciplinaria: psicología,
neurociencia, antropología, filosofía, lingüística, computación científica, biología
La “revolución cognitiva”
• MIT, 11 de setiembre de 1956 (11 al 13)• Miller, Mágico número siete• Newell y Simon – Logic Theorist, GPS• Declinación (momentánea) de la neurociencia y
auge de la lingüística• Chomsky – Tres modelos
para la descripcióndel lenguaje– 1957: Syntactic structures– 1958: Review de Verbal
behavior de Skinner →
Chomsky sobre Skinner• Cuestionamiento de la idea de que el lenguaje se puede
insuflar via entrenamiento animal– Estímulo – Refuerzo – Privación
• Predecir y controlar comportamiento verbal manipulando variables de entorno.
• No habría restricciones de especie.
• La contribución interna del hablante sería poco esencial.
La revolución…
• Chomsky (28 años a esa fecha)– No es viable un modelo de producción lingüística
derivado de la teoría de la información de Shannon.
– Base de su concepción de lenguajes formales y sus autómatas.
– Base de los métodos formales en computación y de los compiladores de lenguajes formales.
– Primer modelo “matemático” del lenguaje.– Segunda (o tercera) revolución lingüística.
George Miller
• The Magical Number Seven, Plus or Minus Two: Some Limits on Our Capacity for Processing Information (1956)– Sólo se aplica a juicios o estímulos unidimensionales, no a
recordar (por ejemplo) caras o lugares.
– Capacidad de canal equivalente a 2.5 bits (unas 6 alternativas) – Se aplica a percepción, procesamiento y memoria.
– “En realidad no hay ninguna magia en relación con tantos otros 7s; sólo una perniciosa coincidencia”.
– Entre las coincidencias incluye las 7 notas de la escala musical, lo que sin duda es un error suyo.
– No está demostrado que se aplique a la memoria a corto plazo.
– Se ha convertido en una especie de mito urbano.
– Elizabeth Rice (1980) – Cultural schemata.
Anthony Wallace
• “On being just complicated enough”, 1964 [disp]• Aunque el tamaño y complejidad de las sociedades
varía enormemente, la dimensión del sistema de términos de parentesco no lo hace
• Para transformar el número de términos en una cifra que sirva para medir complejidad, computó log2 1/L
• Número de elecciones binarias necesario para producir un sistema de tamaño L
Anthony Wallace
• Todos los sistemas taxonómicos se pueden acomodar en un espacio que requiere 6 dimensiones binarias o menos
Anthony Wallace
• 26 = 64• “Conjuntos contrastantes” = espacios
taxonómicos, o sistemas institucionalizados de discriminación
• Formas verbales en inglés, 61; 64 cuadrados en un tablero de ajedrez, menos de 64 términos numéricos básicos; menos de 64 rangos militares, etcétera
Otros hitos
• 1960 – George Sperling – Memoria icónica• 1967 – Ulric Neisser – Psicología cognitiva
– Modelo computacional para memoria, razonamiento, percepción
• 1969 – Modelos de la función cerebelar y de la visión de David Marr →
• 1970s – Journals: Cognitive Psychology, Cognition, Memory & Cognition
David Marr [1945-1980]
• Fundador de la neurociencia computacional• Modelos de procesamiento visual: • Fisiología +IA+psicología• Entender el cerebro presupone entender los
problemas que se le plantean y las soluciones que encuentra
• Tres niveles de análisis:– El problema que la visión enfrenta (computacional)– La estrategia que puede usarse (algorítmico)– Cómo se realiza de hecho la actividad neuronal
(implementacional)
David Marr [1945-1980]
• Proceso visual en tres etapas:– Esbozo primitivo (primal sketch), extrayendo rasgos de
componentes fundamentales de la escena (bordes, regiones, etc)
– Un esbozo de 2,5 dimensiones. Se reconocen sombras, texturas, etc
– Un modelo continuo en 3 dimensiones
• Dinámica de aprendizaje/optimización, que anticipa los métodos de los algoritmos naturales**
David Marr [1945-1980]
• “Ley del cuadrado inverso” para la investigación científica:– El valor de un estudio varía inversamente con el
cuadrado de su generalidad
• Avances en investigación de visión binocular• El libro casi póstumo de Marr es reconocido como
la Biblia del MIT de visión de computadora.• Colin Ware – Information visualization (2004)*• Mallot & Allen – Computational vision (2004)• Uttal – Computational modeling of vision (1999)
Relaciones interdisciplinarias
© H
owar d G
ardner , La nueva ci enci a de la m
ente
Tres modelos contrapuestos• IA “fuerte” - MIT
– Artificial– Ligada a computadoras, lógica– Modelo mecánico– Deducción: cálculo de predicados– Newell-Simon, Russell/Whitehead, Frege– Atomismo, racionalismo
• Conexionismo – Redes neuronales– Natural– Simulación del cerebro – The astonishing hypothesis
(Francis Crick)– Aprendizaje, inducción– Modelo estadístico, caja negra
Tres modelos contrapuestos
• Neurociencia computacional*
• Modelos computacionales del cerebro o de diversos componentes funcionales
• Basado en intuiciones de Andrew Huxley, Alan Hodgkin y David Marr
GOFAI
Inteligencia artificial• Dificultad de definir consensuadamente
“Inteligencia”– Propuesta de Alan Turing →– La inteligencia como medida del IQ (G)
– Howard Gardner – Teoría de las múltiples inteligencias
– La curva de campana (Charles Murray, Richard Herrnstein - 1994)
– Discutido por Stephen Jay Gould en The mismeasure of man (nueva edición, 1996)
– Todavía no hay definiciones aceptadas
– La polémica es hoy explosiva y la antropología no tiene gran cosa que aportar al respecto, pues carece de método comparativo y de capacidad experimental. (Cole & Gay)
La prueba de Turing
• ¿Puede una máquina ser inteligente?• Sí, si inteligencia se define como la capacidad de
engañar a un interlocutor humano.• Es posible hacerlo durante un corto tiempo.• Ejemplos:
– “George” – Página de Simon Laven – http://www.simonlaven.com– The Postmodern Generator, http://www.elsewhere.org/pomo
• A veces se confunde la Prueba de Turing con la idea de que el cerebro funciona como una Máquina de Turing.
La prueba, Enigma, The Bombe & la Máquina
SHRDLU
• Terry Winograd, 1970
Supuestos comunes a la IA
• La cognición humana comparte características con el procesamiento de información de las computadoras.
• Ese procesamiento es secuencial y serial.• Consiste en operaciones discretas.• La memoria es independiente del procesador.
– Propósito general
• Las operaciones se pueden describir en términos de reglas como las que caracterizan a los lenguajes de programación.
Allen Newell y Herbert Simon• Logic Theorist, 1956
– Teoremas de Principia Mathematica
• General Problem Solver, 1958
• SOAR, hasta 1990s – Arquitectura general para sistemas inteligentes, todavía activa
Inteligencia Artificial ppd
• John McCarthy, 1958– Propuso utilizar cálculo de predicados para la
representación del conocimiento.
– Los programas deberían ser declarativos, no imperativos (o procedimentales).
– También inventó el lenguaje Lisp.• Procesamiento de listas recursivas.
– Prefiguró los Application Service Providers en 1960.• Obviamente no prosperó.
– A principios de los 90s reconoció que se la había ido un poco la mano.
GOFAI• John Haugeland, 1985 (Artificial intelligence, the very
idea) – Good Old Fashioned Artificial Intelligence.• N-S - Sistema [físico] de procesamiento de símbolos.
• Hechos y reglas.• Modelos de programación lógica.
– Prolog, cláusulas de Horn – Alain Colmerauer y Robert Kowalski, 1972
– Algoritmo de resolución de Robinson
• Cálculo de predicados de primer orden.• Cuantificación universal.
Programación lógica• PROLOG
– Hechos, reglas, preguntas, hipótesis– Reglas:
mortal(X) :- hombre (X).
– Hechos: hombre(socrates).
– Pregunta extensional (en consulta): mortal(X).
– Hipótesis: mortal(socrates).
– Las hipótesis tienen la misma estructura de los hechos.– Las únicas respuestas a una hipótesis tienen que ser si o
no.
Aaron
GOFAI - 2– Sistemas expertos
• Base de datos• Máquina de inferencia
– Inferencia clínica • Mycin, Neo-Mycin, Pip, Internist, Dendral, SHRDLU• AGENI2 (Reynoso)
– Limitaciones del modelo simbólico• No todo conocimiento puede representarse en términos de
proposiciones o predicados• Reconocimiento de patrones• Identificación de instancias diferentes de un mismo objeto
(firmas, huellas digitales)• Intolerancia a errores o destrucción parcial
Inteligencia artificial• Aplicaciones antropológicas de IA simbólica
– Sistemas expertos de diagnóstico clasificatorio– Modelos axiomáticos de la cultura
• Matrimonio Kariera (Kemeny-Snell-Thompson)
– Gramáticas culturales• Benjamin Colby – Cuentos Ixil• Análisis funcional del relato (Vladimir Propp)
– Lógicas alternativas• Lógica temporal• Lógica no-monotónica• Logica polivalente (Lukasiewicz)• Lógica difusa (Lotfi Zadeh)
Limitaciones técnicas de GOFAI
• Sólo buena para campos conocidos de manera analítica y exhaustiva.
• Poca tolerancia a errores.• Representación sintáctica, no realmente semántica.• Reconocimiento de patrones prácticamente
imposible.• Carente de capacidad de recuperación ante
destrucción parcial.• No muy eficiente para implementar aprendizaje.
– El aprendizaje es mayormente inducción.
Descrédito de la IA fuerte• Promesas no cumplidas – Invierno de la IA desde 1988• Sistemas expertos exitosos, pero sólo útiles para tareas de
diagnóstico– Varios SE embebidos en sistemas operativos
• Fracaso histórico del programa japonés de máquinas de Quinta Generación– Proyección original de 5 mil millones de dólares
• Prolog no puso soportar la competencia de lenguajes procedimentales, particularmente C++
• Queda como tecnología de nicho para sistemas basados en reglas, cálculos de riesgo crediticio, diagnósticos varios
Conexionismo
Problema no tratable analíticamente
• ¿Cuántos grupos de objetos hay?
Otro más
Fotografía de R. C. James, 1970s
Otro
Procesos diversos
• El cerebro trabaja en el rango de los milisegundos (10-3) y las computadoras en el orden de los nanosegundos (10-9).
• Sin embargo, el cerebro reconoce formas y patrones mucho más eficientemente.
• No es posible que lo haga mediante muchísimos procesos unitarios y secuenciales: no habría suficiente tiempo.
• Trabajos mucho más sencillos (calcular) le insumen tiempos comparativamente enormes.
Redes neuronales(Presentación separada)
Conexionismo• Redes de McCulloch – Pitts (1943)
– Neuronas como puertas lógicas– Pesos: sinapsis excitativas, s. inhibitorias– Capacidad de computación universal– Máquina de lectura para ciegos, percepción gestáltica
• Von Neumann, Winograd– Redundancia en redes de McC-P para tolerancia a errores
• Sinapsis de Hebb (1949)– Basado en Ramón y Cajal– Modelo distribuido (hologramático)– Aprendizaje: redes neuronales adaptativas (McKay, Uttley, 1950)– Reconocimiento de patrones
Conexionismo
• Perceptrones (Frank Rosenblatt)– Entrenamiento para distinción de patrones– Unidades sensoriales y motoras– Aumento o disminución de pesos (conductismo)
• Seymour Papert / Marvin Minsky (1969)– Distinción entre T y C, con
rotación etc– No pueden resolver XOR y
funciones lógicas que requierenmás alto nivel de tipificación
Modelos ulteriores
• Redes de Hopfield– Spin glass: Problemas de optimización, vendedor
ambulante (simulación de templado, AG, etc) – Atrapadas en configuraciones metaestables
• Máquinas de Boltzmann– Múltiples capas– Propagación hacia atrás– Kohonen: entrenamiento no asistido– Resolución XOR, T/C– NetTalk: lee y habla inglés– Redes amo-esclavo, filtros de Gabor– Modelos mixtos: AARON
Situación actual
• Situación incierta de IA fuerte– Sentido común: Estructuras, templates, frames, scripts,
mapas cognitivos– Dreyfus: What computers can’t do (Flores, Heidegger)– 1996: Deep Blue vence a Kasparov
• Divisiones en el paradigma conexionista (Pinker)– Conexionismo eliminativo: sin semántica ni nivel
simbólico– Conexionismo implementacional:
representación sub-simbólica– Conexionismo revisionista de procesamiento de
símbolos (Escuela de San Diego)
Desarrollos ulteriores
• 1980s: Resurgimiento de la neurociencia con PDP en Escuela de San Diego
• 1987: Cognición situada, modelos ecológicos
• 1990: Dinámica no lineal
• 1990-2000: Cognición distribuida, Modelos basados en agentes
Estado de la cuestión
• Modelo de Izhikovich, igual dimensión que el cerebro 1010 neuronas.
• Un segundo de simulación insume 50 días en un cluster Beowulf de 27 procesadores de 3 GHz
• El modelo exhibe ritmos alpha y gamma y otros fenómenos de interés.
Aplicaciones en Antropología
• Discursivas: Reflexiones de D’Andrade– Los antropólogos suelen hablar de reglas.– Lo que hay en realidad son conductas.– En muchos casos que se describen como seguimiento
de reglas, puede no haberlas dentro del actor – Sólo redes de ciertas clases.
– También hay un paralelismo con la “respuesta automática” versus la no-automática, de carácter simbólico.
– Gran parte del aprendizaje cultural probablemente sea afin al aprendizaje coneccionista.
Aplicaciones en Antropología
• Maurice Bloch. “Language, anthropology and cognitive science”. Man 26, 183-198 (1992)
• Antropólogo cognitivo de LSE.
• Granjeros Zafimaniry de Madagascar – Decisiones complejas (p. ej. un pedazo de bosque puede ser un buen campo).
• No puede ser resultado de análisis por factores de vegetación, pendiente, entorno, hidrología, suelo, etcétera.
• El modelo folk se resuelve en segundos y no lo podemos comprender bien porque razonamos conforme al modelo de procesamiento simbólico.
• La alternativa conexionista es mejor.
Sobre Maurice Bloch
• Conocido por su enfoque marxista en sus inicios.• Enemigo de la memética con posterioridad.• Desarrolla su trabajo en LSE, no tanto en Francia.• Distingue entre la antropología tradicional y el miasma
difusionista (esto es, negación radical del evolucionismo, énfasis en lo individual y lo histórico).
• Después de Mead y Lévi-Strauss, la influencia de la antropología en la vida intelectual se ha esfumado.
• Cuestiona la negación irreflexiva de la naturaleza humana (postura análoga a la de Steven Pinker).
• Léase “Where did anthropology go?” (2005).
Aplicaciones en Antropología
• Modelos de análisis arqueológico de Juan Barceló (Universidad de Barcelona)
Aplicaciones en Antropología
• Damián Castro (Anthropokaos) – Redes de reconocimiento de motivos de arte rupestre
Herramientas conexionistas
Software de redes neuronales
• Java NNS
• NeuroSolutions
• Rosenblatt
• James
• Rumenhart
• Modelo de Damián Castro
Conexionismo heideggeriano
Conclusiones y Recursos
Conclusiones
• Ningún bando ganó una batalla.– GOFAI está órdenes de magnitud más cerca de ser un
modelo aceptable de la lógica humana de lo que las redes neuronales están de ser un modelo del cerebro.
• No hay mapeado directo entre lenguaje y observación: la relación es compleja.
• Las posturas relativistas no se sostienen tan bien.• No es buena práctica científica enunciar lo que no
puede hacerse (caso Dreyfus).– El señalamiento de lo que no puede hacerse sólo ha
impulsado a que se lo haga.
Propuestas de trabajo
• No abordar cuestiones relativas a la polémica GOFAI / Conexionismo al menos que se aprenda seriamente computación avanzada.– Con los opúsculos de Varela y las monsergas
de los morinianos ya hay suficiente información espuria en circulación.
• Explorar recursos y algoritmos en IA y redes neuronales (JavaNNS, etc)
Recursos
Recursos
Recursos
Recursos
¿Preguntas?