desarrollo de la inteligencia final

83
UNIVERSIDAD TECNICA PARTICULAR DE LOJA DESARROLLO DE LA INTELIGENCIA PERIODO ACADEMICO AGOSTO 2007- FEBRERO 2008 LOJA – ECUADOR

Upload: krupskaya-gonzalez

Post on 23-Jun-2015

2.461 views

Category:

Education


7 download

TRANSCRIPT

Page 1: Desarrollo De La Inteligencia Final

UNIVERSIDAD TECNICA PARTICULAR DE LOJA

DESARROLLO DE LA INTELIGENCIA

PERIODO ACADEMICO

AGOSTO 2007- FEBRERO 2008

LOJA – ECUADOR

Page 2: Desarrollo De La Inteligencia Final

2

LAS CONSTANTES DE LA NATURALEZA

1 .CUESTIÓN DE NÚMEROS

"El libro de la Naturaleza está escrito en el lenguaje de las matemáticas". La frase, pronunciada por el astrónomo Galileo Galilei en 1623, tiene hoy plena vigencia. Basta echar un vistazo a nuestro alrededor para comprobar que detrás de todos los fenómenos naturales se esconde alguna clave matemática. Y que ciertos números se repiten continuamente.

Así, por ejemplo, las flores tienen en su mayoría 5 pétalos (geranios, pensamientos rododendros,…), aunque también es frecuente encontrar 3 en los lirios, 8 en los ranúnculos y 21 en las margaritas. El 5 es, además, una cifra habitual en las semillas de frutas como pepinos, tomates, peras y manzanas. Las espirales de la piña tropical (ananas) son 8 y 13, igual que las de las piñas de los pinos y otras coníferas. Y en la cabeza de un girasol, las semillas se disponen en espirales de 34 y 55, o 55 y 89.

En contra de lo que podríamos pensar a simple vista, esta reiteración de dígitos no responde a un simple "capricho de la Naturaleza". Se trata de los números de la famosa secuencia de Fibonacci (1,1,2,3,5,8,13,21,34,55,…) que un matemático italiano describió hace más de 800 años. La fórmula secreta es sencilla: cada número de la secuencia se genera a partir de la suma de los dos anteriores.

Al mismo tiempo, si dividimos cada dígito de la serie por el inmediatamente anterior, el resultado es aproximadamente siempre el mismo: una constante con infinitas cifras decimales conocida con la letra griega Phi (Φ), y cuyo valor es 1,6180339... Lo que es más, a medida que avanzamos en la secuencia de Fibonacci más se acerca el ratio de cada par de números a Phi.

Page 3: Desarrollo De La Inteligencia Final

3

2. PROPORCIÓN ÁUREA

Pero, ¿por qué es tan importante la constante Phi, también conocida como el número de oro?

Imaginemos que tenemos un segmento y que queremos fraccionarlo en dos partes de tamaños distintos. Podemos hacerlo de muchas formas, por ejemplo dividiéndolo de forma que la parte mayor sea el triple que la menor. Sin embargo, sólo existe una forma de dividir el segmento de modo que la relación (razón) que haya entre el segmento completo y la mayor de las partes en que se divide sea igual a la que mantienen las dos partes entre sí. Decimos entonces que ambas partes se hayan en proporción áurea, y su valor es Phi.

Utilizando los números de la sucesión de Fibonacci podemos construir una serie de rectángulos áureos, es decir, en los que los lados siempre mantienen esa proporción áurea. Basta con empezar dibujando dos pequeños cuadrados que tengan por lado una

Page 4: Desarrollo De La Inteligencia Final

4

unidad. A partir de ellos se forma otro cuyo lado mayor es 2, y que sirve como lado de un nuevo cuadrado. El proceso se puede repetir indefinidamente.

Lo más llamativo es que si unimos los vértices de estos rectángulos se forma una curva que seguramente nos resulta familiar. Se trata de una espiral casi idéntica a la que aparece en las conchas de moluscos como el Nautilus, en el crecimiento de las hojas de una planta, en los huracanes, en la forma de la Vía Láctea, en los cuernos de los rumiantes e incluso en la cóclea o caracol de nuestro oído interno. Además de su omnipresencia, esta espiral, apodada logarítmica, tiene la peculiaridad de que, aunque aumente su tamaño, la forma - proporciones- no se altera.

Más allá de la forma, la serie de Fibonacci aparece también en la genealogía de ciertas especies. Es el caso de los machos o zánganos de una colmena. La clave está en que las abejas hembras de la colmena nacen de los huevos fertilizados (tienen padre y madre), mientras los machos o zánganos nacen a partir de huevos no fertilizados, o lo que es lo mismo, sólo tienen madre. De esta forma, sus árboles genealógicos siguen estrictamente una distribución de Fibonacci: un macho (1) no tiene padre, sino una madre (1,1), dos abuelos - padres de la reina - (1,1,2), tres bisabuelos - porque el padre de la reina sólo tiene madre - (1,1,2,3), cinco tatarabuelos (1,1,2,3,5), etc.

El cuerpo humano tampoco es ajeno al número de oro. Con su conocido dibujo del hombre de Vitrubio, Leonardo da Vinci ilustró el libro "La Divina Proporción" del matemático Luca Pacioli, editado en 1509. En dicha obra se describen cuáles han deben ser las proporciones de las creaciones artísticas. Pacioli propone una figura humana en la que las relaciones entre las distintas partes de su cuerpo son proporciones áureas. Así, en este hombre armónicamente perfecto para Pacioli, el cociente entre la altura del hombre - el lado del cuadrado - y la distancia del ombligo a la punta de la mano - el radio de la circunferencia - es el número áureo.

Y no es el único caso. En la mayoría de los huesos que integran nuestro esqueleto aparece insistentemente Phi. Así, por ejemplo, los tres huesos de cada dedo de la mano están relacionados por esta constante. Y en el campo de la odontología, se ha descubierto que la dentadura va creciendo siguiendo proporciones áureas, de forma que las anchuras de los cuatro dientes frontales, desde el incisivo central hasta el premolar, se encuentran entre si en proporción áurea.

La molécula de ADN, que contiene el libro de la vida, también se ajusta a la proporción áurea. Cada ciclo de su doble hélice mide 34 angstroms de largo por 21 angstroms de ancho, dos números de la secuencia de Fibonacci cuyo ratio es, por supuesto, Phi.

Page 5: Desarrollo De La Inteligencia Final

5

EL PERSONAJE: LEONARDO FIBONACCI

La secuencia de Fibonacci se debe a un renombrado matemático italiano de la Edad Media. Su nombre completo era Leonardo de Pisa (1170-1240), aunque él se llamaba a sí mismo Fibonacci, como diminutivo de "hijo de Bonacci" (filius Bonacci), en honor al apodo de su padre. Hijo de diplomático, se educó en el norte de África y recorrió en su juventud varios países de Oriente Medio. Una vez de vuelta

a Europa, recopiló todo lo aprendido en un tratado de álgebra y aritmética titulado "Liber abaci" (Libro del cálculo), escrito en latín, que permitió expandir en Europa la notación decimal de origen indo-árabe que usamos actualmente, con los signos hindúes 1,2,3….,9, y el 0 árabe. En este libro hacía también mención, por primera vez, a la sucesión que hoy llamamos de Fibonacci en un problema sobre la reproducción de los conejos.

Varios siglos después, un matemático europeo llamado Edouard Lucas (1842- 1891) estudió la secuencia de Fibonacci y descubrió que dividiendo dos números consecutivos se obtenía la proporción áurea.

La fórmula de la eficiencia

Durante mucho tiempo, los científicos han tratado de explicar por qué se repiten con tanta frecuencia estos números y proporciones en el universo. La filotaxia, área de la botánica dedicada al estudio de la disposición de las hojas sobre el tallo, parece haber dado con una respuesta. Cuando una planta crece, la estrategia que utiliza para garantizar su supervivencia consiste en maximizar la distancia entre las ramas y las hojas, buscando ángulos que no se solapen y en los que cada una de ellas reciba la mayor cantidad de luz, agua y nutrientes posible. El resultado es una disposición en trayectoria ascendente, y en forma de hélice, en la que se repiten los términos de la sucesión de Fibonaci. En definitiva, la naturaleza no entiende de matemáticas, sino de eficiencia.

Eso mismo es lo que viene a decir un reciente estudio del matemático Alan Newell, de la Universidad de California. Tras observar la secuencia de Fibonacci en la disposición de semillas en cactus, puso en marcha un análisis detallado de la forma de estas plantas, el grosor de su piel y otros parámetros que dirigen el crecimiento. Al introducir los datos en un ordenador descubrió, con sorpresa, que las configuraciones que la computadora identificaba como más estables estaban siempre ligadas a las formas de Fibonacci presentes en los seres vivos. Y es que aquel matemático italiano halló, sin pretenderlo, la clave del crecimiento en la Naturaleza.

3. EL NÚMERO DE LA BELLEZA

En el terreno de las creaciones artísticas, Phi no ha pasado desapercibida. El conocimiento de la sección áurea y el rectángulo dorado se remonta a los griegos, que

Page 6: Desarrollo De La Inteligencia Final

6

utilizaron estas proporciones en la que se considera su mayor obra de arte: el Partenón de Atenas. No en vano, Phi es la inicial del nombre del escultor griego que supervisó la construcción del templo, el original Fidias.

Tal es la reputación de Phi, que se dice que este número ha formado parte del "conocimiento secreto" protegido por generaciones de francomasones, illuminati, caballeros de la Orden de Rosacruz y otras sociedades secretas. Secreto o no, lo cierto es que las proporciones áureas han inspirado a arquitectos, pintores, escritores e incluso músicos de todas las épocas. Los expertos hablan de que construcciones tan antiguas como las pirámides egipcias se levantaron bajo el principio del número de oro. Obras maestras de Leonardo da Vinci, Miguel Ángel, Durero o Dalí, entre otros pintores, llevan la marca de la divina proporción.

De Mozart se dice que dividió algunas de sus sonatas en dos partes que reflejan casi exactamente la proporción áurea. Stradivari la utilizó para construir sus famosos violines. Las dimensiones del edificio de la sede de la ONU en Nueva York poseen la proporción áurea, con el fin de conseguir el orden arquitectónico perfecto en el epicentro de la organización que rige los designios del mundo. Incluso, intencionalmente o no, en el libro del Génesis de la Biblia se describe que "el arca (de Noé) tendrá 450 pies de largo, 75 pies de ancho y 45 de altura", donde la proporción de 75/45 es de nuevo el número dorado. Sin olvidar que algo tan cotidiano como las actuales tarjetas de crédito, o nuestro carné de identidad, mantienen esa misma proporción.

El motivo para la gran propagación de Phi hay que buscarlo en su supuesta relación con la belleza y la armonía. Aunque, todo hay que decirlo, son muchos los científicos dudan de que nuestra percepción de lo que es bello esté vinculada a este número.

De momento, las investigaciones de Stephen Marquardt, investigador de la Universidad de California, parecen dar un espaldarazo al vínculo entre belleza y proporción áurea. Tras examinar multitud de rostros humanos y realizar numerosas encuestas, este cirujano ha llegado a la conclusión de que los rostros considerados más atractivos son aquellos cuyas partes determinan longitudes que están en proporción áurea. Y esta relación, señala, no depende de las diferencias existentes en la concepción de belleza según razas, culturas o épocas.

La máscara áurea

Fruto de sus pesquisas, Marquardt ha construido una máscara facial en la que utiliza la razón áurea para establecer la distancia ideal entre los diferentes elementos de un rostro. La belleza de una cara puede ser determinada según la desviación que presentan sus distintas partes respecto a lo que establece la máscara. Así, por ejemplo, el rostro de la actriz Michelle Pfeiffer se ajustaría exactamente a los cánones áureos de la máscara. Su invento, asegura, tiene aplicaciones

Page 7: Desarrollo De La Inteligencia Final

7

directas en cirugía plástica y reparadora, así como para maquillarse.

El doctor Marquardt se atreve incluso a sugerir una finalidad biológica para la belleza. Según el investigador, se trata de un mecanismo para asegurar que los humanos se reconocen entre sí y se sienten atraídos por miembros de su misma especie. Las caras más hermosas son las que resultan más fácilmente reconocibles como humanas, algo que sabemos comparando inconscientemente un rostro con el rostro ideal que tenemos en nuestra mente. "La belleza es sencillamente humanidad", afirma.

4. Pi Y LOS CÍRCULOS

Más conocida, y quizás por ello menos impactante, es la omnipresencia de la constante Pi (π =3,141592653…) en las formas circulares. Y es que, en cualquiera de ellas, la longitud de la circunferencia dividida por su diámetro coincide siempre con este número.

El primer intento de estimar el valor de Pi se atribuye a los Babilonios, que en el año 2000 a.C. aseguraban que equivalía a 3 1/8 (3,125). En la misma época los indios utilizaban la raíz cuadrada de 10 para Pi (3,1622…). Pero ambas aproximaciones tenían un error a partir del segundo decimal.

Page 8: Desarrollo De La Inteligencia Final

8

Años más tarde, Arquímedes aventuró que Pi estaba entre 3+10/71 y 3+1/7. Más cerca se quedó, en el 150 d.C., Ptolomeo de Alejandría, que hablaba de 377/120 (3,14166667…). El chino Tsu Ch'ung-Chi, en el año 350, acertó hasta tres decimales con la fracción 355/113 (3,14159292…). Pero hubo que esperar a 1761 para que un matemático llamado Lambert probara que se trataba de un número irracional, es decir, imposible de obtener a partir de ninguna fracción, lo que implicaba que el cálculo de sus decimales no acabará nunca.

A partir de aquel momento se puso en marcha una carrera para calcular el mayor número de decimales posible, especialmente impulsada a partir del siglo pasado con el uso de ordenadores. En 1949, John Von Neumann utilizó la computadora electrónica ENIAC, y tras setenta horas de trabajo obtuvo 2037 cifras decimales. En la actualidad, el récord lo ostenta Yasumasa Kanada, de la Universidad de Tokio, que en 2002 extrajo 1,24 billones de decimales para Pi. Toda una hazaña.

Pi natural

A pesar de que en la Naturaleza no existen esferas tan perfectas como una bola de billar, ni cilindros ideales, la ubicuidad de Pi es innegable. No sólo aparece cuando una gota cae en el agua o en la curvatura del arcoiris. En el mundo animal, la altura de un elefante, del pie al hombro, se obtiene multiplicando Pi por 2 y por el diámetro de su pie. Cualquier onda o espectro contiene a Pi, lo que supone su presencia en la luz y en cualquier vibración sonora, incluyendo las composiciones musicales. Además cobra especial significado a la hora de calcular el movimiento de los planetas y las estrellas, incluso el tamaño del Universo. Y en el mundo subatómico, los físicos se han topado con Pi en las supercuerdas, esos elementos últimos de la materia con los que se espera poder unificar de una vez por todas las leyes de la física.

Por su parte, un geólogo de la Universidad de Cambridge llamado Hans-Henrik Stolum ha calculado el ratio entre la longitud real de los principales ríos, desde su nacimiento hasta su desembocadura, y lo que mide la línea recta entre ambos puntos. El resultado medio para todos los ríos es aproximadamente 3,14, cercano al valor de Pi.

Esta constante entiende también mucho de probabilidades. Basta saber, por ejemplo, que la probabilidad de que dos enteros positivos escogidos al azar sean primos entre si es 6/Pi2. O que si se eligen al azar dos números positivos menores que 1, la

Page 9: Desarrollo De La Inteligencia Final

9

probabilidad de que junto con el número 1 puedan ser los lados de un triángulo obtusángulo es (Pi-2)/4.

5. EL NÚMERO e

El desarrollo de una colonia de bacterias, las encuestas de población, la prueba del carbono 14 para datar restos orgánicos, e incluso la probabilidad de sacar 70 veces un número par al lanzar un dado un centenar de veces tienen algo en común: un extraño número comprendido entre 2 y 3, con infinitas cifras decimales y llamado e, o número de Euler (e = 2.71828 18284 59045 23536 02874 7135...).

Aunque las primeras referencias a este número datan de 1618, fecha en la que John Napier publicó su valor junto a otros logaritmos, fue el matemático suizo Leonhard Euler quién empleó por primera vez la letra e en 1727 para nombrarlo. Este genio, del que se decía que "calculaba sin aparente esfuerzo, como los hombres respiran o las águilas se sostienen en el aire", mostró que el número e podía ser la base más "natural" para los logaritmos, que en aquella época eran de gran ayuda para realizar operaciones aritméticas.

Además, ideó una fórmula bautizada como identidad de Euler y considera por muchos como la más bella e importante de las matemáticas:

En ella se aúnan, de forma escueta, varios conceptos claves de esta ciencia:

π, el número más importante de la geometría. e, el número mas importante del análisis. i, el número mas importante del álgebra.

Del bosque a la mesa forense

Más allá de su belleza matemática, el número e tiene importantes implicaciones en el mundo que conocemos. En biología, por ejemplo, una de sus principales aplicaciones es el crecimiento exponencial. Este tipo de crecimiento surge cuando no hay factores que limiten el crecimiento, como ocurre en ciertas poblaciones de bacterias, o en la

Page 10: Desarrollo De La Inteligencia Final

10

recuperación de una superficie boscosa después de un incendio. Para este tipo de crecimiento se aplica la siguiente fórmula:

N = No · et

Esto nos permite adivinar cual será la población (N) en un determinado tiempo (t) a partir de la población inicial (No).

A la hora de datar un fósil, la constante de Euler también está presente. A mediados del siglo XX, un químico llamado Libby descubrió el carbono-14, un isótopo radiactivo del carbono que desaparece lentamente. El C14 reacciona con el oxígeno en las capas altas de la atmósfera dando dióxido de carbono radiactivo, el cual entra en la superficie de la Tierra, en la que se desarrolla la vida. Mientras un ser está vivo, va reponiendo el C14 que pierde, pero cuando ese ser muere, sólo se producirá en él una pérdida continua y lenta de C14. Una vez que los químicos consiguieron llegar a medir la cantidad de C14 contenida en un ser no vivo, como se conocía la velocidad de desintegración del C14, se lanzaron a buscar una ecuación que les diera como solución el tiempo necesario para que en ese ser quedara tan solo esa cantidad de C14. Y se encontraron con la sorpresa de que la fórmula contenía al número e.

Los forenses, como los paleontólogos, también deben tener este número en cuenta. Y es que e permite determinar en un asesinato el momento de la muerte. Para ello es necesario aplicar la ley de Newton sobre el enfriamiento que establece que la velocidad a la que se enfría un cuerpo es proporcional a la diferencia entre la temperatura del objeto y la temperatura del entorno. Esto quiere decir que cuando un objeto está mucho más caliente que el aire exterior, su velocidad de enfriamiento es alta, de manera que pierde temperatura muy rápidamente. Por el contrario, cuando un cuerpo está un poco más caliente que su entorno, su velocidad de enfriamiento es baja.

Una persona viva no se enfría continuamente. El metabolismo humano asegura el mantenimiento de la temperatura del cuerpo alrededor de los 36ºC. Pero, una vez muertos, nuestro organismo deja de producir calor y, por tanto, comienza a enfriarse siguiendo la ley de Newton, que se aplica con la fórmula matemática siguiente:

Page 11: Desarrollo De La Inteligencia Final

11

T = Taire + (Tcos - Taire) / ek·t

En ella T es la temperatura, t es el tiempo en horas después de medianoche y k es una constante. De nuevo e está presente.

Hay más. Esta constante también está ligada a la razón áurea y a la espiral logarítmica. Cuando se cuelga una cadena o un cable por los extremos, tiende a adoptar una forma que se relaciona con el número e. Incluso en algo tan mundano como el cálculo de los intereses bancarios es necesario recurrir a la constante de Euler.

6. LAS CONSTANTES DE LA FÍSICA

Existen alrededor de 25 constantes físicas que aparecen en las fórmulas que describen nuestro universo, desde lo más grande (los cúmulos de galaxias) hasta lo más pequeño (los quarks). De esas 25 constantes, los físicos consideran que las más importantes son c (la velocidad de la luz), G (la constante de la gravitación) y h (la constante de Planck, que gobierna el mundo de los átomos).

A diferencia de los números vistos hasta ahora, se trata de constantes estimadas en el laboratorio para explicar fenómenos físicos y expresadas en unidades, por lo que dependen de éstas. Así, por ejemplo, la velocidad de la luz tiene un valor de 299.792.458 metros por segundo. Y la constante de Planck, 6,63 × 10-34 julios por segundo.

Aparentemente no hay nada "mágico" en estas cifras. La sorpresa surge cuando se combinan c y h con otra constante, la carga del electrón (e), obteniendo un número sin unidades ni dimensiones: 7,297352533x10-3. Esta constante, también conocida como alpha, es la "constante de la estructura fina", que describe cómo actúan las fuerzas a nivel atómico. Los físicos creen que se trata de una pieza importante en el desarrollo de

Page 12: Desarrollo De La Inteligencia Final

12

nuestro universo, clave para alcanzar la ansiada "teoría del todo". Esta constante es extraordinariamente importante. Si su valor fuera solo algo diferente, nuestro universo sería completamente distinto. Por ejemplo, sabemos que el agua es 107 veces más opaca a la radiación ultravioleta e infrarroja que a la luz visible. Dado que el tejido vivo en general y los ojos en particular están compuestos mayormente por agua, la comunicación por la vista sería imposible si no fuera por el hecho de que la transmisión de la luz por el agua concuerda con la radiación del sol, algo posible gracias a una determinación cuidadosa de los valores de las constantes de la fuerza de gravedad y la fuerza electromagnética, además de la constante de Planck y la masa del electrón.

Por otro lado, si se divide la intensidad del campo eléctrico que mantiene unidos los átomos por la fuerza de la gravitación universal, que determina la formación y el mantenimiento de las galaxias, estrellas, planetas y satélites en sus órbitas, también obtenemos un número fijo: un 1 seguido de 36 ceros. Esta constante, conocida como N, es tan importante que, si tuviera menos ceros, el Universo sería mucho más pequeño y efímero, no podrían existir criaturas de mayor tamaño que un insecto y no habría tiempo suficiente para la evolución de las especies.

Igual de crítico es el valor constante que relaciona la fuerza nuclear fuerte con la fuerza electromagnética. Si esta relación aumentase en sólo el 2% el universo se quedaría sin hidrógeno y sin agua, medio indispensable para la vida. La constante omega (Ω), relacionada con la densidad del Universo, determina la cantidad de materia oscura. Y la constante cosmológica de Einstein, denotada por la letra griega lambda (λ), representa la fuerza de la "antigravedad", y es fundamental para explicar la expansión del Universo.

El extraordinario equilibrio que esto supone ha fascinado durante siglos a científicos de todo el mundo. El premio Nóbel de Física Arno Penzias expresaba así el carácter enigmático del universo: "La astronomía nos lleva a este evento único, un universo que fue creado de la nada y que está equilibrado delicadamente para proveer exactamente las condiciones requeridas para sustentar la vida. En la ausencia de un accidente absurdamente improbable, las observaciones de la ciencia moderna parecen sugerir un plan subyacente que podríamos llamar sobrenatural."

¿Está cambiando la velocidad de la luz?

Como su propio nombre indica, se supone que las constantes físicas permanecen inmutables, reflejando una constancia subyacente de la naturaleza, eterna y universal, en todos los tiempos y los espacios. Este es un pensamiento heredado de los padres de la ciencia moderna, como Copérnico, Kepler, Galileo, Descartes o Newton, para quienes las leyes de la naturaleza eran ideas inalterables de una mente divina. Dios era un matemático, y el descubrimiento de las leyes de la naturaleza es una incursión en su Mente. Sin embargo, en algunos casos la experimentación parece desmentir esta permanencia, sugiriendo que ciertas constantes podrían cambiar a lo largo del tiempo.

Ese sería el caso de la velocidad de la luz, que podría haberse ralentizado a lo largo del tiempo, según proponía hace unos años en la revista Nature el astrofísico y escritor australiano Paul Davies, conocido por sus investigaciones en torno de los agujeros negros y el comienzo del universo.

Page 13: Desarrollo De La Inteligencia Final

13

El trabajo de Davies surgió como respuesta al enigma propuesto por el astrónomo John Webb y su equipo de la Universidad de Sidney. Analizando la luz llegada "del pasado" de un cuásar distante - objeto celeste similar a una estrella -, Webb llegó a la conclusión de que la constante de estructura fina de la luz del cuásar era alrededor de una millonésima parte más pequeña de lo previsto. Davies investigó cuál de las constantes sobre las que está basada alfa había variado a lo largo del tiempo y llegó a la conclusión de que debía ser la velocidad de la luz. "Si la velocidad de la luz varía, el Big Bang podría haber sido hace doce o quince mil millones de años -afirmó Davies-. La velocidad de la luz podría haber sido infinita en ese momento, lo que explicaría muchas cosas de nuestro universo actual". Y es que la supuesta variación de esta constante, además de contradecir la teoría de la Relatividad de Einstein, podría dar explicación a fenómenos como la temperatura casi uniforme del Universo, así como reforzar las teorías sobre las dimensiones espaciales adicionales.

Davies no es el único que aporta pruebas en esta dirección. En 2004, analizando el reactor nuclear natural de hace 2.000 millones de años que fue encontrado en 1972 en Oklo, en África Occidental, algunos científicos señalaron que la constante alpha por aquellas fechas podría haber sido ligeramente mayor, lo que en principio supondría que la velocidad de la luz habría variado en los dos últimos milenios.

Otros investigadores discrepan con estas interpretaciones, y aseguran que las diferencias observadas podrían explicarse por una variación en la intensidad de la fuerza electromagnética entre los electrones. Aún queda mucho trabajo por hacer, aseguran, antes de afirmar que la velocidad de la luz u otras "constantes universales" podrían estar cambiando.

7. OPTIMIZACIÓN EN EL UNIVERSO

Por Manuel de León, Vicepresidente de la Real Sociedad Matemática Española y Académico de la Real Academia de Ciencias Exactas, Físicas y Naturales.

Las matemáticas nos enseñan las pautas escondidas en las masas de datos con las que el universo nos bombardea continuamente. Pero esas pautas obedecen a una necesidad de optimizar. Al terminar de leer este artículo quédese con esta pregunta: ¿optimiza el universo las constantes físicas?

Page 14: Desarrollo De La Inteligencia Final

14

Optimizando espacio

En 1606, Sir Walter Raleigh propuso al matemático Thomas Harriot una cuestión que preocupaba a la Armada inglesa: ¿cuál es la mejor manera de apilar las balas de cañón en las cubiertas de los barcos? Harriot escribió a su colega Johannes Kepler. La respuesta fue la llamada conjetura de Kepler: justamente la manera de apilar las naranjas en las fruterías. Con algo más de tecnicismo, ninguna naranja más se puede introducir en el mismo receptáculo. La densidad medida como la razón entre el espacio ocupado y el espacio total es precisamente π/18.

Aunque pueda parecer obvio, los matemáticos llevan ya casi cuatro siglos intentando probar que esto es así, en gran medida porque la demostración conlleva una enorme cantidad de cálculos de ordenador. En 1998, el matemático norteamericano Hales presentó una demostración que todavía no ha sido aceptada definitivamente; el propio autor estima que tendrá una prueba formal en 20 años más. Pero no crea que los matemáticos nos dedicamos a problemas que los fruteros han resuelto hace mucho tiempo: el plegamiento de las proteínas es tampoco una versión compleja de los problemas de empaquetamiento.

Optimizando tiempo

Usted seguramente habrá sufrido el invierno pasado una gripe anual. El esquema es bien conocido: dos días para desarrollar la enfermedad y una semana para curarse. Los virus crecen exponencialmente (parecen conocer a nuestro amigo el número e) y. ante su ataque, el organismo reacciona lentamente. Esta es la respuesta correcta, que eones de evolución han enseñado: si la respuesta fuese tan rápida como el ataque, se produciría un equilibrio, y usted arrastraría su gripe durante largos años. Al ser lenta, el organismo puede hacer acopio de anticuerpos y dar un ataque masivo. Le sorprenderá saber que este modelo matemático es exactamente el mismo que produce esos maravillosos patrones coloridos de las conchas marinas. ¡Pareciera que la naturaleza optimizase también la cantidad de matemáticas que precisa!

Optimizando el crecimiento

Todos conocemos esos maravillosos campos de girasoles. Observemos uno de ellos: veremos muchas espirales entrelazadas y, si contamos las que giran a izquierda y las que lo hacen a la derecha, encontramos siempre dos términos consecutivos de la sucesión de Fibonacci. ¿Cuál es la causa? El girasol va creciendo paso a paso, con mucho cuidado, produciendo las proto-hojas optimizando el espacio que ocupan. Ese crecimiento cuidadoso con números enteros es capaz de producir el a veces llamado el más irracional de los números, el número Φ.

¿Son las constantes "constantes"?

Hay ciertos números que aparentan ser "mágicos", y a la vez, hay constantes físicas que no le van a la zaga. ¿Cuáles son más "constantes"? Lo cierto es que la física de los primeros segundos de nuestro universo parece haber producido las constantes que ahora observamos, que, de pasada, son las que permiten que un ser humano (yo en este caso) esté ahora escribiendo un artículo (recuerden el principio antrópico). Pero no puede hablarse en realidad de "constantes matemáticas", sino de números. Hay una cantidad infinita de números irracionales como π, e o Φ; y desde un punto de vista estrictamente matemático, no hay diferencias entre unos y otros.

Page 15: Desarrollo De La Inteligencia Final

15

Pero también es verdad que las matemáticas proporcionan modelos para que puedan realizarse todas las constantes físicas. ¡Esta es "la irrazonable efectividad de las matemáticas" de la que hablaba el premio Nóbel de Física Paul Wigner!

Page 16: Desarrollo De La Inteligencia Final

16

COMPLEJIDAD 1. Definición de un Sistema Complejo Un sistema complejo es un sistema compuesto por varias partes interconectadas o entrelazadas cuyos vínculos contienen información adicional y oculta al observador. En un sistema complejo, existen variables ocultas cuyo desconocimiento nos impide analizar el sistema con precisión. Así pues, un sistema complejo, posee más información que la que da cada parte independientemente. Para describir un sistema complejo hace falta no solo conocer el funcionamiento de las partes sino conocer como se relacionan entre sí. 2. Complejidad en lo cotidiano La definición de complejidad tiene que ver con la diversidad de elementos que componen una situación; un todo que se compone de partes que interactúan y que estas a su vez se encuentran en contacto con su medio ambiente. Desde este ángulo, todo es complejidad. Toda nuestra vida está rodeada del concepto de complejidad. La complejidad no tiene una sola forma de definirse y entenderse, esto es, la definición de complejidad depende del punto de vista del observador, como menciona Warfield (1994). Algo que es complejo para un observador tal vez no lo será para un segundo observador o para un grupo de observadores. Desde esta perspectiva la complejidad se nos presenta como el diferencial entre la demanda de recursos (materiales, intelectuales, valores, etc.) para enfrentar una situación y los recursos de que dispone el observador. Es sencillo, si la situación que se presenta (desde el punto de vista de algún observador) demanda de gran cantidad de recursos (de cualquier índole) y no se cuenta con los recursos necesarios para afrontar esa situación (por su dinámica y características propias) entonces estamos frente a una situación compleja. 3. Tipos de Complejidad Una empresa adquiere una nueva y numerosa flotilla de camiones estandarizados de un solo proveedor para la entrega de sus productos. La realización de reparaciones, manejo de las partes, y control de refacciones, requiere del desarrollo de habilidades y aprendizaje que debe acumularse dentro del equipo de gente que tiene a su cargo la tecnología de reparto de producto.

Page 17: Desarrollo De La Inteligencia Final

17

Dos años después, por los compromisos que tiene un alto ejecutivo, se compra una fuerte cantidad de unidades nuevamente, pero de distinto proveedor. Sobra comentar que el esfuerzo requerido dentro de la organización para la administración, control y seguimiento de, aunque aparentemente dos tecnologías similares, requiere de un desgaste de energía abundante, de un despliegue de talento adicional y de una administración más compleja de una situación que ya había sido estabilizada. Este simple ejemplo, muy específico y común en el contexto organizacional, cae dentro de una serie de situaciones que se presentan a diario dentro de cualquier empresa. De esta situación podemos concluir lo siguiente: 1. El dominio de una simple tecnología es un proceso de aprendizaje que requiere tiempo. Está implícito cierto grado de complejidad con el que habrá que lidiar. 2. A medida que se agregan mas variables a las existentes, la necesidad de contar con la infraestructura para su administración debe ser mayor (demanda mayor tiempo, talento y recursos). 3. Esta situación se muestra como una de las más características dentro de cualquier organización. Donde para la toma de decisiones se parte de ciertas bases, variables y supuestos. Sin embargo no se tiene un criterio común para evaluar el impacto positivo o negativo de la decisión y sus posibles efectos secundarios a todos los sistemas involucrados. Tampoco se cuenta con una idea clara de lo que esta decisión implica en el incremento del nivel de complejidad en el tiempo. Este tipo de complejidad organizacional adquirido pudiera llamarse "provocada", puesto que se contaba con la información para decidir por el tipo de proveedora seleccionar. Esto es, la decisión correcta hubiera sido idealmente seleccionar la misma tecnología, esto permitiría un mejor control del sistema en cuestión, que a su vez se traduciría en una mayor eficiencia de la organización como un todo. Aquí vemos que no todo en la organización es "aleatorio"; la cantidad de circunstancias de desgaste por energía disipada que se generarán gracias a una mala decisión serán mayores debido a que la exigencia del sistema crece en diferentes variables. El sistema ahora requiere más atención y si la organización no cuenta con los recursos adecuados para administrarlo correctamente entonces la situación se volverá ineficiente. Tratando entonces de clasificar los diferentes tipos de complejidad que se pueden encontrar en las organizaciones, pudiéramos mencionar las siguientes categorías: A. Complejidad de Origen.- Debida a las características de la tecnología, producto e infraestructura que demanda naturalmente a la organización. El tipo de complejidad de diseño es aquella que surge de los componentes básicos de la organización y sus interrelaciones para poder operar: La tecnología, su organización, el mercado, el tipo de producto, sistema de manejo de materiales, sistema de distribución, etc. Dentro de la complejidad de origen podemos decir que juega un papel fundamental la Tecnología. Existen innumerables estudios que marcan a la tecnología como una de las principales variables que definen la configuración de la organización, puesto que en base al proceso de transformación se empiezan a desplegar requerimientos para llevarla a cabo. Existen tecnologías muy sencillas de administrar pero donde la

Page 18: Desarrollo De La Inteligencia Final

18

complejidad emerge de la cantidad de clientes que se tiene, ya que cada uno de ellos requiere algo específico. En el otro extremo están las compañías que se encuentran dentro del mercado de la innovación y que demanda gran coordinación entre sus elementos, desde que se diseña el producto hasta que se lanza al mercado, pasando por sus etapas de prueba y fabricación. Cada una de ellas guarda su complejidad propia y demanda de recursos y actores capacitados para administrar ese nivel de complejidad implícito. B. Complejidad Residual.- El tipo de complejidad no administrada nace en el momento en el que la variedad demandada excede a la variedad del sistema y que genera un diferencial acumulable. Complejidad resultante de los procesos normales dentro de la organización; conflictos en la toma de decisiones, descontrol de procesos, programación de la producción, reclamaciones del cliente, etc. Dentro de la complejidad residual juega un papel primordial la interacción de los vectores Tecnológico, Administrativo y Humano. Este tipo de complejidad esta más identificada con los procesos que se generan día a día en la organización al operar el sistema. La organización tiene que lidiar con ella todo el tiempo y es el talento del personal y la sinergia de grupo la que logra que se salga adelante una y otra vez, aunque si no se cuenta con lo recursos adecuados, la entropía tenderá a desarrollarse con el tiempo matando al sistema. C. Complejidad Provocada.-Complejidad resultante de fenómenos no atribuibles a situaciones normales, como son grupos de poder que toman decisiones inconscientemente (?) en la organización para su propio beneficio. Surge por razones ajenas a los fines de la organización y más bien se produce obedeciendo a los intereses personales de la gente, los intereses de grupos de poder internos, los intereses organizacionales de doble cara, como son el promover una estrategia de mejora en la organizacional pero para lograr beneficios personales en cuanto a proyección, aprendizaje o para perpetuarse en el poder. Este tipo de complejidad es muy difícil de detectar y pienso que es a la que hay que temerle más. Como menciona Gerad Egan (1996, pag 3) en su libro El Valor Agregado de los Empleados en las Organizaciones: "Comprender y administrar el lado oculto de la empresa es una parte clave de la sabiduría pragmática que se requiere para enfrentar los cambios desconcertantes que están ocurriendo en el lugar de trabajo". No se puede negar que cada persona dentro de la organización tenga la necesidad y el derecho de hacer carrera dentro de la organización, pero hay que entender que el primer objetivo de la empresa es que esta sea negocio y no precisamente para beneficio de algunos.

Page 19: Desarrollo De La Inteligencia Final

19

Ya sea consciente o inconscientemente, cualquier decisión que ocurre en la organización afecta su desempeño y si esta no se toma buscando antes que nada el beneficio de la empresa, entonces estaremos agregando mas elementos que contribuyan a desgastar al sistema y mermen su equilibrio dinámico. Son muy clásicos los estudios sobre administración de la tecnología donde el grupo que controla los principales procesos de la organización se resiste al cambio poniendo objeciones a los cambios propuestos en aras de la mejora. Esto no es un absurdo; la gente dentro de la organización quiere conservar lo que hasta ese momento ha ganado con mucho sacrificio. Cualquier cambio en el status quo pone en peligro su lugar en la organización y esta o estas personas harán hasta lo imposible por no ceder. Lo triste de la historia es que la organización pierde tiempo valioso para fortalecerse al adaptarse a su medio ambiente, y esto representa de alguna manera quitarle sus defensas ante los ataques de la competencia. En la complejidad provocada juega un papel predominante la cultura y el liderazgo. Todos estos tipos de complejidad ocurren cada día en el entorno organizacional, algunos con más fuerza que otros, por la realidad situacional muy particular que se vive internamente. Sin embargo si no son identificados estas variedades de complejidad y administrados adecuadamente la organización perderá la energía que existe, llevando consigo al desgaste, y la caída paulatina del sistema. Y la

Page 20: Desarrollo De La Inteligencia Final

20

razón es muy sencilla, se acabó el colchón de la ineficiencia para aguantar más decisiones equivocadas en las empresas. 4. Características de la Complejidad 1. La Complejidad puede ocurrir en sistemas naturales, aquellos diseñados por el hombre e incluso en estructuras sociales. 2. Los sistemas dinámicos complejos pueden ser grandes o pequeños; de hecho en algunos sistemas complejos, los elementos grandes y pequeños viven cooperativamente. 3. La forma física puede ser regular o irregular. 4. Como una regla, entre más grande es el número de partes del sistema, existe mayor probabilidad de ocurrencia de la complejidad. 5. La complejidad puede ocurrir en sistemas disipadores (en contacto con su medio ambiente y que se desgastan al operar) o conservadores de energía (como el movimiento planetario). 6. Los sistemas no son completamente probabilísticos ni completamente determinísticos; exhiben ambas características. 7. Las causas y efectos de los eventos que el sistema experimenta no son proporcionales. 8. Las diferentes partes de sistemas complejos están conectadas y afectan una a otra de una manera sinergética. 9. El nivel de complejidad depende de las características del sistema, su medio ambiente, y la naturaleza de las interacciones entre ellos. 10. Los sistemas complejos son abiertos, en el sentido de que intercambian materia, energía e información con su medio ambiente. 11. Los sistemas complejos tienden a generar procesos irreversibles. 12. Los sistemas complejos son dinámicos y no se encuentran en equilibrio. 13. Muchos sistemas complejos no son bien comprendidos y frecuentemente generan cambios que sugieren que las relaciones funcionales que los representan no son diferenciables (de fácil solución). 14. Existen paradojas como eventos rápidos y lentos, formas regulares e irregulares, y cuerpos orgánicos e inorgánicos en cohabitación. 5. Ejemplos Un ejemplo típico de sistema complejo es la Tierra. La tierra está formada por varios sistemas simples que la describen: • Campo gravitatorio. • Campo magnético. • Flujo térmico. • Ondas elásticas. • Geodinámica.

Page 21: Desarrollo De La Inteligencia Final

21

Cada uno de estos sistemas está bien estudiado pero desconocemos la forma en que interactúan y hacen evolucionar el sistema 'Tierra'. Hay, pues, mucha más información oculta en esas interrelaciones de sistemas. Otros sistemas complejos típicos son: • Terremotos y volcanes. • Los ecosistemas. • Los seres vivos. • El software 6. Complejidad y Caos

Bibliografía http://es.wikipedia.org/wiki/Sistema_complejo http://www.slideshare.net/schuschny/clase-1-y-2-introduccin-a-las- ciencias-de-la-complejidad/1 http://www.eumed.net/cursecon/libreria/2004/aca/aca.htm

Page 22: Desarrollo De La Inteligencia Final

22

CASO DE ESTUDIO: Prueba de Inteligencia (CRUZAR EL RIO) Esta es una prueba que se aplica en algunos países asiáticos como el Japón y China para los aspirantes a algún trabajo. Las instrucciones se indican se indican a continuación: Reglas:

Recuerda: “TODOS DEBEN CRUZAR EL RIO !!!!!”

1. Todo el mundo tiene que cruzar el rio utilizando para ello la balsa. 2. Solo 2 personas en la balsa pueden cruzar al mismo tiempo (capacidad de la balsa 2 personas). 3. El Padre no puede estar con ninguna de las hijas si la Madre no esta presente. 4. La Madre no puede estar con ninguno de los hijos si el Padre no esta presente. 5. El Ladrón no puede estar con ningún miembro de la familia sin la presencia del Policía 6. Solo el Padre, la Madre y el Policía saben como funciona la balsa.

Nota: Cronométrese el tiempo empleado para desarrollar el caso de estudio INSTRUCCIONES MANEJO DE LA APLICACIÓN (actividad.pps)

Page 23: Desarrollo De La Inteligencia Final

23

• Para empezar da clic en el circulo azul. • Para mover a las personas da clic sobre ellas. • Para mover la balsa da clic en la palanca.

Page 24: Desarrollo De La Inteligencia Final

24

AUTOEVALUACIÓN Responda las siguientes interrogantes: 1. Tiene solución el caso de estudio presentado? SI NO En caso de SI. Enumere los pasos que se deben seguir: ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… ……………………………………………………………………………………… 2. El nivel de complejidad de la aplicación es de un _________ %

Page 25: Desarrollo De La Inteligencia Final

25

INCERTIDUMBRE

1. PROBABILIDAD

El conocimiento sobre la manera en que opera el mundo está limitado por lo menos por cinco tipos de incertidumbre:

1. Conocimiento inadecuado de todos los factores que pueden influir en algo. 2. Número inadecuado de observaciones sobre esos factores. 3. Falta de precisión en las observaciones. 4. Carencia de modelos apropiados para combinar toda la información de modo significativo, y 5. Capacidad inadecuada para calcular a partir de los modelos.

Es posible predecir algunos sucesos con mucha precisión (eclipses), otros con menos exactitud (elecciones) y otros con muy poca certeza (terremotos). Aunque la certidumbre absoluta es casi imposible de conseguir, con frecuencia se puede estimar la probabilidad sea grande o pequeña de que algunas cosas sucedan y el margen probable de error de la estimación.

Con frecuencia resulta útil expresar la probabilidad en forma numérica. Por lo general se utiliza una escala de probabilidad de 0 a 1, donde el 0 indica la creencia de que algún suceso específico es seguro que no ocurrirá, el 1 indica la creencia de que es seguro que sucederá y el intervalo entre los dos indica certidumbre.

Por ejemplo, una probabilidad de 0.9 indica que hay 9 oportunidades en 10 de que ocurra un suceso como se predijo; una probabilidad del 0.001 indica que hay solamente una oportunidad en 1 000 de que ocurra. También se pueden expresar las probabilidades como porcentajes, que van desde 0% (no hay certeza) hasta el 100% (certeza). Las incertidumbres también pueden expresarse como desigualdades: una probabilidad de 0.8 para un evento puede expresarse como las posibilidades de 8 a 2 (o 4 a 1) en favor de que ocurra.

1.1 Una manera para estimar la probabilidad de un evento es considerando los acaecimientos pasados.

Si la situación actual es similar a las anteriores, entonces se pueden esperar resultados algo similares. Por ejemplo, si llovió el 10% de los días de verano del año pasado, se puede esperar que llueva aproximadamente el 10% de los días del siguiente verano. Así, una estimación razonable de la probabilidad de lluvia de cualquier día de verano es 0. 1 una oportunidad en 10. La información adicional puede cambiar la estimación de la probabilidad. Por ejemplo, pudo haber llovido el 40% de los días nublados del pasado verano; de modo que, si el día actual está nublado, se puede aumentar la estimación de 0.1 a 0.4 para la probabilidad de lluvia. Cuanto más se parezca la situación que interesa a aquélla de la que se tienen datos, mayor es la probabilidad de que la estimación resulte más acertada.

1.2 Otro enfoque para estimar las probabilidades es considerar los posibles y distintos resultados de un suceso específico.

Por ejemplo, si hay 38 ranuras de amplitud igual en una ruleta rusa, se puede esperar que la bola caiga en cada ranura más o menos 1/38 veces. Las estimaciones de esa probabilidad teórica descansan en la suposición de que todos los resultados posibles son razonables y es igualmente probable que todos ocurran. Pero si ello no es cierto por ejemplo, si las ranuras no son de igual tamaño o si en ocasiones la bola se sale de la ruleta, la probabilidad calculada será errónea.

1.3 Las probabilidades son muy útiles para predecir proporciones de resultados en grandes cantidades de eventos.

Una moneda lanzada al aire tiene una probabilidad de 50% de que caiga cara, aunque una persona no va conseguir precisamente 50% de caras en un número par de lances. Cuanto más se lance una

Page 26: Desarrollo De La Inteligencia Final

26

moneda, será menos probable que uno consiga una cantidad precisa del 50%, pero la proporción más cercana de caras es probable que sea el teórico 50%.

De igual manera, las compañías aseguradoras pueden, dentro de un rango de uno o dos puntos porcentuales, predecir la proporción de personas de 20 años que morirá en un año especifico, pero es probable que se equivoquen por miles de muertes totales y no tienen ninguna capacidad de predecir si alguien en particular que tenga 20 años morirá. En otras palabras, también es importante distinguir entre la proporción y la cifra real. Cuando hay una gran cantidad de sucesos similares, aun un resultado con una probabilidad muy pequeña de ocurrir puede suceder con mucha frecuencia. Por ejemplo, un examen médico con una probabilidad de 99% de ser correcto puede parecer muy preciso pero si ese examen se hubiera aplicado a un millón de personas, aproximadamente 10 000 individuos recibirían resultados falsos.

2. RESUMEN DE DATOS

La información se encuentra alrededor de todos, a menudo en tan grandes cantidades que no es posible darle sentido. Un conjunto de datos se puede representar a través de un resumen de características que pueden revelar u ocultar aspectos importantes. La estadística es una rama de las matemáticas que desarrolla métodos útiles de organizar y analizar grandes cantidades de datos.

Por ejemplo, para tener una idea de lo que es un conjunto de datos, se podría trazar cada caso en una recta numérica, y después inspeccionar la gráfica para ver dónde se acumulan los casos, dónde se separan unos de otros, dónde se encuentran los más altos y los más bajos, y así sucesivamente. De forma alternativa, el conjunto de datos se puede caracterizar de manera resumida describiendo dónde se halla su centro y cuánta variación hay alrededor de él.

El estadístico más conocido para resumir una distribución de datos es la media, o promedio común, pero se debe ser cuidadoso al usarla o interpretarla. Cuando los datos son discretos (como el número de hijos por familia), la media no podría ser un valor posible (por ejemplo, 2.2 hijos).

Cuando los datos se inclinan mucho hacia un extremo, la media tampoco puede estar cerca de un valor común. Por ejemplo, una proporción pequeña de personas que tienen ingresos personales muy altos puede aumentar la media mucho más de lo que la mayoría de las personas concentradas en el extremo más bajo sería capaz de disminuirla.

La mediana, la cual divide la mitad inferior de los datos de la mitad superior, es más significativa para muchos propósitos. Cuando sólo hay unos cuantos valores discretos de una cantidad, el tipo de promedio más informativo puede ser la moda, la cual es el valor único más común por ejemplo, el número más común de automóviles por familia en los Estados Unidos de América es 1.

2.1 En general, los promedios por sí mismos no hacen caso de la variación en los datos y pueden implicar más uniformidad de la que existe

Por ejemplo, la temperatura promedio en el planeta Mercurio de aproximadamente 150 F no suena tan mal hasta que uno considera que ésta oscila desde 3000 F hasta 3000 F bajo cero. El descuido de la variación puede ser particularmente engañoso cuando se comparan promedios. Por ejemplo, el hecho de que la estatura promedio de los hombres sea claramente mayor que la de las mujeres, se podría enunciar como "los hombres son más altos que las mujeres", en tanto que existen muchas mujeres que son más altas que muchos hombres. Por tanto, para interpretar promedios, es importante tener información sobre la variación dentro de los grupos, como la gama total de datos o la gama cubierta por el 50%. Una gráfica de todos los datos a lo largo de una recta numérica hace posible ver la forma en que se distribuyen los datos.

2.2 Con frecuencia se presentan datos resumidos que pretenden demostrar una relación entre dos variables, pero carecen de información esencial

Por ejemplo, la afirmación de que "más del 50% de las parejas casadas que tienen diferentes religiones se divorcian" no diría nada acerca del vínculo entre la religión y el divorcio a menos que se conozca también el porcentaje de parejas que se divorcian teniendo la misma religión. Sólo la

Page 27: Desarrollo De La Inteligencia Final

27

comparación de los dos porcentajes podría indicar si existe una relación real. Aun entonces, es necesaria la precaución por los posibles sesgos en la manera en que se seleccionaron las muestras y por las diferencias en porcentaje que puedan ocurrir sólo por el azar al seleccionar la muestra. Los informes apropiados de esa información deberán incluir una descripción de posibles fuentes de sesgos y una estimación de la incertidumbre estadística en la comparación.

3. MUESTREO DE DATOS

La mayor parte de lo que se aprende sobre el mundo se obtiene de información basada en muestreos de lo que se está estudiando por ejemplo, muestras de formaciones rocosas, luz de las estrellas, televidentes, enfermos de cáncer, ballenas, números, etc.. Se hace uso de las muestras porque resultaría imposible, impráctico o demasiado costoso examinar el todo de algo, y porque una muestra, por lo general, es suficiente para la mayor parte de los propósitos.

Al sacar conclusiones sobre un todo a partir de muestras, se deberán tomar en cuenta dos aspectos principales.

o Primero, se debe estar alerta a posibles sesgos originados por la forma en que se selecciona la muestra. Las fuentes comunes de sesgos al seleccionar muestras incluyen la conveniencia (por ejemplo, entrevistar sólo a los amigos o recoger solamente rocas de la superficie), la autoselección (por ejemplo, estudiar únicamente a la gente que coopera voluntariamente o a quienes regresan los cuestionarios), el fracaso para incluir a aquellos que se han retirado a lo largo del camino (por ejemplo, examinar sólo a estudiantes que permanecen en la escuela o a pacientes que siguen el curso de una terapéutica) y la decisión de usar sólo los datos que apoyen las propias concepciones previas.

o El segundo aspecto importante que determina la utilidad de una muestra es su tamaño. Si ésta se obtiene sin sesgos en el método, entonces, cuanto más grande es, mayor es la probabilidad de que represente al todo con exactitud. Esto es así porque, cuanto mayor es la muestra, es más probable que los efectos menores de las variaciones debidas al puro azar estén en sus características resumidas. La probabilidad de extraer una conclusión equívoca disminuye a medida que el tamaño de la muestra se incrementa. Por ejemplo, para las muestras escogidas al azar, encontrar que 600 de una muestra de 1 000 tienen una cierta característica, es una evidencia mucho más fuerte de que una mayoría de la población presenta esa característica que descubrir que 6 de una muestra de 10 (o incluso 9 de 10) la tienen. Por otro lado, el tamaño real de la población total de la cual se extrae una muestra tiene poco efecto en la exactitud de los resultados de ésta. Una muestra aleatoria de 1 000 podría tener aproximadamente el mismo margen de error si se selecciona en una población de 10 000 o en una similar de 100 millones.

4. CASO DE ESTUDIO: LA INCERTIDUMBRE EN LA METROLOGÍA “Mide todo lo que puedas medir; si hay algo que todavía no puede ser medido, encuentra como hacerlo”. Galileo Galilei, Astrónomo. “Sólo es posible conocer un fenómeno si podemos medirlo y reducirlo a números”. William Thompson, Físico. Definición de algunos conceptos Medición: Es el conjunto de acciones que tienen por objeto determinar el valor de una magnitud particular denominada mensurando. Procedimiento de medición: Es la secuencia específica de operaciones utilizada para medir determinada magnitud particular, siguiendo un principio establecido y de acuerdo a un método dado. Instrumento de medición: Aparato destinado a obtener medidas directas que permiten estimar los valores de diversas magnitudes particulares.

Page 28: Desarrollo De La Inteligencia Final

28

Mensurando: Magnitud medida por un instrumento. Valor verdadero: Valor real del mensurando. Sistema de medición: Incluye instrumentos, patrones de calibración, conceptos y leyes físicas, operarios humanos, valores de propiedades y constantes, etc. Escala: Conjunto de símbolos o marcas ubicados en el instrumento, a menudo acompañados de una referencia numérica y normalmente a lo largo de una recta o arco de círculo. Índice: Puntero, aguja, lápiz, punta luminosa, superficie líquida, etc. cuya posición indica el valor de la magnitud. Longitud de escala: Es la distancia entre la primera y última marca indicada en unidades de longitud a lo largo del camino recorrido por el índice. Espaciamiento de escala: Es la distancia entre marcas adyacentes. Para que el índice sea legible tiene que ser mayor que 0.7mm. División de escala: Conjunto de valores limitados por dos trazos consecutivos. Intervalo de escala: Es la diferencia de valor representado por el desplazamiento del índice a través de un espaciamiento de escala. Escala lineal: Existe si el cociente entre el intervalo de escala y el espaciamiento de escala es constante a lo largo de toda la escala. Resolución: Es el cambio en el valor de la magnitud que produce el menor cambio apreciable en la indicación del aparato. Varía generalmente entre el 10 y el 20 % del espaciamiento de escala. Exactitud: Es una expresión cualitativa del grado de concordancia entre la magnitud medida y la magnitud real. Repetitividad: Es el reflejo de la dispersión de la de serie de valores que se obtienen al medir repetidas veces una misma magnitud. Precisión: Término que se asocia en ocasiones a la repetitividad, resolución o exactitud. Para evitar confusiones se evita su uso. Norma y proceso de normalización ISO Se define como norma al conjunto de especificaciones que caracteriza a un producto, proceso o procedimiento. Una norma es un patrón de referencia que representa una solución óptima para un problema que se repite. En general, las normas son documentos consensuales que tienen por objeto establecer los criterios mediante los cuales una determinada entidad, ya sea persona, producto, proceso, servicio o sistema, se adecua a una base de comparación definida oque es aceptable según ella. Algunos ejemplos de Normas son: ASTM, NCh de INN, ISO, etc. La Normalización ISO consiste en el proceso de formulación y aplicación de reglas que permitan abordar ordenadamente, con el concurso de todos los interesados, una actividad específica para el beneficio de éstos y, especialmente, para promover una economía óptima, para el interés general, teniendo debida consideración de las condiciones de funcionamiento y exigencias de seguridad. En la aplicación de las normas, especialmente en el Control de Calidad, se requiere de sistemas de unidades y de instrumentos de medición, que permitan verificar el grado de concordancia entre el producto real y el valor de referencia indicado por la norma o patrón

Page 29: Desarrollo De La Inteligencia Final

29

de comparación. Este requerimiento lo satisface la Metrología que es la base científico-técnica de las NORMAS, Control de Calidad y la Certificación de Calidad. Proceso de Normalización

Control de Calidad El control de calidad es un procedimiento integral de:

Además existe una estrecha relación entre control de calidad, normalización y metrología de la siguiente forma:

Algunas definiciones de Metrología 1.- Ciencia que tiene por objetivo el estudio de los sistemas de pesas y medidas. 2.- “metron” = medida “logos” = tratados. 3.- Ciencia de medir, que significa cuantificar la magnitud de cualquier fenómeno por comparación con otro de la misma naturaleza y reconocido como Patrón. 4.- Ciencia que se dedica al estudio de las mediciones. Todo fenómeno físico o químico que sea posible medir, entra en el campo de la “Metrología” (Está relacionado con todas las ciencias de la Ingeniería).

Page 30: Desarrollo De La Inteligencia Final

30

Origen del metro 1791: La Academia de Ciencias de Francia define “metro” como la diez millonésima parte del cuadrante terrestre, dando origen al sistema métrico decimal. 1799: Se construye un patrón de longitud en una aleación de platino e iridio. 1840: El sistema métrico decimal es adoptado en toda Francia. 1875: Mediante la firma de delegados de 17 países se funda la “Oficina Internacional de pesas y Medidas de París”, la cual se encargó de fabricar réplicas del metro. 1908: Chile adhiere la “Convención Internacional del Metro”. 1960: Metro es “1.650.763,73 veces la longitud de onda en el vacío de la radiación naranja de Criptón 86”. 1983: Metro es “la longitud de la trayectoria recorrida por la luz en el vacío durante 1/299.792.648 segundos. Sistema de medida anglosajona Tanto Inglaterra como América formaron la convención del Metro y recibieron sus prototipos correspondientes. Sin embargo, como las convenciones no eran obligatorias, estos países han seguido con sus sistemas especiales de pesas y medidas. La unidad oficial Anglosajona es la yarda, que tiene aproximadamente 0,914 metros y es igual a 3 pies y a 36 pulgadas. 1761: Se construye el primer patrón de la yarda, el cual era una barra de latón con dos pastillas en oro marcadas con un pequeño agujero, entre las cuales se definió la yarda a temperatura de 62º F. 1834: Se destruye el patrón de la yarda a causa de un incendio. 1845: El actual patrón de la yarda es una barra de bronce cuyas dos extremidades están perforadas con dos agujeros remachados con oro. Sistema Internacional de Unidades SI El 20 de Mayo de 1875, 17 países suscribieron en París, la Convención del Metro, a raíz de la cual se adoptó el “Sistema Métrico de Unidades”. Unidades básicas

Magnitudes básica Unidades básicas Símbolo Magnitud Unidad Símbolo L longitud metro m M masa kilogramo kg T tiempo segundo s Q temperatura termodinámica kelvin K I intensidad de corriente eléctrica ampere A J intensidad luminosa candela cd N cantidad de sustancia mol mol Unidades SI derivadas sin nombre propio Magnitud Nombre Símbolo área metro cuadrado m

2

volumen metro cúbico m3

velocidad, rapidez metro/segundo m/s aceleración metro/segundo cuadrado m/s

2

número de ondas 1/metro m-1

Page 31: Desarrollo De La Inteligencia Final

31

densidad kilogramo/metro cúbico kg/m3

concentración (cantidad de sustancia)

Mol/metro cúbico mol/m3

actividad (radiactiva) 1/segundo s-1

volumen específico metro cúbico/kilogramo m

3/kg

densidad de corriente eléctrica

ampere/metro cuadrado A/m2

intensidad campo magnético

ampere/metro A/m

luminancia candela/metro cuadrado cd/m2

Unidades derivadas con nombre especial

Magnitud Nombre unidad derivada SI Símbolo

Expresión en términos de unidades básicas

frecuencia hertz Hz 1 Hz = 1 s-1

fuerza newton N 1 N = 1 kg m/s

2

presión pascal Pa 1 Pa = 1 N/m2

energía trabajo joule J 1 J = 1 Nm potencia watt w 1 w = 1 J/s carga eléctrica coulomb C 1 C = 1 A s potencial eléctrico volt V 1 V = 1 J/C

capacitancia eléctrica farad F 1 F = 1 C/V

resistencia eléctrica ohm Ω 1 Ω = 1 V/A

conductancia eléctrica siemens S 1 S = 1 A/V

flujo magnético weber wb 1 wb = 1 V s inducción magnética tesla T 1 T = 1 wb/m

2

inductancia Henry H 1 H = 1 wb/A flujo luminoso lumen lm 1 lm = 1 cd sr iluminación lux lx 1 lx = 1 lm/m

2

Unidades fuera del SI mantenidas por su importancia práctica

Magnitud Nombre de la unidad

Símbolo Definición

tiempo minuto hora día

min h d

1 min = 60 s 1 h = 60 min 1 d = 24 h

ángulo plano (ISO radian)

grado minuto segundo

º ’ ’’

1 º = (1/180) rad 1 ’ = (1/60) º 1 ’’ = (1/60) ’

volumen litro l 1 l = 1 dm3

masa tonelada t 1 t = 103 kg

Page 32: Desarrollo De La Inteligencia Final

32

Múltiplos de unidades SI NOMBRE SIMBOLO POTENCIA yotta Y 10

24

zetta Z 1021

exa E 10

18

peta P 1015

tera T 10

12

giga G 109

mega M 106

kilo k 103

hecto h 102

deca da 101

deci d 10-1

centi c 10

-2

mili m 10-3

micro u 10

-6

nano n 10-9

pico p 10

-12

femto f 10-15

atto a 10

-18

Zepto Z 10-21

yocto y 10

-24

Error e incertidumbre Al medir un mensurando se obtiene siempre sólo una aproximación a su valor verdadero. Solamente un instrumento ideal podría entregar como resultado de una medición el valor verdadero de la magnitud medida. Las causas del error pueden tener su origen en el propio instrumento o en situaciones ajenas a éste. Dentro de los instrumentos de medición: o Errores de ajuste, cuando el valor entregado difiere de una referencia conocida. o Problemas de juego (saltos bruscos al cambiar el sentido de medición), histéresis

(diferencia entre valores obtenidos al medir en forma ascendente o descendente). o Otros errores comunes son la desviación de linealidad, deriva (lentitud hasta detenerse e

indicar un valor) y falta de estabilidad.

Errores no atribuibles al instrumento de medición son por lo común las desviaciones debidas a problemas ambientales e interferencias diversas en el ambiente de trabajo. Cabe destacar también que sumándose al error pueden existir equivocaciones conducentes a resultados falsos. Estas equivocaciones incluyen lecturas mal tomadas, errores de operación de los instrumentos y errores humanos en general, y no pueden ser consideradas asignándoles algún tipo de distribución de probabilidades, al calcular la incertidumbre. Diferencia entre Exactitud y Precisión: Valor Real (+)

Page 33: Desarrollo De La Inteligencia Final

33

a) Serie exacta de mediciones repetidas cuyo promedio se aproxima al valor real. b) Las mediciones realizadas varias veces son precisas (están muy cercas entre sí), pero no se aproximan al valor real. c) Una serie de mediciones repetidas y que se encuentran concentradas apretadamente en torno del valor real. Error de Medición: Diferencia entre el resultado de la medición (X) y el valor verdadero (X

V).

ε = X – XV

Error Total: Suma entre el error sistemático (εS) y el error aleatorio (ε

A).

ε S

= XV

– X ε A

= X – X Incertidumbre (U): “Uncertainty” Parámetro que caracteriza el intervalo dentro del cual se cree, con gran seguridad que se encuentra el valor verdadero (X

V).

Representación esquemática del intervalo de Incertidumbre:

Si la Incertidumbre no se conoce, será imposible verificar si las características del mensurando están o no dentro de los márgenes de tolerancia contemplados en sus especificaciones y por ende, no se podrá válidamente tomar la decisión de aceptación o rechazo del producto. La incertidumbre asociada a los resultados obtenidos con el instrumento al medir un determinado mensurando, corregidos por posibles desviaciones detectadas mediante la calibración, se obtiene combinando tres componentes: 1) la incertidumbre asociada a las mediciones individuales, 2) la incertidumbre asociada a la corrección o ajuste y 3) la incertidumbre asociada al patrón de calibración Se olvida, por último, que ni el valor verdadero convencional del patrón ni su incertidumbre, que se obtienen de una calibración del patrón mismo, se mantienen constantes indefinidamente. (La distancia entre las caras de un bloque patrón puede verse alterada por: rayaduras, desgaste, suciedad, ligeras capas de oxidación superficial o, incluso, por lentas variaciones de la estructura cristalográfica del material que compone el bloque). En consecuencia, al igual que todo instrumento de medición, las medidas materializadas deben calibrarse periódicamente.

Page 34: Desarrollo De La Inteligencia Final

34

La función de un patrón es proveer un valor verdadero convencional que permite determinar, por calibración, los valores verdaderos convencionales de otros patrones. Para cada magnitud se establece así una “cadena metrológica” cuyos enlaces son, precisamente, las correspondientes calibraciones.

La cadena comienza en la definición de la unidad correspondiente. En el extremo opuesto, o nivel terminal, están aquellos instrumentos que no son utilizados para calibrar otros instrumentos. El acuerdo con la definición de la unidad y la expresión de su incertidumbre, establecen lo que en metrología se llama “trazabilidad”. Por lo tanto, la trazabilidad es la propiedad del valor de un patrón, o del resultado de una medición, por la cual ese valor o ese resultado puede relacionarse con referencias establecidas a través de una cadena ininterrumpida de comparaciones, todas ellas con incertidumbres conocidas. A la existencia de esta propiedad fundamental apuntan las normas relacionadas con la metrología. 5. BIBLIOGRAFÍA

- STEEN, Lynn Arthur. La enseñanza agradable de las matemáticas. 4ta reimpresión.

Editorial Limusa, México 2003. 241 pp - http://www.project2061.org/esp/publications/sfaa/online/chap9.htm - http://usuarios.iponet.es/ddt/incertidumbre.htm

Page 35: Desarrollo De La Inteligencia Final

35

ESCALAS MULTIPLES 1. Introducción. La gama de magnitudes en el universo tamaños, duraciones, velocidades, etc. es inmensa. Muchos de los descubrimientos de la ciencia física son prácticamente incomprensibles debido a que entrañan fenómenos en escalas lejanas a la experiencia humana. Es posible medir, por ejemplo, la velocidad de la luz, la distancia a las estrellas más cercanas, el número de estrellas en la galaxia y la edad del Sol; pero estas magnitudes son tan inmensas que se comprenden de manera intuitiva. En otra dirección, es posible determinar el tamaño de los átomos, sus vastos números básicos y la velocidad de las interacciones que ocurren entre ellos; pero estos extremos también rebasan la capacidad de comprensión intuitiva. Las percepciones limitadas y las capacidades de procesamiento de información simplemente no pueden manejar la gama completa. Sin embargo, es factible representar tales cantidades en términos matemáticos abstractos (por ejemplo millones de millones) y buscar relaciones entre ellos que tengan algún sentido. Los grandes cambios en la escala se acompañan de manera típica por cambios en el tipo de fenómenos que ocurren. Por ejemplo, en una escala humana familiar, una pequeña bocanada de gas emitida por un satélite en órbita se disipa en el espacio; a escala astronómica, una nube de gas en el espacio con suficiente masa se condensa por las fuerzas gravitacionales mutuas en una esfera caliente que enciende la fusión nuclear y se convierte en una estrella. A escala humana, las sustancias y la energía son divisibles de manera interminable; a escala atómica, la materia no se puede dividir y permanece con su identidad, y la energía puede cambiar solamente mediante saltos discretos. La distancia alrededor de un árbol es mucho más grande para un insecto pequeño que para una ardilla, pues en la escala del tamaño del insecto habrá muchas colinas y valles que atravesar, en tanto que no será así para la ardilla Incluso en los reinos del espacio y el tiempo que son tan familiares, la escala desempeña un papel importante. Los edificios, los animales y las organizaciones sociales no pueden hacerse mucho más grandes o mucho más pequeños sin experimentar cambios fundamentales en su estructura o conducta. Por ejemplo, no es posible hacer un edificio de 40 pisos exactamente con el mismo diseño y materiales que se utilizan comúnmente para uno de cuatro pisos porque, entre otras cosas, se podría colapsar debido a su propio peso. A medida que aumentan de tamaño los objetos, su volumen se incrementa más rápido que su superficie. Por tanto, las propiedades que dependen del volumen, como la capacidad y el peso, cambian de proporción con las propiedades que dependen del área, como la fuerza de los soportes o la actividad de superficie. Por ejemplo, una sustancia se disuelve con mayor rapidez cuando está en forma de granulitos finos que cuando es un terrón en virtud de que es mayor la superficie en relación con el volumen. Un microorganismo puede intercambiar sustancias con su entorno directamente a través de su superficie, en tanto que un organismo de mayor tamaño requeriría de superficie especializada altamente ramificada (como en los pulmones, vasos sanguíneos y raíces). Las conexiones internas también presentan un fuerte efecto de escala. El número de posibles pares de cosas (por ejemplo, amistades o conexiones telefónicas) aumenta aproximadamente al cuadrado el número de cosas. Así, una comunidad diez veces más grande tendrá factible representar tales cantidades en términos matemáticos abstractos (por ejemplo millones de millones) y buscar relaciones entre ellos que tengan algún sentido. Los sistemas de complejidad suficiente pueden mostrar características que no son predecibles a partir de las interacciones de sus componentes, aun cuando tales interacciones se comprendan bien. En dichas circunstancias, pueden requerirse principios que no hagan referencia directa a los mecanismos subyacentes, pero que no sean incompatibles con ellos. Por ejemplo, en geología se puede hablar del proceso de erosión por los glaciares sin hacer referencia a los aspectos físicos subyacentes de las fuerzas eléctricas y de la estructura cristaliforme de los minerales en las rocas; es posible pensar en el corazón en términos del volumen de la sangre que bombea, independientemente de cómo se comporten sus células;

Page 36: Desarrollo De La Inteligencia Final

36

es posible predecir la probable respuesta de alguien a un mensaje sin hacer referencia a la manera en que funcionan las células del cerebro; o bien, es posible analizar los efectos de los grupos de presión en política sin que se haga referencia necesariamente a nadie en particular. Tales fenómenos se pueden comprender en diversos niveles de complejidad, aun cuando la explicación completa de tales cosas se reduce con frecuencia a una escala alejada de la experiencia directa. El Método de las Escalas Múltiples El método de escalas múltiples (MEM) fue desarrollado en su versión moderna esencialmente a partir los años cincuentas y hasta los setentas del siglo XX. Este método está, sin embargo, basada en las ideas de Poincaré y utiliza frecuencias (en el caso de la rutina original de Poincaré) o amplitudes desconocidas para evitar la aparición de resonancias. La versión moderna de este método usa en lugar de las variables originales un conjunto de variables escaladas. En el caso de oscilaciones no lineales (estas representan una de las aplicaciones más importante del MEM) se escala el tiempo t y usan las variables

, . . . donde 21 2 3T = t; T = t; T = tε ε ε es un pequeño parámetro de la aproximación (e. g. la

proporción de dos escalas temporales muy diferentes entre sí). Se denomina a la variable rápida y se llama a las otras variables ,. . . coordenadas lentas. El cálculo de las

derivadas temporales originales ,. . . conduce por esto a derivadas parciales respecto a ,. . . y la EDO original es convertida en una ecuación diferencial parcial (EDP). Un desarrollo de la solución en una serie asintótica resulta entonces en una jerarquía de problemas. En el orden inferior se obtiene usualmente una EDO lineal (con derivadas respecto a ) que es trivial. La solución de esta ecuación contiene, como constantes de la integración, funciones

1T

2T , T

2 d =dt

2

32d=

3 2

dt,

1 2T , T

1T

1 2 3A (T , T T ,. . . ),. . . ) ,, A (T ,. . . Estas funciones, llamadas amplitudes lentas son desconocidas en el orden menor. Las ecuaciones en los órdenes más altos contienen como inhomogeneidades términos de los aproximaciones procedentes de órdenes inferiores. Esto produce la posibilidad de resonancias. Como en muchos casos se quieren evitar las resonancias entonces se pueden determinar las amplitudes lentas con la aplicación de condiciones de no resonancia. Las últimas se convierten en EDPs gobernadas por las amplitudes. Esto significa que aparentemente se ha elevado el nivel de complejidad del problema original: una EDO nolineal fue convertida en un conjunto de EDPs. Sin embargo, las condiciones de no resonancia son suficientemente simples para obtener las correspondientes soluciones por cuadraturas simples (Bender, Orszag). Hay un buen número de otros métodos de aproximaciones. Aquí mencionamos tan sólo la rutina de promedios y el método de coordenadas deformadas. Además de estos métodos, son también importantes otros dos métodos locales que son válidos cerca de los puntos fijos de las ecuaciones (vea la próxima sección). El método de variedades centrales sirve para reducir la dimensión del sistema, mientras que la rutina de formas normales trata de simplificar los términos de la ED y, en el caso óptimo, logra la linearización de las ecuaciones. Sin embargo, la meta última se encuentra obstaculizada por la aparición de resonancias que impiden la linearización de las ecuaciones (Wiggins, 1990). Fuerntes: http://www.project2061.org/esp/publications/sfaa/online/chap11.htm Meter Plaschko, Sistemas dinámicos, métodos de las matemáticas nolineales y de la física clásica, Departamento de Física UAM-I, México D .F.

Page 37: Desarrollo De La Inteligencia Final

37

La escala y su importancia en el análisis espacial

D. García Departamento de Biología de Organismos y Sistemas (Ecología), Universidad de Oviedo, C/ Catedrático Rodrigo Uría s/n. E-33071, Oviedo. ([email protected]) 2. La escala espacial en Ecología El concepto de escala espacial en Ecología se define como la dimensión física de un objeto o proceso ecológico en el espacio (Turner et al., 2001). Hablamos de tasas de asimilación de CO en micromoles por metro cuadrado y segundo, de densidades de semillas en metros cuadrados, de dominios vitales de individuos en cientos de metros cuadrados, de coberturas paisajísticas en hectáreas y de cambios climáticos sobre kilómetros cuadrados. Todos somos conscientes de que distintos elementos ecológicos ocupan extensiones diferentes y que distintos procesos tienen distintos radios de acción. No obstante, el hecho de que tanto la forma de los patrones como el funcionamiento de los procesos ecológicos dependen de la escala ha atraído cada vez más el interés de los ecólogos en los últimos 25 años (Schneider, 2001). Esta mayor atención al “problema de la escala” obedece a que un mismo proceso ecológico puede generar patrones diferentes a distintas escalas espaciales, al estar regulado por mecanismos distintos en cada escala (Wiens, 1989; Levin, 1992). Por ejemplo, las diferencias en mineralización del mantillo en una extensión de unos cuantos metros cuadrados estarán básicamente determinadas por el tipo de dosel (caducifolio vs. perenne) que crece sobre dicha extensión, mientras que sobre una extensión de cientos de miles de kilómetros cuadrados dependerán probablemente de las variaciones climáticas regionales. La determinación de la escala-dependencia de patrones y mecanismos se convierte, por tanto, en una cuestión esencial a la hora de explicar la relación entre los organismos y el ambiente, extrapolar el conocimiento ecológico y establecer medidas de gestión de recursos naturales ante una actividad humana capaz de modificar desde los ecosistemas locales hasta el planeta entero. En este artículo revisaré el concepto de escala y su relación con el análisis espacial en Ecología. Tras definir escala en términos analíticos, evaluaré su importancia a la hora de i) determinar el peso del espacio en la variación de los patrones y procesos ecológicos, y ii) inferir mecanismos ecológicos a través de relaciones entre respuestas de los organismos y condiciones ambientales. Finalmente, presentaré el Análisis de Coordenadas Principales de Matrices de Vecinos como un método de análisis espacialmente explícito que permite desglosar la variación de parámetros ecológicos en distintas escalas y correlacionar posteriormente dicha variación a las distintas escalas con una potencia estadística similar. 3. La escala y el análisis espacial La ecología espacial trata de explicar los procesos ecológicos teniendo en cuenta la distribución espacial de sus elementos (Turner et al., 2001; Fortin y Dale, 2005). En cierto modo, intenta evaluar la respuesta de los organismos frente a condiciones y recursos ambientales que son heterogéneos en el espacio, condicionando en gran medida el funcionamiento de los organismos a dicha heterogeneidad espacial. Sin embargo, factores ambientales que resultan altamente heterogéneos a pequeña escala pueden aparecer como homogéneos a escalas superiores. Imaginemos, por ejemplo, cualquier sierra mediterránea compuesta por una serie de colinas de similar altitud: la humedad edáfica es muy diferente entre las dos laderas de una misma colina, solana y umbría, pero es probable que apenas encontremos diferencias cuando comparamos los valores promedio de humedad entre dos colinas sucesivas. Por tanto, el concepto de escala subyace a cualquier cometido en ecología espacial, por el simple hecho de que la mayor parte de la variabilidad ecológica es dependiente de la escala espacial. Para evaluar la importancia de la escala en el análisis espacial de datos ecológicos

Page 38: Desarrollo De La Inteligencia Final

38

necesitamos descomponer el concepto de escala en tres dimensiones (Dungan et al., 2002): ecológica, de muestreo y analítica. La escala ecológica expresa, como expuse anteriormente, la dimensión real de los fenómenos ecológicos. Los ecólogos inferimos esta escala a través del muestreo y el análisis. La escala de muestreo hace referencia a la extensión del área de observación y a las características espaciales de las unidades de muestreo, por ejemplo, el área de un cuadrado de muestreo para contar plantas herbáceas en un prado, o la disposición de esos cuadrados en una retícula mayor. La escala analítica refleja las características espaciales de las unidades de muestreo en términos de análisis, por ejemplo, cómo se distribuye la varianza a lo largo de esas unidades de muestreo. Tanto la escala de muestreo como la analítica pueden definirse en términos de grano, la unidad mínima de resolución espacial que utilizamos en un estudio, extensión, la dimensión espacial máxima cubierta por el muestreo, y espaciamiento, la dimensión de la separación espacial entre unas unidades y otras. Nuestra capacidad de inferencia depende en gran medida de cómo las escalas de muestreo y análisis se ajustan a la escala real del fenómeno ecológico. En este sentido, nuestra extensión de muestreo deberá ser lo suficientemente amplia como para albergar la máxima variabilidad del fenómeno ecológico que estudiamos, ya que una extensión reducida en relación a la escala real del fenómeno nos mostrará sólo una pequeña parte de la variación (Fig. 1). Figura 1. Representación de los valores que toma un parámetro a lo largo de una extensión espacial. Una extensión de muestreo pequeña (bloque verde) recoge un escaso rango de variabilidad del parámetro, mientras que una extensión de muestreo amplia (bloque rojo) cubre todo el rango de valores de magnitud del parámetro, representando de forma fiable los agregados espaciales reales del parámetro a estudiar. Por otra parte, el tamaño de grano habrá de ser lo suficientemente reducido como para que las variaciones de un fenómeno a escala fina no pasen desapercibidas en un muestreo con unidades de mayor tamaño (Fig. 2). Sin embargo, la unidad de muestreo tiene que ser siempre mayor que el objeto ecológico unitario y suficientemente grande como para incorporar varios objetos, de forma que podamos evaluar las diferencias entre unidades en términos de varianza (Fig. 3).

Page 39: Desarrollo De La Inteligencia Final

39

Figura 2. Representación de los valores que toma un parámetro a lo largo de una extensión espacial, mostrando agregados sucesivos de dicho parámetro. Un muestreo con unidades de tamaño de grano amplio (A) sería insensible a la variabilidad real del parámetro, y no mostraría diferencias en los valores promedio del parámetro entre unidades (rojas vs. blancas), mientras que un muestreo de grano fino (B) mostraría fuertes diferencias entre las distintas unidades de muestreo (verdes vs. blancas). Figura 3. Esquema de la fiabilidad de unidades de muestreo de distinto tamaño de grano (1<2<3) para representar la variación espacial en la abundancia de un objeto ecológico (rojo). La unidad ha de ser suficientemente amplia (3) como para representar la variación en la abundancia del objeto a lo largo de la extensión de muestreo.

Page 40: Desarrollo De La Inteligencia Final

40

4. El reparto de variación entre escalas La principal preocupación analítica de los ecólogos en relación a la escala es el reparto de variación de los fenómenos ecológicos a lo largo de las escalas espaciales. Estudiar la variación espacial de un fenómeno es, en cierto modo, detectar si éste se distribuye de forma aleatoria, de forma regular (sobredispersión), o bien formado agregados, con patrones de contagio y repulsión (infradispersión). Para evaluar el radio de acción de los procesos ecológicos nos interesa, en primer lugar, determinar la agregabilidad (patchiness) de los objetos ecológicos a distintas escalas espaciales y, en segundo lugar, tratar de relacionar esa agregabilidad con gradientes ambientales, bióticos o abióticos, establecidos por el observador y que, desde la perspectiva de la ecología espacial, están muy condicionados por la extensión y distribución espacial de las observaciones. En este último sentido, a la hora de estructurar gradientes ambientales espaciales podemos considerar el espacio de forma explícita, estableciendo unidades de muestreo y análisis definidas exclusivamente por características espaciales como posición, extensión y distancia. Por ejemplo, imaginemos que evaluamos la respuesta a la salinidad edáfica a lo largo de un transecto lineal de 100 m, dividido en unidades de muestreo de 10 m, y que se aleja progresivamente de una laguna salina endorreica. Por otra parte, podemos considerar unidades espaciales “naturales” que representan niveles de heterogeneidad estructural biológica y que suponen una variación implícita en las características espaciales. Por ejemplo, cuando consideramos distintos microhábitats incluidos dentro de distintos hábitats, tanto microhábitat como hábitat suponen gradientes ambientales a distintas escalas espaciales y, por lo tanto, su significado analítico nos ofrecerá información acerca de procesos que ocurren a distintas escalas. Independientemente de cómo estructuremos los gradientes espaciales, nuestro interés será dilucidar cómo se reparte la variación de un determinado fenómeno a lo largo de distintas escalas (Fig. 4). Figura 4. Representación de tres escenarios de variación de un parámetro ecológico a lo largo de una extensión espacial. La variación puede acumularse exclusivamente a gran escala, y quedar bien representada por niveles de heterogeneidad estructural amplios como “hábitat” o unidades espaciales explícitas de muestreo de gran dimensión (A), acumularse a escala fina, siendo mejor representada por “microhábitats” o unidades espaciales explícitas más pequeñas (B) o repartirse proporcionalmente entre distintos niveles de heterogeneidad o unidades explícitas, con agregados a escala amplia que incluyen en su interior agregados a escala fina (C).

Page 41: Desarrollo De La Inteligencia Final

41

La estadística espacial ofrece herramientas diversas para evaluar el grado de agregabilidad y el reparto de variabilidad de una variable ecológica a distintas escalas en marcos espacialmente explícitos (Fortin y Dale, 2005). En general, se trata de métodos que descomponen la variabilidad de un parámetro, definiendo las escalas de análisis en función de distancias entre puntos que abarcan distintas dimensiones, como ocurre en los correlogramas de I de Moran y los variogramas (Legendre y Legendre, 1998), o bien en función de distintos radios de acción donde establecer distancias a vecinos más próximos, como en el índice K de Ripley (Fortin y Dale, 2005). En cierto modo, indican la estructura espacial de una variable en función de una determinada escala. Por ejemplo, un correlograma nos indica el grado de agregabilidad en función de las distancias a las cuales se detecta autocorrelación espacial positiva (contagio) o negativa (repulsión), definiendo el tamaño y la escala de influencia de los “rodales” en los que se estructura nuestra variable de interés (Fig. 5). Figura 5. A) Representación de la proporción de semillas de acebo Ilex aquifolium depredadas por roedores (Apodemus spp.) a lo largo de un transecto del 2.500 m a través de una zona de bosques secundarios y pastos de montaña en la Sierra de Peña Mayor-Trigueiro (cordillera Cantábrica, Asturias, N España; foto sup. izda.). El transecto se subdividió en 100 unidades contiguas de 25 m. En enero de 2005, en cada unidad se distribuyeron homogéneamente soportes de malla plástica con semillas pegadas (foto sup. dcha.). Estos soportes fueron revisados a los 20 días, contándose el número de semillas depredadas y estimándose el promedio de tasa de depredación por unidad de transecto. B) Correlograma de I de Moran representando la estructura espacial de la tasa de depredación de semillas

Page 42: Desarrollo De La Inteligencia Final

42

de I. aquifolium en el marco espacial definido por el transecto representado en la Figura 5A). El correlograma considera 30 clases de distancias entre puntos de muestreo, con cerca de 80 m de diferencia de extensión entre clases (clase 1 ~ 80 m; clase 2 ~• 160 m;…; clase 30 ~ 2500 m). Los valores de I indican la magnitud de autocorrelación espacial positiva o negativa para cada clase de distancia (en negro valores P<0.05 tras corrección secuencial de Bonferroni). El correlograma muestra abundantes valores positivos y negativos significativos que se alternan a lo largo de la sucesión de distancias, interpretándose como dos grandes agregados de tamaño parecido (radio de acción equivalente a unos 350 m, ó 4 clases de distancias positivas significativas), separados entre sí por un valle de unos 500 m de radio (7 clases de distancias negativas significativas; para interpretación de correlogramas ver Legendre y Legendre, 1998). Al comparar con la figura superior, se interpreta que el correlograma está recogiendo fundamentalmente la variación en la tasa de depredación a gran escala, que originaría dos grandes rodales de alta depredación (entre 0 y 900 m, y entre 1600 y 2500 m en Figura 5A) separados por una amplia zona central donde la depredación es baja. Los rodales parecen coincidir con áreas de mayor cobertura paisajística de bosque maduro mientras que la zona central aparece mucho más fragmentada. La herramienta habitual para evaluar el reparto de variaci ón entre escalas en un diseño con niveles de heterogeneidad estructural es el Análisis de Varianza, con factores que representan las distintas escalas y con las escalas inferiores anidadas jerárquicamente en las superiores. Por ejemplo, en un estudio sobre los procesos de reclutamiento de plántulas de tres especies leñosas ornitócoras en bosques secundarios de la cordillera Cantábrica (García et al., 2005; Fig. 6A), evaluamos la variación en la lluvia de semillas producida por aves dispersantes, la depredación post-dispersiva de semillas por roedores y la emergencia de plántulas, considerando cuatro hábitats o localidades, cinco microhábitats determinados por la presencia/ausencia de doseles arbóreos de las especies focales, y un conjunto de micrositios donde extendimos las unidades de muestreo. El reparto de variación nos indica la escala espacial más relevante para cada proceso ecológico y nos da pistas sobre sus mecanismos (Fig. 6B). Así, en todas las especies estudiadas, la variación de la lluvia de semillas estaba más determinada por la presencia de las plantas productoras de frutos carnosos, donde las aves dispersantes comen y reposan, que por las diferencias fisionómicas y topográficas entre localidades, y las diferencias microtopográficas y estructurales entre distintos micrositios. Dicho de otro modo, los factores que más agregabilidad generan en la lluvia de semillas son aquellos representados por la estructura del microhábitat. Sin embargo, la emergencia de plántulas de todas las especies no dependía tanto del microhábitat como del hábitat y del micrositio. Esto es probablemente debido a que los procesos de pérdida de semillas tras la dispersión, como la depredación o la germinación, están más influidos por factores macroecológicos (p. ej. diferencias en los tamaños de población de roedores entre localidades) y microecológicos (p. ej. compactación del suelo).

Page 43: Desarrollo De La Inteligencia Final

43

Figura 6. A) Representación del marco espacial de escalas múltiples (hábitat, microhábitat, micrositio) donde se analiza la abundancia de semillas dispersadas por aves (Turdus spp., DI), la proporción de semillas depredadas por roedores (Apodemus spp., PR) y la abundancia de plántulas emergidas de primer año (EP) de tres especies leñosas ornitócoras (Crataegus monogyna, Ilex aquifolium, Taxus baccata) en bosques secundarios de la cordillera Cantábrica (N España, para metodología ver García et al., 2005). B)

Page 44: Desarrollo De La Inteligencia Final

44

Representación del porcentaje de variación atribuido a cada una de las escalas para cada variable demográfica en cada especie, mediante modelos lineales generalizados que consideran, como factores categóricos, el hábitat y el microhábitat[hábitat], atribuyéndose la variación del error a la categoría más fina de micrositio, que representa la extensión de la unidad de muestreo. 5. Covariación entre variables a distintas escalas En los anteriores apartados hemos visto que definir y representar la estructura espacial de objetos y procesos ecológicos, contrastando los parámetros que los miden frente a una variable continua o categórica que representa el espacio, nos ayuda a comprender sus mecanismos. No obstante, en muchos casos lo que nos interesa es definir el grado de ajuste entre un objeto ecológico y el proceso que presumiblemente lo explica, mediante un estudio de covariación a distintas escalas espaciales. Éste es el planteamiento que subyace a preguntas del tipo ¿depende la tasa de germinación de las semillas de una especie dada del nivel de humedad edáfica? ¿Cambia esta relación al ampliar la escala espacial? Los estadísticos espaciales explícitos antes mencionados permiten evaluar la covariación entre dos variables a distintas escalas, verificando si la agregabilidad de una variable es comparable a la de la otra. Por ejemplo, un “correlograma cruzado” entre dos variables identificaría las distancias (escalas) a las cuales coinciden niveles altos de autocorrelación positiva o negativa en dichas variables (Legendre y Legendre, 1998). De forma similar, el índice K de Ripley para muestras bivariantes indicaría, para distintos radios de acción, el grado de agregación o segregación de una variable con respecto a la otra (Fortin y Dale, 2005). Cuando analizamos la variación espacial mediante niveles de heterogeneidad estructural, podremos establecer un análisis de covariación independiente para cada escala, de forma que el escalamiento suponga un cambio de grano y extensión. Veámoslo, por ejemplo, analizando si la intensidad de interacción del enebro (Juniperus communis) con las aves frugívoras dispersantes de semillas (mirlo capiblanco Turdus torquatus) en las Sierras Béticas se relaciona con la cantidad de frutos producidos por las plantas, a distintas escalas espaciales (García y Ortiz-Pulido, 2004). Para ello, muestreamos el tamaño de cosecha y la interacción con los mirlos en 30 plantas individuales de 14 localidades a lo largo de Sierra Nevada, Sierra de Baza y Sierra de Cazorla. En primer lugar, evaluamos si la frecuencia de visita de los frugívoros a cada planta individual se relacionaba con su abundancia de frutos para distintas plantas (grano) dentro de la misma localidad (extensión). En segundo lugar, evaluamos si los dispersantes “rastreaban” la abundancia de frutos a escala de paisaje, considerando las distintas localidades (grano) dentro de la región (extensión). Para hacer una correcta transformación de las unidades de muestreo, consideramos la cobertura de las plantas productoras de frutos en cada localidad, además de la abundancia promedio de frutos por planta. Encontramos que las aves respondían poco a la variación en la abundancia de frutos dentro de cada localidad y que, en la mayoría de los sitios, la interacción que sufría una planta era independiente de su tamaño de cosecha (Fig. 7A). Sin embargo, al escalar de localidad a región, apareció un fuerte ajuste entre abundancia de frutos y magnitud de interacción (Fig. 7B). El cambio de escala supuso un cambio importante en la significación de la covariación, es decir, un cambio en la aparición del patrón ecológico de ajuste entre plantas y frugívoros. Esta discordancia entre escalas nos permite definir mejor el mecanismo ecológico subyacente: las aves responden más a las variaciones en abundancia de frutos a escala de paisaje que a escala local, mostrando una jerarquía de rastreo de recursos escala-dependiente.

Page 45: Desarrollo De La Inteligencia Final

45

Figura 7. Representación de la relación entre la abundancia de frutos de Juniperus communis y la magnitud de interacción de plantas individuales con las aves frugívoras dispersantes (Turdustorquatus) en las Sierras Béticas (S España), considerando distintas escalas espaciales (para metodología ver García y Ortiz-Pulido, 2004). En A) se representa la magnitud de frugivoría en distintas plantas respecto al tamaño de cosecha de cada planta, para distintas localidades (cada línea representa el ajuste de regresión de cada localidad, indicándose en rojo cuando el ajuste es P<0.05). En B) se representa la magnitud de frugivoría y la abundancia de frutos a escala local, así como el ajuste de regresión lineal entre ambas variables (P<0.001). Cada punto representa una localidad y se calcula en función de los valores promedio de frugivoría y tamaño de cosecha y de la cobertura de las plantas productoras de fruto de cada localidad. 6. El problema de la potencia estadística

Page 46: Desarrollo De La Inteligencia Final

46

A la hora de establecer el reparto de variación entre escalas y la covariación a distintas escalas hemos de tener en cuenta que el número de unidades de muestreo influirá en nuestra capacidad para detectar una variación significativa a una escala determinada. Deberíamos, por tanto, asegurarnos de que todas las escalas que podemos establecer en un estudio se analicen con tamaños de muestra similares. Esto es difícil de conseguir, puesto que la extensión espacial de nuestros muestreos siempre es limitada y cuanto más aproximamos la dimensión del grano de muestreo a la extensión total de estudio menos muestras diferentes podemos establecer para estimar la variación. Esto ocurre tanto en los descriptores espaciales explícitos como en los análisis basados en niveles de heterogeneidad estructural. Por ejemplo, en el correlograma de la tasa de depredación de semillas del acebo (Ilex aquifolium; Fig. 5), el número de pares de distancias utilizado para la estima de autocorrelación se reduce de 294 a 156 y a 10, en las respectivas clases 1, 15 y 30, con lo cual la estima es progresivamente menos fiable. De forma parecida, en el análisis de ajuste entre magnitud de frugivorismo y abundancia de frutos de J. communis, el tamaño de muestra por localidad era cercano a 30 mientras que a escala regional sólo se muestrearon 14 localidades. En términos analíticos, la reducción del tamaño de muestreo con la escala aumentaría la probabilidad de cometer error de tipo II, al dejar de detectarse estadísticamente efectos que realmente son significativos. Por tanto, la inferencia que hacemos a partir de los datos a las escalas superiores estará siempre condicionada por estas limitaciones. El ACPMV: reparto de variación y correlación a múltiples escalas con el mismo poder estadístico El recientemente desarrollado Análisis de Coordenadas Principales de Matrices de Vecinos (ACPMV; Borcard y Legendre, 2002; Borcard et al., 2004) ofrece una novedosa herramienta metodológica para diseccionar la estructura espacial de los procesos ecológicos a distintas escalas espaciales. Permite generar modelos espacialmente explícitos que desglosan, con una potencia equivalente, la varianza de un parámetro ecológico dado a lo largo de un gradiente de escalas. Además, estos modelos pueden generar valores predichos utilizables, en análisis multivariantes, como variables respuesta que representan la variación de dicho parámetro a distintas escalas espaciales. Ilustraré el uso del ACPMV para volver a tratar la cuestión de la escala a la que se produce el ajuste entre abundancia de frutos carnosos y aves frugívoras. Trabajaré de nuevo en el marco espacial del transecto a lo largo de las acebedas cantábricas (Figs. 5 y 6) en el que cuantifiqué, en otoño de 2004, la abundancia de frutos carnosos (fundamentalmente I. aquifolium, Crataegus monogyna, Taxus baccata y Sorbus spp.) y de zorzales frugívoros dispersantes (Turdus spp.). El ACPMV comienza por generar un conjunto de vectores de coordenadas principales a partir de la descomposición espectral de las relaciones espaciales entre todos los puntos de muestreo, a modo de las series de senos y cosenos usados en los análisis de Fourier. Estos vectores de coordenadas principales actúan como plantillas de variación que, con un número de unidades similar a nuestro transecto, y reduciendo progresivamente su longitud de onda, son capaces de cubrir todas las estructuras espaciales posibles en el gradiente de escalas establecido por la extensión de muestreo (Fig. 8A). En este caso, un transecto unidimensional de 100 unidades de muestreo equidistantes, el ACPMV genera 67 vectores, que enfrentamos a nuestra variable respuesta (abundancia de aves frugívoras) en un modelo de regresión múltiple. El modelo global de regresión múltiple nos indica qué plantillas espaciales (vectores) son capaces de “recoger” variación en nuestra variable respuesta (aquellos con un coeficiente de regresión parcial significativo a

Page 47: Desarrollo De La Inteligencia Final

47

P<0.05) y qué porcentaje de varianza espacial es explicado por estas plantillas (Fig. 8B).• Concretamente, el modelo arroja 17 vectores significativos (denominados en lo sucesivo como CPMV), que por sí solos explican un 67% de la varianza espacial en la abundancia de aves. Para simplificar el desglose de varianza,• esos 17 CPMV se reparten arbitrariamente en tres escalas (macroescala, con 9 vectores comprendidos entre CPMV1 y CMPV22; mesoescala, con 7 vectores entre CPMV23 a CPMV44; y microescala, con 1 vector entre CPMV45 a CPMV67), generándose después un submodelo de regresión para cada escala (Fig. 8B). A partir de cada submodelo se pueden calcular valores predichos de la variable respuesta, que representarán la variación de dicha variable a las distintas escalas. En nuestro caso de estudio, vemos que la mayor parte de la varianza espacial es asumida por el submodelo a macroescala, seguido del submodelo a mesoescala (Fig. 8C). Finalmente, los valores predichos nos servirán para evaluar la covariación entre nuestra variable respuesta y una o varias variables predictoras, a distintas escalas espaciales y con el mismo poder estadístico. Al relacionar la abundancia predicha de aves a las tres escalas consideradas con la abundancia de frutos, vemos cómo el ajuste entre aves y frutos es fuerte a escala amplia, pero va perdiendo fuerza conforme vamos disminuyendo la escala espacial (Fig. 8D). También en este sistema de la cordillera Cantábrica, las aves parecen rastrear la abundancia de frutos a escala de paisaje, distinguiendo bien entre grandes fragmentos de bosque en función de la abundancia de árboles productores de fruto carnoso y, dentro de esos fragmentos, distinguiendo entre sectores o rodales de árboles con frutos. Sin embargo, la abundancia de aves frugívoras es poco predecible en función de la abundancia de frutos a escala fina, como la determinada por los tamaños de cosecha de las plantas individuales.

Page 48: Desarrollo De La Inteligencia Final

48

Figura 8. Resumen de Análisis de Coordenadas Principales de Matrices de Vecinos (ACPMV) evaluando el desglose de varianza espacial de la abundancia de aves frugívoras dispersantes y su relación con la abundancia de frutos carnosos de distintas especies leñosas, a distintas escalas, en bosques secundarios montanos de la cordillera Cantábrica, a partir del• transecto de Peña Mayor-Trigueiro (ver descripción del sistema de estudio en pies de Figura 5 y 6). Tanto la abundancia de aves (Turdus spp.) como la de frutos carnosos se cuantificaron en 100 unidades de muestreo contiguas de 25 m a lo largo del transecto de 2.500 m, en otoño-invierno de 2004-2005. En A) se representan tres vectores de CPMV distintos, dentro de los 67 generados a lo largo del gradiente de escalas abarcado por la extensión de muestreo, como ejemplo de plantillas potenciales de variación espacial. En B) se indican los vectores que muestran un ajuste significativo, tras regresión múltiple, con la abundancia de aves, agrupados en submodelos espaciales para tres escalas progresivamente más finas. En C) se representan los valores de abundancia de aves predichos por cada uno de los submodelos espaciales, indicándose el coeficiente de determinación (equivalente a la proporción de varianza espacial explicada) y el grado de significación del ajuste de regresión de cada submodelo (n.s.: P>0.05, ***: P<0.001). En D) se representa el ajuste de regresión de los valores predichos de abundancia de aves de cada submodelo espacial frente a la abundancia de frutos indicándose el coeficiente de determinación y el grado de significación (n.s.: P>0.05, ***: P<0.001). Cada punto representa una unidad de muestreo en el transecto. 7. Consideraciones finales La escala es un concepto subyacente a cualquier cometido del análisis espacial de datos ecológicos, por su papel como armazón sobre el que compartimentar la variación de los fenómenos ecológicos. Habitualmente, la varianza ecológica se reparte de forma desigual, y los fenómenos pasan de homogéneos a heterogéneos y viceversa a lo largo de los rangos de escalas de observación.• Nuestra capacidad de inferencia analítica probablemente depende de la detección de esos sectores de

Page 49: Desarrollo De La Inteligencia Final

49

heterogeneidad, donde la varianza es suficientemente grande como para ser diferenciada en unidades espaciales o estructurales y, por otra parte, correlacionada con gradientes ambientales. Así, el ajuste y la significación de los modelos analíticos cambia a lo largo del gradiente de escalas, determinando la aparición y desaparición de “dominios de escala” (sensu Wiens, 1989) o sectores del gradiente donde un proceso ecológico mantiene su funcionamiento (véase, por ejemplo, el caso del ajuste entre abundancia de frutos y aves frugívoras, donde la relación va perdiendo fuerza al reducir la escala, en paralelo a la pérdida de poder explicativo de los submodelos espaciales, Fig. 8D). Los ecólogos disponemos cada vez de más herramientas conceptuales y tecnológicas para determinar la escala-dependencia y la extensión de los dominios de escala espacial de los procesos ambientales. La utilidad de estos estudios para la gestión de los recursos naturales y la conservación de la biodiversidad es innegable. El gran reto conceptual que nos queda por delante es, a mi modo de ver, determinar cómo los fenómenos que ocurren a una escala pueden depender de los mecanismos que actúan a otras. En otras palabras, dilucidar cómo los patrones a gran escala se generan por la simple acumulación de procesos a pequeña escala, y cómo los patrones a pequeña escala están condicionados por procesos macroecológicos. Agradecimientos Agradezco a Dani Rodríguez, Susana García y Alicia Valdés su entusiasta ayuda en los muestreos del transecto de Peña Mayor, a Fernando T. Maestre su invitación para participar en este monográfico y su labor editorial, y a José Manuel Herrera sus comentarios sobre una versión preliminar. Este trabajo se ha financiado con los proyectos CGL2004-2936/BOS (Ministerio de Educación y Ciencia) y BIOCON03-162 (Fundación BBVA). Referencias Borcard, D. y Legendre, P. 2002. All-scale spatial analysis of ecological data by means of principal coordinates of neighbour matrices. Ecological Modelling 153: 51-68.• Borcard, D., Legendre, P., Avois-Jacquet, C. y Tuomisto, H. 2004. Dissecting the spatial structure of ecological data at multiple scales. Ecology 85: 1826-1832.• Dungan, J.L., Perry, J.N., Dale, M.R.T., Legendre, P., Citron-Pousty, S., Fortin, M.-J., Jakomulska, A., Miriti, M. y Rosenberg, M.S. 2002. A balanced view of scale in spatial statistical analysis. Ecography 25: 626-640.• Fortin, M.-J. y Dale, M.R.T. 2005. Spatial analysis: a guide for ecologists. Cambridge University Press, Cambridge.• García, D. y Ortiz-Pulido, R. 2004. Patterns of resource tracking by avian frugivores at multiple spatial scales – two case studies on discordance among scales. Ecography 27:187-196.• García, D., Obeso, J.R. y Martínez, I. 2005. Spatial concordance between seed rain and seedling establishment in bird- dispersed trees: does the scale matter? Journal of Ecology 93: 693-704.•

Page 50: Desarrollo De La Inteligencia Final

50

Legendre, P. y Legendre, L. Numerical ecology, 2nd ed. Elsevier,sterdam.• Levin, S.A. 1992. The problem of pattern and scale in ecology. Ecology 73: 1943-1976.• Schneider, D.C. 2001. The rise of the concept of scale in ecology. BioScience 51: 545-553.• Turner, M., Gardner, R.H. y O’Neill, R.V. 2001. Landscape ecology in theory and practice: pattern and process. Springer- Verlag, New York.• Wiens, J.A. 1989. Spatial scaling in ecology. Functional Ecology 3: 385-397.

Page 51: Desarrollo De La Inteligencia Final

51

ESCALAS EN ECOLOGÍA: SU IMPORTANCIA PARA EL ESTUDIO DE LA SELECCIÓN DE HÁBITAT EN AVES

VÍCTOR R. CUETO

Grupo de Investigación en Ecología de Comunidades de Desierto (ECODES), Departamento de Ecología, Genética y Evolución, FCEyN, Universidad de Buenos Aires. Pab. 2, Piso 4,

Ciudad Universitaria, C1428EHA Buenos Aires, Argentina. [email protected]

RESUMEN. — En este trabajo discuto sobre qué entendemos por escala en ecología y cómo las dimensiones espaciales de nuestro estudio pueden influir en los patrones que observamos y en nuestras conclusiones sobre los procesos que los producen. Analizo la importancia de establecer la escala espacial de nuestros estudios cuando intentamos evaluar la selección de hábitat por las aves, discutiendo los métodos y conclusiones de un trabajo a múltiples escalas sobre la relación entre la vegetación y las aves. Concluyo que comprender la importancia de establecer la escala de nuestro trabajo no solo permite una mejor planificación del proyecto de investigación, sino que facilita la interpretación de los resultados obtenidos y mejora el potencial para encontrar explicaciones a nuestro problema de estudio. PALABRAS CLAVE: definición de escala, dominios de la escala, estudios a múltiples escalas, extensión, grano, selección de hábitat, tipos de escala. ABSTRACT : SCALE IN ECOLOGY: ITS IMPORTANCE FOR THE STUDY OF AVIAN HABITAT SELECTION. — I discuss about the meaning of scale in ecology, and how spatial dimensions of our study influence observed patterns and conclusions about processes producing them. I analyze the importance of establishing the spatial scale in our studies when we evaluate avian habitat selection, and I discuss methods and conclusions of a multiple-scale investigation on bird-vegetation relationships. I conclude that understanding the importance of scale in our investigations allows a better planning of the research project, facilitates the interpretation of the obtained results, and improves the potential to find explanations for the problem under study. KEY WORDS: extent, grain, habitat selection, multiscale studies, scale definition, scale domains, scale types

El interés de los ecólogos por el efecto de la escala en sus trabajos de investigación ha aumentado notablemente en los últimos tiempos. Antes de la década de 1980 en pocos trabajos se mencionaba explícitamente la escala del estudio, pero desde mediados de esa década se produjo un rápido incremento en las publicaciones que tienen en cuenta los problemas de la escala 1. Por ejemplo, Kareiva y Andersen 2 revisaron 100 experimentos de campo en trabajos de ecología de comunidades y encontraron que la mitad de ellos fueron realizados en parcelas de menos de 1 m de diámetro, a pesar de que había considerables diferencias en el tamaño y los tipos de organismos estudiados. Además, la literatura ecológica de décadas pasadas está llena de estudios en los cuales se colectaban datos a escala de una hectárea o menos y se extrapolaban las conclusiones a escalas mucho más amplias (incluso a todo el planeta). El resultado de tales extrapolaciones puede o no ser válido, pero es razonable reconocer que es posible

que frente a esos cambios de escala las fuentes de error y variación involucradas se modifiquen o que cambien las relaciones con los factores ambientales 3. En gran medida la indiferencia de los ecólogos por el problema de la escala en sus estudios podría haberse debido a los siguientes motivos 4: (1) la teoría ecológica fue desarrollada sin tenerla en cuenta, y por lo tanto se puede aplicar en cualquier ámbito espacio-temporal; (2) los fenómenos con los que suelen trabajar los ecólogos son intuitivamente familiares y probablemente los perciben y estudian desde escalas antropocéntricas que concuerdan con su propia experiencia; y (3) existe una tradición de uso de cuadrantes y parcelas de un tamaño particular simplemente porque fueron los usados previamente por otros investigadores. Los patrones y los procesos ecológicos que los producen son dependientes de la escala espacial y temporal sobre la cual son observados 4. Sin embargo, no se puede decir que un proceso esté restringido a una escala particular, sino

Page 52: Desarrollo De La Inteligencia Final

52

que existen escalas de tiempo y espacio en las cuales un proceso resulta relevante o prevalece sobre otros 1. Por ejemplo, la hipótesis que propone que los procesos de especiación y extinción pueden haber contribuido a generar patrones observados a escala biogeográfica no puede extrapolarse a los patrones a escala local, y por lo tanto es poco apropiada como su explicación. De la misma forma, la sugerencia que la competencia interespecífica es importante en la determinación del patrón de uso de hábitat puede ser más relevante a escala local que a escala biogeográfica 5,6. Una solución al problema de identificar y compatibilizar la escala de los patrones y los procesos es diseñar estudios que incluyan un análisis de escalas múltiples 7. Las características del hábitat tienen influencias importantes sobre las aves. Por ejemplo, la estructura y la composición florística de la vegetación pueden determinar, entre otros aspectos, la distribución y abundancia del alimento, la disponibilidad de perchas para cantar, de cobertura contra predadores y de sitios para nidificar 8. Considerando este papel del hábitat para las aves, muchos investigadores han estudiado cómo las especies lo utilizan y qué procesos podrían dar cuenta del patrón de selección de hábitat observado (e.g., interacciones competitivas, respuestas específicas de las especies 9). Sin embargo, para comenzar a entender esta relación proceso patrón se necesita establecer primero el grado de variabilidad espacio temporal de aquellos patrones. Por ejemplo, en bosques deciduos del noreste de Estados Unidos se encontró que Empidonax minimus influía negativamente sobre el uso de hábitat de Setophaga ruticilla 10. Sin embargo, estas especies estaban positivamente asociadas a escala regional 11. A partir de ello se interpretó que los factores que guían la selección de hábitat a gran escala (e.g., formaciones boscosas con diferentes características estructurales de la vegetación) se imponen en este caso a los efectos locales de la competencia interespecífica. En estos bosques también se encontró que el número de parejas reproductivas de Dendroica caerulescens estaba positivamente relacionado con la densidad de arbustos cuando se comparaban las características del hábitat entre distintas parcelas de bosque, pero un análisis a escala del territorio de los

individuos indicó que esta variable no tiene incidencia en la selección de los territorios dentro de cada parcela 12. Por su parte, en las estepas arbustivas de América del Norte, las aves responden a las características estructurales del hábitat a escala biogeográfica, pero a escala regional estas asociaciones desaparecen y es más importante la composición florística del hábitat, mientras que a escala local no hay similitudes con los patrones observados a las escalas mayores 13–15. En este trabajo trataré de mostrar la importancia de la escala de estudio en las investigaciones ecológicas, particular mente en la evaluación de la selección de hábitat en aves. Mi análisis está lejos de ser una revisión exhaustiva; lo que intenta es plantear el tema y estimular su discusión, en especial durante las etapas de planificación de un proyecto de investigación. Mis comentarios estarán enfocados principalmente sobre los aspectos espaciales de la escala del estudio, incluyendo ejemplos concretos de mis investigaciones sobre la relación entre la vegetación y las aves. Sin embargo, los mismos pueden ser igualmente aplicados a los aspectos temporales de la escala de un trabajo de investigación.

¿QUÉ ENTENDEMOS POR ESCALA? Por “escala” nos referimos a las dimensiones espaciales y temporales de las entidades o fenómenos que observamos, lo que involucra (al menos implícitamente) mediciones y unidades de medición. Los objetos o eventos pueden ser caracterizados y diferenciados por sus escalas, como cuando hablamos del tamaño de un objeto o de la frecuencia de ocurrencia de un evento. Por regla general, deberíamos usar el término escala cuando somos capaces de asignar o identificar las dimensiones y unidades de medición de nuestro “objeto” de estudio (i.e., el ámbito en el cual realizamos las observaciones). Lamentablemente, como sucede con otros términos en ecología, muy a menudo en la literatura el término escala es utilizado erróneamente, confundiéndolo con el término “nivel” y viceversa 16. Es común encontrar referencias donde se indica que se trabajó “a escala poblacional” o, inversamente, “a nivel de paisaje”, lo que lleva a la pérdida de precisión de ambos términos y a que no se sepa con certeza de qué se está hablando cuando se los utiliza. Teniendo en cuenta que uno de los objetivos de la ciencia es la

Page 53: Desarrollo De La Inteligencia Final

53

precisión, deberíamos ser cuidadosos en el uso de la terminología; vale la pena, entonces, aclarar las diferencias entre los dos conceptos. Por nivel nos referimos a los estados de organización de un sistema que se ordena en forma jerárquica.

Figura 1. Representación del grano (cuadrado pequeño, línea entera) y la extensión (cuadrado grande, línea entera) de un estudio en un paisaje con diferentes parches de hábitat. Cuando se aumenta la extensión del estudio (indicado por las flechas en el cuadrado grande) se incorporan nuevos parches de hábitat que no estaban presentes en el área de estudio original. Cuando se incrementa el tamaño del grano (indicado por las flechas en el cuadrado pequeño) algunos parches pequeños de hábitats que originalmente podían ser diferenciados, ahora son incluidos dentro de la misma muestra y las diferencias entre ellos son promediadas. Modificado a partir de Wiens 4.

Los niveles de organización clásicos para los ecólogos son individuo, población, comunidad y ecosistema, aunque existen otras posibilidades 16. Los niveles de organización, aunque suelen estar asociados, no necesariamente dependen de la escala espacio-temporal de los objetos o eventos bajo estudio 17. Por ejemplo, a nivel poblacional podemos medir las tasas de natalidad y mortalidad desde escalas espacio-temporales de milímetros y minutos (e.g., bacterias en un medio de cultivo) hasta hectáreas y años (e.g., aves en bosques tropicales). A pesar de las grandes diferencias de escala, el nivel involucrado es el mismo. ¿CÓMO EXPRESAMOS LA ESCALA ESPACIO-TEMPORAL EN ECOLOGÍA? La escala espacio-temporal de observación en un estudio ecológico tiene dos componentes: la extensión y el grano 18. Desde una perspectiva espacial, la extensión es el área total donde realizamos las observaciones durante un estudio (Fig. 1); este componente de la escala muchas veces

es erróneamente considerado como la “escala del trabajo”. El grano es el área (o tamaño) de nuestra unidad de observación (Fig. 1), el cual suele coincidir con la unidad de muestreo de los estadísticos. Podemos tomar como ejemplo a un investigador que está interesado en conocer la abundancia de las aves que habitan un algarrobal en el desierto del Monte y prepara el siguiente protocolo de estudio: contar aves en 20 parcelas circulares de 35 m de radio durante 10 min, ubicadas al azar y separadas como mínimo por 250 m, en un área rectangular de 40 ha, una vez por semana durante la época reproductiva (octubre–febrero). El grano de las observaciones es el tamaño de las parcelas circulares y el tiempo de conteo, mientras que la extensión está dada por el número total de parcelas circulares, la separación entre éstas, el tamaño del área rectangular y el número total de semanas que abarcarán las observaciones. La extensión y el grano definen los límites superior e inferior de resolución de un estudio, respectivamente. Toda inferencia acerca de un sistema escala-dependiente está restringida por la extensión y el grano de la investigación. No se puede extrapolar más allá de la extensión sin aceptar el supuesto de uniformidad del patrón bajo estudio (i.e., que la observación o la conclusión son independientes de la escala), un supuesto que muy a menudo no se cumple en los sistemas ecológicos, ni se puede detectar ningún elemento del patrón por debajo del grano. Cuando cambiamos la escala de medición de una variable, también modificamos la varianza de esa variable. La naturaleza del cambio depende de si modificamos el grano o la extensión de la escala 4. Manteniendo la extensión constante, un incremento del grano generalmente producirá una disminución de la varianza. Mac Nally y Quinn 19 presentan un ejemplo de cambios en la variabilidad de la densidad poblacional de Acanthiza lineata al modificar el grano espacial de sus observaciones. La variabilidad fue evaluada usando la desviación estándar del promedio entre muestreos sucesivos. Analizaron mediante transectas la densidad de esta especie con tres granos espaciales: 15 ha, 30 ha y 45 ha. Los conteos usando la transecta de 15 ha tuvieron una variabilidad entre muestreos de 0.47 individuos/ha, pero a medida que incrementaron el grano la variabilidad se fue reduciendo (30 ha: 0.32 individuos/ha; 45 ha: 0.25 individuos/ha), indicando una dependencia entre la escala de observación (grano) y la variabilidad de las mediciones. La densidad promedio de Acanthiza lineata, por el contrario, mostró pocos cambios con

Page 54: Desarrollo De La Inteligencia Final

54

los tres granos utilizados (0.84, 0.73 y 0.72 individuos/ha, respectivamente). Es interesante notar que esta reducción en la variabilidad de las observaciones no se debió al incremento del número de transectas, sino al aumento del tamaño de la transecta, sugiriendo que el consejo usual de los estadísticos de “incrementar el número de muestras para reducir la variabilidad en la estimación de un parámetro” no es la única solución. Al mismo tiempo, dada esta dependencia entre la escala y la variabilidad de las mediciones, es de suma importancia indicar el grano y la extensión que se usaron para tomar las mediciones en un estudio.

Figura 2. Un ejemplo de la relación entre la escala del estudio y el grado de apertura del sistema ecológico (ver detalles en el texto). Los pares de flechas indican la posibilidad de dispersión de los individuos entre parches de hábitat y entre islas.

EFECTO DE LA ESCALA SOBRE EL GRADO DE APERTURA DE LOS SISTEMAS ECOLÓGICOS

Uno de los problemas más complejos que enfrentan los ecólogos es que los sistemas que estudian son en gran medida abiertos. Podemos considerar que un sistema ecológico es cerrado cuando la tasa de transferencia entre sistemas adyacentes se aproxima a cero o cuando las diferencias en los procesos entre ellos son tan grandes que sus dinámicas están efectivamente desacopladas. En cambio, un sistema es abierto cuando la tasa de transferencia es relativamente alta y las dinámicas de los elementos están acopladas entre sí en algún grado4. Podemos establecer grados de apertura de los sistemas ecológicos a partir de considerar explícitamente la escala de observación. Consideremos un estudio hipotético sobre la dinámica poblacional de Crypturellus tataupa en islas del Paraná Medio que contienen un mosaico de hábitats

(Fig. 2). La dinámica poblacional a escala de hábitat puede ser influenciada por la dispersión de individuos entre los parches de una isla y, por lo tanto, el sistema es abierto a esa escala. A una escala más amplia, por el contrario, la migración entre islas puede ser nula y el sistema, para la población de Crypturellus tataupa de una isla, resulta cerrado. Sin embargo, el sistema debería ser considerado nuevamente abierto si en el estudio se está evaluando el efecto de las fluctuaciones climáticas sobre la dinámica de las poblaciones que habitan todas las islas del Paraná Medio. Tabla 1. Características generales de los atributos ecológicos y de las posibilidades de investigación que pueden depender de la escala de análisis (modificado a partir de Wiens 4).

Conocer el grado de apertura de los sistemas es de suma importancia para incrementar la probabilidad de que las mediciones efectuadas a una determinada escala revelen los mecanismos ecológicos que están operando. Por ejemplo, la diversidad de especies en una comunidad local puede estar determinada no solo por factores locales (e.g., heterogeneidad de hábitats, disponibilidad de recursos, abundancia de competidores), sino también por las tasas de especiación y extinción que operan a escala biogeográfica20. Los cambios en el tamaño de una población a escala local pueden reflejar alteraciones del hábitat a escala regional o incluso eventos en otras partes de la distribución geográfica de la especie21.

IMPORTANCIA DE LA ESCALA PARA DETECTAR PATRONES E INFERIR PROCESOS Las características que podemos observar de un sistema ecológico pueden diferir si utilizamos una escala pequeña o grande, y el tipo de escala elegida determinará en gran medida la forma en que podemos estudiar el sistema (Tabla 1). Los estudios a escala pequeña son más útiles para evaluar en mayor detalle los mecanismos subyacentes, mientras que a grandes escalas es más probable encontrar patrones generales. La posibilidad de realizar experimentos replicados aumenta cuando reducimos la escala de la investigación. El potencial para cometer varios tipos de errores es menor a escalas grandes (aunque tal vez aumente el riesgo de enfatizar asociaciones espurias), pero a su vez se

Page 55: Desarrollo De La Inteligencia Final

55

reduce la posibilidad de incrementar el esfuerzo de muestreo. La escala de un estudio determina el rango de posibilidades para detectar patrones y procesos, por lo que si estudiamos un sistema en una escala inapropiada podemos cometer el error de identificar patrones que, en realidad, son artefactos del análisis. Por ejemplo, un investigador encuentra que dos especies de aves granívoras del mismo género difieren en la longitud del pico en simpatría pero no en alopatría, y concluye que dicho patrón es evidencia de desplazamiento de caracteres debido a la competencia interespecífica en el área de simpatría. Sin embargo, el patrón en la longitud del pico podría estar relacionado con una variación clinal en el peso de las dos especies (i.e., una respuesta alométrica) y, por lo tanto, el patrón observado podría ser un ejemplo de falso desplazamiento de caracteres22. El investigador no detectó el cambio clinal debido a que la extensión de su trabajo no abarcó el rango completo de variación del rasgo morfológico considerado. Para el tipo de conclusión que quería alcanzar necesitaba un trabajo de una escala (extensión) mayor y, por lo tanto, realizó un muestreo incompleto. Quizás el mayor riesgo de seleccionar una escala inapropiada es que, como solemos ser muy ingeniosos, es probable que desarrollemos explicaciones para los datos obtenidos y creamos que comprendemos el funcionamiento del sistema, cuando en realidad solo hemos colectado un conjunto de datos que no permiten analizar confiablemente el

problema que estamos tratando de estudiar 4.

ELECCIÓN DE LA ESCALA APROPIADA Como se señaló anteriormente, una elección equivocada de la escala de estudio puede llevarnos a cometer errores de interpretación. La aproximación que se utiliza más frecuentemente para evaluar fenómenos a varias escalas es la selección arbitraria de varios puntos sobre el continuo de escalas posibles. Wiens et al. 23 reconocen cuatro escalas espaciales de utilidad general en las investigaciones ecológicas (Fig. 3): (1) escala biogeográfica: es un área suficientemente grande como para incluir diferentes climas, formaciones vegetales y ensambles de especies; (2) escala regional: una superficie que contiene muchos tipos de hábitats o poblaciones que pueden o no estar unidas por dispersión; (3) escala local: manchones de hábitat ocupados por muchos individuos de diferentes especies; y (4) escala del individuo: espacio ocupado por un individuo durante un período relevante de tiempo. El problema de estas escalas es que están basadas en nuestra percepción particular de la naturaleza y pueden no ser las más relevantes para un caracol, una lagartija o un ave. Al estudiar distintos tipos de organismos se condiciona la escala de la investigación, aún cuando sean similares en algún aspecto particular. Por ejemplo, un escarabajo carroñero no se relaciona con su ambiente a la misma escala que un ave rapaz carroñera, aunque compartan el tipo de alimento. Estas

Page 56: Desarrollo De La Inteligencia Final

56

diferencias entre organismos pueden ser vistas en términos de lo que Addicott et al.24 denominaron Vecindario ecológico (“ecological neighbourhood”), es decir áreas que son determinadas en función de un proceso ecológico, un período de tiempo o la capacidad de movilidad o actividad del organismo particular bajo estudio. Así, para un individuo de Par ula pitiayumi que habita un bosque de Celtis tala el vecindario ecológico de sus desplazamientos durante toda su vida probablemente será de unos pocos kilómetros cuadrados, mientras que para un individuo de Geranoaetus melanoleucus involucrará un área de cientos de kilómetros cuadrados. Algunos autores han propuesto usar relaciones alométricas para generar funciones de escalamiento para organismos de diferentes tamaños 1,25. Sobre esta base, por ejemplo, el área de actividad (i.e., el vecindario ecológico) para un ave de 20 g sería del orden de 4 ha, mientras que para una de 200 g debería ser de aproximadamente 90 ha. La elección de la escala de estudio también depende en gran medida de las preguntas que buscamos responder con nuestra investigación. Los ecólogos de comportamiento, de poblaciones y de comunidades pueden compartir su interés en analizar la relación entre los recursos y sus consumidores, pero sus objetivos particulares los conducirán a trabajar en distintas escalas. Como se desprende de los párrafos precedentes, no hay una receta sencilla para seleccionar la escala apropiada de un estudio. Sin embargo, hay dos factores significativos que guían esa selección. El primero es tener bien en claro cuál es la pregunta que deseamos responder con nuestro protocolo de investigación. El segundo es conocer la historia natural del sistema que vamos a estudiar. Si bien en ecología existe una fuerte tendencia a trabajar experimentalmente, todavía siguen siendo necesarios los trabajos basados en la observación de la historia natural de las especies, los cuales, con un buen diseño de muestreo, aportan las bases empíricas para proponer hipótesis que se pueden poner a prueba subsecuentemente con un protocolo experimental 26

Figura 3. Ejemplos de estudios a las escalas espaciales generalmente utilizadas en las investigaciones ecológicas. (A) Biogeográfica. Se estudian patrones con muestras localizadas en sitios dispersos que abarcan varias provincias fitogeográficas (e.g., Monte, Espinal, Pampa). (B) Regional. El muestreo abarca 12 sitios de estudio en la porción austral del desierto del Monte. (C) Local. Las muestras son parcelas de 10 ha que permiten un análisis comparativo en un sitio de estudio. (D) Individuo. El muestreo está concentrado en el área de los territorios ocupados por individuos de una especie (zonas negras) y en las porciones no ocupadas, dentro de una parcela de estudio.

DOMINIO DE LAS ESCALAS

Si la interpretación de los sistemas ecológicos dependiera de la escala en forma continua (i.e. si cada cambio en la escala promoviera una modificación de los patrones y procesos), entonces sería muy difícil encontrar alguna generalización, ya que el rango de extrapolación de los estudios quedaría muy limitado. En cambio, si el gradiente de escalas no es continuo, entonces podrían existir “dominios” de las escalas, que son rangos o “porciones” del gradiente de escalas en los que el patrón o proceso no cambia significativamente4. Los dominios

Page 57: Desarrollo De La Inteligencia Final

57

estarían separados por zonas de transición donde los patrones o procesos pasan de ser controlados por un grupo de factores a ser controlados por otros, de manera similar a los cambios de fase en los sistemas físicos4. El dominio de una escala, siempre para un determinado patrón o proceso, definiría los límites dentro de los cuales es posible una generalización. Los descubrimientos a una escala particular pueden ser extrapolados a otras escalas dentro del dominio, pero la extensión de las conclusiones cruzando las zonas de transición sería peligroso4. Las mediciones realizadas en dominios distintos no deberían ser comparadas directamente, pues las asociaciones entre variables dentro de un dominio podrían desaparecer o cambiar de signo cuando la escala es extendida más allá del mismo. Las explicaciones de un patrón derivadas de estudios mecánicos a escala pequeña diferirán dependiendo de si nosotros hemos ampliado la escala dentro del mismo dominio, entre dominios o cruzado varios de ellos. Nuevamente surge la utilidad de la perspectiva de múltiples escalas, en este caso como una forma de identificar dominios a lo largo de un continuo de escalas. Los estudios ecológicos deberían ser realizados a varias escalas, con cambios en el grano y la extensión, independientes uno del otro. Esta aproximación provee una mejor resolución a los problemas de dominio y ayuda a incrementar el grado de generalidad de los patrones observados y de sus determinantes.

ENFOQUES A MÚLTIPLES ESCALAS: UN EJEMPLO

Las aves muestran una estrecha relación con las características estructurales y florísticas de la vegetación cuando seleccionan el hábitat donde residen, pero la importancia de esos componentes puede depender de la escala del estudio (e.g., véanse los tres casos mencionados en la parte introductoria de este trabajo). Por este motivo, se analizó la relación entre la vegetación y las aves utilizando un enfoque de múltiples escalas 27. El trabajo fue realizado en tres escalas espaciales: biogeográfica, local y del individuo (ver Fig. 3). A escala biogeográfica se analizó la influencia del clima y de la disponibilidad de estratos de vegetación sobre la riqueza de especies de aves passeriformes en la provincia de Buenos Aires 28. A escala local se estudió la respuesta del ensamble de aves que habitan los bosques de Celtis tala

(talares) de la provincia de Buenos Aires a las alteraciones de la estructura y composición florística de la vegetación 29. Finalmente, a escala del individuo se evaluó la selección de microhábitats de alimentación por las aves en los talares 30. La descripción detallada de los métodos utilizados para analizar la relación entre la vegetación y las aves se puede encontrar en los trabajos originales. A continuación se describirán sucintamente, haciendo énfasis en la extensión y el grano de cada uno de los análisis. Para realizar el trabajo a escala biogeográfica se subdividió la superficie de la provincia de Buenos Aires en 146 cuadrados de 50 km de lado. La extensión fue la superficie cubierta por los 146 cuadrados (aproximadamente 350 000 km2), mientras que el grano fue la superficie de cada cuadrado (aproximadamente 2500 km2). En cada cuadrado se evaluó la presencia de las especies de aves passeriformes (obteniéndose la riqueza específica), el número de estratos de vegetación característico (derivado del tipo de vegetación predominante) y los valores de 13 variables relacionadas con la precipitación y la temperatura. La matriz de datos climáticos fue sometida a un Análisis de Componentes Principales, obteniéndose dos componentes (nuevas variables) que sintetizaron la mayor parte de la variación climática en la provincia. Las relaciones entre el clima, los estratos de vegetación y la riqueza de aves fueron evaluadas mediante Análisis de Correlación Simple y Parcial. Por su parte, a escala local se estudiaron las diferencias en los ensambles de aves que habitan talares con diferente estructura y composición florística de la Reserva El Destino (Partido de Magdalena). Los talares se encuentran ubicados sobre cordones de conchilla paralelos o subparalelos a la costa del Río de la Plata. Estos cordones se originaron por depósitos marinos como consecuencia de ingresiones del mar durante el Cuaternario, los cuales determinaron elevaciones de 1–2 m sobre el nivel de las áreas adyacentes. Esta característica topográfica conformó un paisaje de isletas de bosques de tamaño variable (entre 1–30 ha). En la reserva se encuentran talares que han sido protegidos de la explotación forestal y ganadera desde 1920 y otros que han sido explotados por tala selectiva hasta 1960 y que actualmente continúan siendo utilizados para la actividad ganadera (principalmente como refugio). Estos últimos se han regenerado principalmente a partir del rebrote de los tocones y, en la actualidad, presentan menor cobertura en el dosel y en los estratos bajos

Page 58: Desarrollo De La Inteligencia Final

58

con respecto a los talares protegidos. Además, varias especies de árboles sufrieron una marcada disminución en su cobertura (especialmente Celtis tala, Jodina rhombifolia y Sambucus australis). Para evaluar los ensambles de aves se seleccionaron cuatro áreas de aproximadamente 15 000 m2 (dos en cada tipo de talar). En cada área se establecieron al azar tres parcelas circulares de 1963 m2 cada una (el radio de cada parcela fue de 25 m), separadas entre sí por no menos de 150 m. La extensión del estudio fue de una superficie aproximada de 60 000 m2 e incluía las 12 parcelas circulares, mientras que el grano era la superficie de una parcela circular (1963 m2). En cada parcela se contó el número de individuos de cada especie registrada, obteniéndose así la densidad de cada una. Finalmente, a escala del individuo se evaluó el comportamiento de alimentación y la selección de microhábitats de alimentación por las aves en el talar protegido de la Reserva El Destino. Para obtener los datos de comportamiento se recorrieron dos áreas de 15 000 m2 en forma sistemática. Cada vez que un ave era observada alimentándose, se registraba la maniobra de alimentación empleada, el sustrato donde encontraba el alimento, la altura a la que capturaba su presa y la especie de planta en la que la encontraba. En este caso la extensión del trabajo fue de aproximadamente 30 000 m2 (las dos áreas establecidas en el talar protegido) y el grano era el sitio donde el ave capturaba su alimento (un área menor a 1 m2). El análisis biogeográfico sugirió que la riqueza de especies de aves passeriformes está asociada a la disponibilidad de estratos de vegetación (Fig. 4). A esta escala, la estructura de la vegetación es más importante que el clima en la determinación de los patrones de distribución geográfica de las aves. A escala local, tanto la estructura de la vegetación como la composición florística influyen en el uso de hábitat. Las aves insectívoras responden a las diferencias en estructura de la vegetación (Fig. 5A), siendo menos abundantes en los bosques con una menor disponibilidad de follaje en altura (Fig. 6). Las frugívoro-insectívoras, por su parte, responden más a la composición florística del bosque (Fig. 5B), porque son menos abundantes en los sitios que presentan una menor abundancia y riqueza de especies de plantas productoras de frutos (e.g., Celtis tala, Jodina rhombifolia, Sambucus australis; Fig. 7) solo durante la primavera y el verano, precisamente la época de mayor oferta de frutos en los talares.

Figura 4. Esquema de la relación entre las variables que influyen sobre la riqueza de especies de aves passeriformes en la provincia de Buenos Aires. La estructura de la vegetación está estimada a partir del número de estratos de los tipos de vegetación dominantes en la provincia. El primer factor climático está asociado a un gradiente NE-SO generado por un aumento de la precipitación y la humedad relativa y una disminución de la amplitud térmica y del número de heladas hacia el NE. El segundo factor climático está relacionado con un gradiente SE-NO determinado por un aumento de las temperaturas de enero y de la amplitud térmica hacia el NO. Se muestran los valores de las correlaciones parciales estadísticamente significativas entre variables (líneas llenas). Para más detalles ver Cueto y Lopez de Casenave28. NS: no significativo.

Dos de las especies insectívoras estudiadas a escala del individuo son recolectoras de presas en el follaje (Parula pitiayumi y Polioptila dumicola), mientras que la otra se alimenta mediante el revoloteo (Serpophaga subcristata). Las dos primeras seleccionan el estrato superior del bosque para alimentarse, mientras Serpophaga subcristata se alimenta en todos los estratos (Fig. 8). Elaenia parvirostris, una especie frugívoro-insectívora, se alimenta principalmente mediante la caza por revoloteo y también captura su alimento en todos los estratos del bosque (Fig. 8). Estos resultados sugieren que a escala del individuo la estructura de la vegetación no debería afectar de la misma manera a las cuatro especies. Serpophaga subcristata y Elaenia parvirostris no seleccionan estratos de vegetación para alimentarse y, por lo tanto, no deberían sufrir una disminución en la oferta de sitios de alimentación cuando se simplifica la estructura del bosque. Este resultado se refleja parcialmente a escala

Page 59: Desarrollo De La Inteligencia Final

59

Figura 5. Densidad estacional promedio (+ EE), en ind/ha, de aves insectívoras (A) y frugívoro - insectívoras (B) que habitan los talares protegidos (barras negras) y explotados (barras blancas) de la Reserva El Destino, Magdalena, Buenos Aires. Las densidades de las aves insectívoras y frugívoro- insectívoras fueron estadísticamente mayores en los talares protegidos que en los explotados (ANOVA de 2 Factores con Medidas Repetidas en un Factor, Efecto Principal Tipo de Talar; F = 32; gl = 1,10; P < 0.01 y F = 5.5; gl = 1,10; P < 0.05). Para más detalles ver Cueto y López de Casenave29

local cuando se analizó la respuesta poblacional de estas especies. Parula pitiayumi y Polioptila dumicola fueron menos abundantes en los bosques con menor oferta de microhábitats de alimentación (los talares explotados), mientras que Serpophaga subcristata no mostró marcadas variaciones en su densidad entre ambos tipos de bosques (Tabla 2). En cambio, para Elaenia parvirostris la respuesta poblacional no fue la esperada en función de su selección de microhábitats: aunque no selecciona microhábitats a escala del individuo, sus densidades difieren entre tipos de bosque a escala local (Tabla 2).

Figura 6. Perfil de cobertura de follaje en altura en los talares protegidos (puntos negros) y explotados (puntos blancos) de la Reserva El Destino, Magdalena, Buenos Aires. Los asteriscos indican diferencias significativas entre los dos tipos de talar (Prueba de t a dos colas; *: P < 0.05, **: P < 0.01, n = 8). Esta diferencia se debería, como ya se indicó, a la disminución en la abundancia o a la falta de especies productoras de frutos en los talares explotados (ver Fig. 7). Los resultados de los análisis a escalas mayores reflejaron solo parcialmente los obtenidos a escala del individuo, quizás porque los últimos enfatizan los aspectos más relacionados con la percepción ambiental de los factores últimos de la selección de hábitat de las aves, ya que están asociados con la adquisición de sus recursos alimenticios y con sus condicionamientos comportamentales y morfológicos.

Page 60: Desarrollo De La Inteligencia Final

60

Figura 7. Cobertura promedio (+ DE) de las especies de árboles en los talares protegidos (barras negras) y explotados (barras blancas) de la Reserva El Destino, Magdalena, Buenos Aires. Los asteriscos indican diferencias significativas entre los dos tipos de talar (Prueba de t a dos colas o Prueba de Mann-Whitney; *: P < 0.05, **: P < 0.001, n = 8). SC: Scutia buxifolia, CT: Celtis tala, LL: Ligustrum lucidum, SL: Schinus longifolius, JR: Jodina rhombifolia, SA: Sambucus australis.

A escala del individuo, la estructura de la vegetación y la composición florística son dos características que estarían asociadas con la obtención del alimento (el que actuaría como factor último) y que servirían como guías para la selección del hábitat (i.e., como factores próximos). Sin embargo, cuando se analizan los resultados a mayores escalas no todas las especies responden de la manera predicha por los estudios a escala del individuo, enfatizándose la importancia de otros factores que afectan la selección de hábitat por las aves. Por ejemplo, analicemos qué sucede con las cuatro especies en las tres escalas. Una revisión de su distribución geográfica en la provincia de Buenos Aires muestra que las cuatro son muy frecuentes en las zonas costeras31, coincidiendo muy bien con la distribución de los bosques costeros (i.e., selva en galería y talares). Así, a escala biogeográfica las características estructurales del paisaje restringen la

Figura 8. Distribución vertical de las actividades de alimentación de cuatro especies de aves que habitan los talares protegidos de la Reserva El Destino, Magdalena, Buenos Aires. Los datos son porcentajes de observaciones a distintas alturas (puntos negros) y se muestra también la disponibilidad de follaje en altura (puntos blancos). Existen diferencias estadísticamente significativas entre la disponibilidad de follaje y la distribución vertical de la actividad de alimentación para Polioptila dumicola y Par ula pitiayumi ( 2χ

= 38.4, gl = 4, n = 45, P < 0.005 y = 38.4, gl = 6, n = 66, P < 0.0001, respectivamente). Para más detalles ver Cueto y Lopez de Casenave 30.

presencia de estas especies (i.e., donde no hay hábitats boscosos no están presentes), aunque a medida que reducimos la escala la respuesta es diferente. Para algunas especies, a escala local y del individuo sólo es

Page 61: Desarrollo De La Inteligencia Final

61

importante que se encuentren presentes estructuras arbóreas (Serpophaga subcristata), mientras que para otras hay otros factores, como la disponibilidad de distintos estratos de vegetación (Parula pitiayumi y Polioptila dumicola) o la presencia de árboles con frutos (Elaenia parvirostris) que determinan su uso del hábitat. Sin un enfoque a múltiples escalas estas diferencias no podrían ser detectadas y, por lo tanto, la extrapolación de los patrones determinados a una escala podría llevar a conclusiones erróneas cuando se los aplica a otras escalas. CONCLUSIÓN En este trabajo intenté reflexionar sobre la importancia de los aspectos metodológicos de la escala en los estudios ecológicos. Si bien se expusieron los problemas espaciales de la escala, también es importante tener en cuenta los temporales23. Por ejemplo, nuestra capacidad para determinar qué factores influyen en la selección de hábitat por las aves depende de si el estudio involucra la época reproductiva o todo el año, ya que es probable que los requerimientos de uso de hábitat sean distintos durante el período de nidificación y durante el invierno. Comprender la importancia de establecer la escala espacio temporal de nuestro trabajo no solo permitirá una mejor planificación de nuestro proyecto de investigación (tanto conceptual como logística), sino que facilitará la interpretación de los datos obtenidos y mejorará la posibilidad de desarrollar explicaciones acerca de nuestro problema de estudio.

AGRADECIMIENTOS

A Javier López de Casenave por su amistad y por compartir más de 10 años en la búsqueda de en- tender cómo se organizan los ensambles de aves. También le agradezco por su energía en las largas jornadas en el campo, las charlas sobre las aves de los talares y por haber insistido para que escribiera este trabajo. A John A. Wiens, quien no creo que haya leído alguna vez mis “trabajos”, porque mi lectura de los suyos ha contribuido enormemente a mi formación como científico. A Luis Marone mi agradecimiento es por los mismos motivos que al Dr. Wiens, pero su caso es aún más meritorio porque él sí ha sufrido la lectura de mis manuscritos (incluido éste...). A Fernando Milesi y a un revisor anónimo por sus sugerencias y comentarios para mejorar el manuscrito. También agradezco a los alumnos de los cursos 2004 y 2005 de Ecología de Comunidades y Ecosistemas (FCEyN, UBA) por las estimulantes discusiones cuando analizábamos el problema de la escala en ecología. Casi todo mi trabajo de investigación sobre selección de hábitat fue en gran medida “auto-financiado”; sin embargo, en los últimos tiempos debo agradecer a CONICET y ANPCyT (actualmente a través del PICT 0112199) de Argentina por el financiamiento recibido. Esta es la contribución N° 48 del Grupo de Investigación en Ecología de Comunidades de Desierto (Ecodes), de IADIZA (CONICET) y FCEyN (UBA).

BIBLIOGRAFÍA CITADA

1 SCHNEIDER DC (1994) Quantitative ecology: spatial and temporal scaling. Academic Press, San Diego

2 KAREIVA P Y ANDERSEN M (1988) Spatial aspects of species interactions: the weeding of models and experiments. Pp. 38–54 en: HASTINGS A (ed) Community ecology. Springer-Verlag, Nueva York

3 PETERSON DL Y PARKER VT (1998) Ecological scale: theory and applications. Columbia University Press, Nueva York

4 WIENS JA (1989) Spatial scaling in ecology. Functional Ecology 3:385–397

5 WIENS JA (1983) Avian community ecology: an iconoclastic view. Pp. 355–403 en: BRUSH AH Y CLARK GA (eds) Perspectives in ornithology. Cambridge University Press, Cambridge

6 WIENS JA (1986) Spatial and temporal variation in studies of shrubsteppe birds. Pp. 154–172 en: DIAMOND J Y CASE TJ (eds) Community ecology. Harper & Row, Nueva York 7 KOTLIAR NB Y WIENS JA (1990) Multiple scales of patchiness and patch-structure: a hierarchical framework for the study of heterogeneity. Oikos 598

:253–260 CODY ML (1985) Habitat selection in birds. Academic Pr9

ess, Nueva York

WIENS JA (1989) The ecology of bird communities. Cambridge University Press, Cambridge

10 SHERRY TW Y HOLMES RT (1988) Habitat selection by breeding American Redstarts in response to a dominant competitor, the Least Flycatcher. Auk 105:350–364

11 HOLMES RT Y SHERRY TW (1988) Assessing population trends of New Hampshire forest birds: local vs. regional patterns. Auk 105:756–768

12 STEELE BB (1992) Habitat selection by breeding black-throated blue warblers at two spatial scales. Ornis Scandinavica 23:33–42

13 ROTENBERRY JT Y WIENS JA (1980) Habitat structure, patchiness, and avian communities in North American steppe vegetation: a multivariate analysis. Ecology 61:1228–1250

14 WIENS JA Y ROTENBERRY JT (1981) Habitat associations and community structure of birds in shrub- steppe environments. Ecological Monographs 51:21–41

15 WIENS JA, ROTENBERRY JT Y VAN HORNE B (1987) Habitat occupancy patterns of North American shrubsteppe birds: the effects of spatial scale. Oikos 48:132–147

16 O’NEILL RVO Y KING AW (1998) Homage to St. Michel; or, why are there so many books on scale? Pp. 3–15 en: PETERSON DL Y PARKER VT (eds) Ecological scale: theory and applications. Columbia University Press, Nueva York

17 ALLEN TFH (1998) The landscape “level” is dead: persuading the family to take it off the respirator. Pp. 35–54 en: PETERSON DL Y PARKER VT (eds) Eco- logical scale: theory and applications. Columbia University Press, Nueva York

18 ALLEN TFH Y STARR TB (1982) Hierarchy: perspectives for ecological complexity. University of Chicago Press, Chicago

19 MAC NALLY R Y QUINN GP (1998) Symposium introduction: the importance of scale in ecology. Australian Journal of Ecology 23:1–7

20 RICKLEFS RE (1987) Community diversity: relative roles of local and regional processes. Science 235:167–171

21

Page 62: Desarrollo De La Inteligencia Final

62

MARRA PP, HOBSON KA Y HOLMES RT (1998) Linking winter and summer events in a migratory bird using stablecarbon isotopes. Science 282:1884–1886

22 GRANT PR (1975) The classical case of character displacement. Evolutionary Biology 8:237–337

WIENS JA, ADDICOTT JF, CASE T Y DIAMOND J (1986) The importance of spatial and temporal scale in ecological investigations. Pp. 145–153 en: DIAMOND J Y CASE TJ (eds) Community ecology. Harper & Row, Nueva York

24 ADDICOTT JF, AHO JM, ANTOLIN MF, PADILLA DK, RICHARDSON JS Y SOLUK DA (1987) Ecological neighbourhoods: scaling environmental patterns. Oikos 49:340–346

25 SCHNEIDER DC (1998) Applied scaling theory. Pp. 253–269 en: PETERSON DL Y PARKER VT (eds) Ecolocal scale: theory and applications. Columbia University Press, Nueva York

26 MARONE L, LOPEZ DE CASENAVE J Y CUETO VR (2001) Historia natural local y ciencia ecológica universal: los sistemas semillas-granívoros en desiertos de Sudamérica y Norteamérica. Pp. 678–679 en: PRIMACK R, ROZZI R, FEINSINGER P, DIRZO R Y MASSARDO F (eds) Fundamentos de conservación biológica: perspectivas latinoamericanas. Fondo de Cultura Económica, México DF.

Page 63: Desarrollo De La Inteligencia Final

63

ALGORITMOS Y FLUJOGRAMAS

1. Definición de algoritmo

Se puede definir a un algoritmo como el conjunto ordenado y finito de

operaciones que permite encontrar la solución de un problema. Los algoritmos

son modos de resolución de problemas, son aplicables no solo a la actividad

intelectual sino a todo tipo de problemas relacionados con actividades

cotidianas; encontramos ejemplos de algoritmos en los manuales de usuario

que nos muestran como utilizar un dispositivo electrónico, en las ordenes que

un patrón da a un trabajador, así como también tenemos los algoritmos

matemáticos como por ejemplo el algoritmo de la división para calcular el

cociente de dos números.

La importancia de los algoritmos radica en mostrar la manera de llevar a cabo

procesos y resolver problemas matemáticos. Los algoritmos reciben una entrada y

la transforman en una salida. Cabe señalar que los algoritmos en si mismos no

resuelven problemas, se resuelven gracias al producto de ejercer las operaciones

dictadas

por el algoritmo.

2. Características de los algoritmos

Un algoritmo para ser considerado

como tal debe cumplir con las

siguientes características:

Page 64: Desarrollo De La Inteligencia Final

64

a. Finitud: Un algoritmo siempre debe terminar después de un número finito de pasos. Es más, es casi fundamental que sea en un número razonable de pasos.

b. Precisión: El algoritmo debe definirse de forma precisa para cada paso,

es decir, hay que evitar toda ambigüedad al definir cada paso. Ya que el

lenguaje humano es impreciso, los algoritmos se expresan mediante un

lenguaje formal, ya sea matemático o de programación para un

computador.

c. Entrada: Un algoritmo tiene cero o más entradas: cantidades que le son

dadas antes de que el algoritmo comience, o dinámicamente mientras el

algoritmo corre. Estas entradas son tomadas de conjuntos específicos de

objetos. Por ejemplo, pueden ser cadenas de caracteres, enteros,

naturales fraccionarios, etc. Se trata siempre de cantidades

representativas del mundo real expresadas de tal forma que sean aptas

para su interpretación por el computador.

d. Salida: Un algoritmo tiene una o más salidas: cantidades que tienen una

relación específica con las entradas.

e. Eficacia: Todas las operaciones a realizar en un algoritmo deben ser

suficientemente básicas como para que en principio puedan ser hechas

de manera exacta y en un tiempo finito por un hombre usando lápiz y

papel.

3. Clasificación de algoritmos

Algoritmo determinista: en cada paso del algoritmo se determina de forma única

el siguiente paso.

Algoritmo no determinista: deben decidir en cada paso de la ejecución entre varias

alternativas y agotarlas todas antes de encontrar la solución

4. Medios de expresión de un algoritmo.

Los algoritmos pueden ser expresados de muchas maneras incluyendo al lenguaje

formal, pseudocódigo, diagramas de flujo y lenguajes de programación entre otros.

Page 65: Desarrollo De La Inteligencia Final

65

a. Diagrama de flujo

Los diagramas de flujo son esquemas para representar gráficamente un algoritmo;

usan símbolos conectados con flechas para indicar la secuencia de instrucciones y

están regidos por el estándar ISO.

Los diagramas de flujo son usados para representar algoritmos pequeños, ya que

abarcan mucho espacio y su construcción es laboriosa. Por su facilidad de lectura

son usados como introducción a los algoritmos, descripción de lenguajes y

descripción de procesos a personas ajenas a la computación.

Características que deben poseer los Diagramas de flujo:

• Sintética: La representación que se haga de un sistema o un proceso deberá

quedar resumido en pocas hojas, de preferencia en una sola. Los diagramas

extensivos dificultan su comprensión y asimilación, por tanto dejan de ser

prácticos.

• Simbolizada: La aplicación de la simbología adecuada a los diagramas de

sistemas y procedimientos evita a los analistas anotaciones excesivas, repetitivas

y confusas en su interpretación.

• De forma visible a un sistema o un proceso: Los diagramas nos permiten

observar todos los pasos de un sistema o proceso sin necesidad de leer notas

extensas.

Simbología de elaboración de diagramas de flujo e uso

generalizado

Documento: cualquier documento (cheques, facturas de comprar o

ventas, etc.)

Proceso manual: cualquier operación manual, como la preparación de

Page 66: Desarrollo De La Inteligencia Final

66

una factura de venta o la conciliación de un extracto financiero.

Proceso: cualquier operación, bien sea realizada manualmente,

mecánicamente o por computador. Con frecuencia, se utiliza también con

el símbolo del proceso manual.

Almacenamiento fuera de línea: un archivo u otra ayuda de

almacenamiento para documentos o registros de computador.

Líneas de Flujo: líneas que indican un flujo direccional de documentos.

Normalmente hacia abajo o hacia la derecha, a menos que las flechas indiquen

lo contrario.

Anotación: utilizada para hacer comentarios explicativos, como una

secuencia de archivo (por fecha, en orden alfabético, etc.)

Conector: salida hacia, o entrada desde, otra parte del diagrama de flujo. Se

utiliza para evitar un cruce excesivo de líneas de flujo. Los conectores de

salida y de entrada contienen claves de letras o números.

Conector entre diferente páginas: indica la fuente o el destino de

renglones que ingresan o salen del diagrama de flujo.

Entrada / Salida: utilizado para ubicar un conector de otra

página, para indicar información que ingresa o sale del diagrama

de flujo.

Page 67: Desarrollo De La Inteligencia Final

67

Decisión: indica cursos de acción alternos como resultado de una

decisión de sí o no.

Ejemplo: Diagrama de Flujo que expresa un algoritmo para calcular la suma de dos

números.

Inicio

Lea x, y

s = x + y

Escriba

Fin

b. Pseudocódigo

Pseudocódigo es la descripción de un algoritmo que se asemeja a un lenguaje de

programación pero con algunas convenciones del lenguaje natural. Tiene varias

ventajas con respecto a los diagramas de flujo entre las que se destaca el poco

espacio que se requiere para representar instrucciones complejas. El pseudocódigo

no está regido por ningún estándar.

Ejemplo: Pseudocódigo que expresa un algoritmo para calcular la suma de dos

números.

Page 68: Desarrollo De La Inteligencia Final

68

Inicio

Leer x,

Leer y

Suma = x + y

Presentar suma

Fin

5. Análisis de algoritmos.

Se pueden aplicar dos fases para la resolución de problemas:

9 Fase de resolución del problema: consta de tres partes análisis del

problema, diseño y verificación del algoritmo.

9 Fase de Implementación: una vez diseñado el algoritmo, éste se traduce a un

determinado lenguaje de programación que deberá ser puesto en ejecución y

comprobación posteriormente en el computador.

Análisis del problema

5.1 Fase de resolución:

5.1.1 Análisis del problema

Se debe examinar el problema a fin de obtener una idea clara sobre lo

que se solicita y determinar los datos de entrada y salida

Diseño del algoritmo

Verificación del algoritmo

Codificación del algoritmo

Page 69: Desarrollo De La Inteligencia Final

69

5.1.2 Diseño del algoritmo

Para diseñar un algoritmo se debe identificar las tareas más importantes

para resolver el problema y disponerlas en el orden en el que han de ser

ejecutadas.

En un algoritmo se deben considerar tres partes:

Entrada: información dada al algoritmo

Proceso: operaciones o cálculos necesarios para encontrar la solución del

problema.

Salida: respuestas dadas por el algoritmo o resultados finales de los

cálculos.

Para identificar las especificaciones de entrada y salida nos podemos

apoyar en las siguientes interrogantes:

Especificaciones de entrada:

¿Qué datos son de entrada?

¿Cuántos datos se introducirán?

¿Cuántos son datos de entrada válidos?

Especificaciones de salida:

¿Cuáles son los datos de salida?

¿Cuántos datos de salida se producirán?

¿Qué precisión tendrán los resultados?

5.1.3 Verificación del algoritmo

Es necesario comprobar que el algoritmo realiza las tareas para las que

se ha diseñado y produce el resultado correcto y esperado. Para comprobar un algoritmo se realiza una ejecución manual usando datos significativos que abarquen todo el posible rango de valores.

Page 70: Desarrollo De La Inteligencia Final

70

Page 71: Desarrollo De La Inteligencia Final

71

ALGORITMO PARA INGRESAR A LAS SALAS DE PRÁCTICA

1. Tener actualizada la credencial

2. Si la credencial esta actualizada

a. Pasar credencial por el lector de código de barras.

b. Seleccionar sala y equipo.

c. Ingresar a la sala y encender el equipo.

d. Ingresar cuenta y contraseña

e. Utilizar el computador.

3. si no

a. Acercarse al departamento de atención al cliente.

b. Si es renovación de la credencial

i. Se toman la fotografía.

ii. Se recibe la credencial

c. Si no (si la credencial esta deteriorada o se les ha perdido)

i. Pagar en el banco el monto correspondiente.

ii. Traer el recibo

iii. Tomarse la fotografía

iv. Se recibe la credencial

4. Se regresa al paso 2.

Page 72: Desarrollo De La Inteligencia Final

72

DATA MINING Torturando a los datos hasta que confiesen[*] Luis Carlos Molina Félix Coordinador del programa de Data mining (UOC) [email protected] Resumen: El título de este artículo es una explicación informal de la actividad que realiza una tecnología denominada data mining (minería de datos). Lo que se pretende con esta tecnología es descubrir conocimiento oculto a partir de grandes volúmenes de datos. Desde la década pasada, debido a los grandes avances computacionales, se ha ido incorporando a las organizaciones para constituirse en un apoyo esencial al momento de tomar decisiones. Organizaciones tales como empresas, clubes profesionales deportivos, universidades y gobiernos, entre otros, hacen uso de esta tecnología como ayuda en la toma de sus decisiones. Algunos de estos ejemplos serán citados en el presente trabajo. 1. Introducción Cada día generamos una gran cantidad de información, algunas veces conscientes de que lo hacemos y otras veces inconscientes de ello porque lo desconocemos. Nos damos cuenta de que generamos información cuando registramos nuestra entrada en el trabajo, cuando entramos en un servidor para ver nuestro correo, cuando pagamos con una tarjeta de crédito o cuando reservamos un billete de avión. Otras veces no nos damos cuenta de que generamos información, como cuando conducimos por una vía donde están contabilizando el número de automóviles que pasan por minuto, cuando se sigue nuestra navegación por Internet o cuando nos sacan una fotografía del rostro al haber pasado cerca de una oficina gubernamental. ¿Con qué finalidad queremos generar información? Son muchos los motivos que nos llevan a generar información, ya que nos pueden ayudar a controlar, optimizar, administrar, examinar, investigar, planificar, predecir, someter, negociar o tomar decisiones de cualquier ámbito según el dominio en que nos desarrollemos. La información por sí misma está considerada un bien patrimonial. De esta forma, si una empresa tiene una pérdida total o parcial de información provoca bastantes perjuicios. Es evidente que la información debe ser protegida, pero también explotada. ¿Qué nos ha permitido poder generar tanta información? En los últimos años, debido al desarrollo tecnológico a niveles exponenciales tanto en el área de cómputo como en la de transmisión de datos, ha sido posible que se gestionen de una mejor manera el manejo y almacenamiento de la información. Sin duda existen cuatro factores importantes que nos han llevado a este suceso: 1. El abaratamiento de los sistemas de almacenamiento tanto temporal como permanente. 2. El incremento de las velocidades de cómputo en los procesadores. 3. Las mejoras en la confiabilidad y aumento de la velocidad en la transmisión de datos. 4. El desarrollo de sistemas administradores de bases de datos más poderosos. Actualmente todas estas ventajas nos han llevado a abusar del almacenamiento de la información en las bases de datos. Podemos decir que algunas empresas almacenan un cierto tipo de datos al que hemos denominado dato-escritura, ya que sólo se guarda (o escribe) en el disco duro, pero nunca se hace uso de él. Generalmente, todas las empresas usan un dato llamado dato-escritura-lectura, que utilizan para hacer consultas dirigidas. Un nuevo tipo de dato al cual hemos denominado dato-escritura-lectura-análisis es el que proporciona en conjunto un verdadero conocimiento y nos apoya en las tomas de decisiones. Es necesario contar con tecnologías que nos ayuden a explotar el potencial de este tipo de datos. La cantidad de información que nos llega cada día es tan inmensa que nos resulta difícil asimilarla. Basta con ir al buscador Altavista[url2] y solicitar la palabra information para ver que existen 171.769.416 sitios donde nos pueden decir algo al respecto. Suponiendo que nos

Page 73: Desarrollo De La Inteligencia Final

73

tomemos un minuto para ver el contenido de cada página, tardaríamos entonces 326 años en visitarlas todas. Esto es imposible, y, por lo tanto, existe una clara necesidad de disponer de tecnologías que nos ayuden en nuestros procesos de búsqueda y, aún más, de tecnologías que nos ayuden a comprender su contenido. El data mining surge como una tecnología que intenta ayudar a comprender el contenido de una base de datos. De forma general, los datos son la materia prima bruta. En el momento que el usuario les atribuye algún significado especial pasan a convertirse en información. Cuando los especialistas elaboran o encuentran un modelo, haciendo que la interpretación del confronto entre la información y ese modelo represente un valor agregado, entonces nos referimos al conocimiento. En la figura 1 se ilustra la jerarquía que existe en una base de datos entre dato, información y conocimiento (Molina, 1998). Se observa igualmente el volumen que presenta en cada nivel y el valor que los responsables de las decisiones le dan en esa jerarquía. El área interna dentro del triángulo representa los objetivos que se han propuesto. La separación del triángulo representa la estrecha unión entre dato e información, no así entre la información y el conocimiento. El data mining trabaja en el nivel superior buscando patrones, comportamientos, agrupaciones, secuencias, tendencias o asociaciones que puedan generar algún modelo que nos permita comprender mejor el dominio para ayudar en una posible toma de decisión. Figura 1. Relación entre dato, información y conocimiento (Molina, 1998). 2. Data mining: conceptos e historia Aunque desde un punto de vista académico el término data mining es una etapa dentro de un proceso mayor llamado extracción de conocimiento en bases de datos (Knowledge Discovery in Databases o KDD) en el entorno comercial, así como en este trabajo, ambos términos se usan de manera indistinta. Lo que en verdad hace el data mining es reunir las ventajas de varias áreas como la Estadística, la Inteligencia Artificial, la Computación Gráfica, las Bases de Datos y el Procesamiento Masivo, principalmente usando como materia prima las bases de datos. Una definición tradicional es la siguiente: "Un proceso no trivial de identificación válida, novedosa, potencialmente útil y entendible de patrones comprensibles que se encuentran ocultos en los datos" (Fayyad y otros, 1996). Desde nuestro punto de vista, lo definimos como "la integración de un conjunto de áreas que tienen como propósito la identificación de un conocimiento obtenido a partir de las bases de datos que aporten un sesgo hacia la toma de decisión" (Molina y otros, 2001). La idea de data mining no es nueva. Ya desde los años sesenta los estadísticos manejaban términos como data fishing, data mining o data archaeology con la idea de encontrar correlaciones sin una hipótesis previa en bases de datos con ruido. A principios de los años ochenta, Rakesh Agrawal, Gio Wiederhold, Robert Blum y Gregory Piatetsky-Shapiro, entre otros, empezaron a consolidar los términos de data mining y KDD.[3] A finales de los años ochenta sólo existían un par de empresas dedicadas a esta tecnología; en 2002 existen más de 100 empresas en el mundo que ofrecen alrededor de 300 soluciones. Las listas de discusión sobre este tema las forman investigadores de más de ochenta países. Esta tecnología ha sido un buen punto de encuentro entre personas pertenecientes al ámbito académico y al de los negocios. El data mining es una tecnología compuesta por etapas que integra varias áreas y que no se debe confundir con un gran software. Durante el desarrollo de un proyecto de este tipo se usan diferentes aplicaciones software en cada etapa que pueden ser estadísticas, de visualización de datos o de inteligencia artificial, principalmente. Actualmente existen aplicaciones o herramientas comerciales de data mining muy poderosas que contienen un sinfín de utilerías que facilitan el desarrollo de un proyecto. Sin embargo, casi siempre acaban complementándose con otra herramienta.

Page 74: Desarrollo De La Inteligencia Final

74

3. Aplicaciones de uso Cada año, en los diferentes congresos, simposios y talleres que se realizan en el mundo se reúnen investigadores con aplicaciones muy diversas. Sobre todo en los Estados Unidos, el data mining se ha ido incorporando a la vida de empresas, gobiernos, universidades, hospitales y diversas organizaciones que están interesadas en explorar sus bases de datos. Podemos decir que "en data mining cada caso es un caso". Sin embargo, en términos generales, el proceso se compone de cuatro etapas principales: 1. Determinación de los objetivos. Trata de la delimitación de los objetivos que el cliente desea bajo la orientación del especialista en data mining. 2. Preprocesamiento de los datos. Se refiere a la selección, la limpieza, el enriquecimiento, la reducción y la transformación de las bases de datos. Esta etapa consume generalmente alrededor del setenta por ciento del tiempo total de un proyecto de data mining. 3. Determinación del modelo. Se comienza realizando unos análisis estadísticos de los datos, y después se lleva a cabo una visualización gráfica de los mismos para tener una primera aproximación. Según los objetivos planteados y la tarea que debe llevarse a cabo, pueden utilizarse algoritmos desarrollados en diferentes áreas de la Inteligencia Artificial. 4. Análisis de los resultados. Verifica si los resultados obtenidos son coherentes y los coteja con los obtenidos por los análisis estadísticos y de visualización gráfica. El cliente determina si son novedosos y si le aportan un nuevo conocimiento que le permita considerar sus decisiones. A continuación se describen varios ejemplos donde se ha visto involucrado el data mining. Se han seleccionado de diversos dominios y con diversos objetivos para observar su potencial. Respecto a los modelos inteligentes, se ha comprobado que en ellos se utilizan principalmente árboles y reglas de decisión, reglas de asociación, redes neuronales, redes bayesianas, conjuntos aproximados (rough sets), algoritmos de agrupación (clustering), máquinas de soporte vectorial, algoritmos genéticos y lógica difusa. 3.1. En el gobierno El FBI analizará las bases de datos comerciales para detectar terroristas. A principios del mes de julio de 2002, el director del Federal Bureau of Investigation (FBI), John Aschcroft, anunció que el Departamento de Justicia comenzará a introducirse en la vasta cantidad de datos comerciales referentes a los hábitos y preferencias de compra de los consumidores, con el fin de descubrir potenciales terroristas antes de que ejecuten una acción.[4] Algunos expertos aseguran que, con esta información, el FBI unirá todas las bases de datos probablemente mediante el número de la Seguridad Social y permitirá saber si una persona fuma, qué talla y tipo de ropa usa, su registro de arrestos, su salario, las revistas a las que está suscrito, su altura y peso, sus contribuciones a la Iglesia, grupos políticos u organizaciones no gubernamentales, sus enfermedades crónicas (como diabetes o asma), los libros que lee, los productos de supermercado que compra, si tomó clases de vuelo o si tiene cuentas de banco abiertas, entre otros.[5] La inversión inicial ronda los setenta millones de dólares estadounidenses para consolidar los almacenes de datos, desarrollar redes de seguridad para compartir información e implementar nuevo software analítico y de visualización. 3.2. En la empresa Detección de fraudes en las tarjetas de crédito. En 2001, las instituciones financieras a escala mundial perdieron más de 2.000 millones de dólares estadounidenses en fraudes con tarjetas de crédito y débito. El Falcon Fraud Manager[6] es un sistema inteligente que examina transacciones, propietarios de tarjetas y datos financieros para detectar y mitigar fraudes. En un principio estaba pensado, en instituciones financieras de Norteamérica, para detectar fraudes en tarjetas de crédito.

Page 75: Desarrollo De La Inteligencia Final

75

Sin embargo, actualmente se le han incorporado funcionalidades de análisis en las tarjetas comerciales, de combustibles y de débito.[7] El sistema Falcon ha permitido ahorrar más de seiscientos millones de dólares estadounidenses cada año y protege aproximadamente más de cuatrocientos cincuenta millones de pagos con tarjeta en todo el mundo –aproximadamente el sesenta y cinco por ciento de todas las transacciones con tarjeta de crédito. Descubriendo el porqué de la deserción de clientes de una compañía operadora de telefonía móvil. Este estudio fue desarrollado en una operadora española que básicamente situó sus objetivos en dos puntos: el análisis del perfil de los clientes que se dan de baja y la predicción del comportamiento de sus nuevos clientes. Se analizaron los diferentes históricos de clientes que habían abandonado la operadora (12,6%) y de clientes que continuaban con su servicio (87,4%). También se analizaron las variables personales de cada cliente (estado civil, edad, sexo, nacionalidad, etc.). De igual forma se estudiaron, para cada cliente, la morosidad, la frecuencia y el horario de uso del servicio, los descuentos y el porcentaje de llamadas locales, interprovinciales, internacionales y gratuitas. Al contrario de lo que se podría pensar, los clientes que abandonaban la operadora generaban ganancias para la empresa; sin embargo, una de las conclusiones más importantes radicó en el hecho de que los clientes que se daban de baja recibían pocas promociones y registraban un mayor número de incidencias respecto a la media. De esta forma se recomendó a la operadora hacer un estudio sobre sus ofertas y analizar profundamente las incidencias recibidas por esos clientes. Al descubrir el perfil que presentaban, la operadora tuvo que diseñar un trato más personalizado para sus clientes actuales con esas características. Para poder predecir el comportamiento de sus nuevos clientes se diseñó un sistema de predicción basado en la cantidad de datos que se podía obtener de los nuevos clientes comparados con el comportamiento de clientes anteriores. Prediciendo el tamaño de las audiencias televisivas. La British Broadcasting Corporation (BBC) del Reino Unido emplea un sistema para predecir el tamaño de las audiencias televisivas para un programa propuesto, así como el tiempo óptimo de exhibición (Brachman y otros, 1996). El sistema utiliza redes neuronales y árboles de decisión aplicados a datos históricos de la cadena para determinar los criterios que participan según el programa que hay que presentar.[8] La versión final se desempeña tan bien como un experto humano con la ventaja de que se adapta más fácilmente a los cambios porque es constantemente reentrenada con datos actuales. 3.3. En la universidad Conociendo si los recién titulados de una universidad llevan a cabo actividades profesionales relacionadas con sus estudios. Se hizo un estudio sobre los recién titulados de la carrera de Ingeniería en Sistemas Computacionales del Instituto Tecnológico de Chihuahua II, [9] en Méjico (Rodas, 2001). Se quería observar si sus recién titulados se insertaban en actividades profesionales relacionadas con sus estudios y, en caso negativo, se buscaba saber el perfil que caracterizó a los exalumnos durante su estancia en la universidad. El objetivo era saber si con los planes de estudio de la universidad y el aprovechamiento del alumno se hacía una buena inserción laboral o si existían otras variables que participaban en el proceso. Dentro de la información considerada estaba el sexo, la edad, la escuela de procedencia, el desempeño académico, la zona económica donde tenía su vivienda y la actividad profesional, entre otras variables. Mediante la aplicación de conjuntos aproximados se descubrió que existían cuatro variables que determinaban la adecuada inserción laboral,

Page 76: Desarrollo De La Inteligencia Final

76

que son citadas de acuerdo con su importancia: zona económica donde habitaba el estudiante, colegio de donde provenía, nota al ingresar y promedio final al salir de la carrera. A partir de estos resultados, la universidad tendrá que hacer un estudio socioeconómico sobre grupos de alumnos que pertenecían a las clases económicas bajas para dar posibles soluciones, debido a que tres de las cuatro variables no dependían de la universidad. 3.4. En investigaciones espaciales Proyecto SKYCAT. Durante seis años, el Second Palomar Observatory Sky Survey (POSS-II) coleccionó tres terabytes de imágenes que contenían aproximadamente dos millones de objetos en el cielo. Tres mil fotografías fueron digitalizadas a una resolución de 16 bits por píxel con 23.040 x 23.040 píxeles por imagen. El objetivo era formar un catálogo de todos esos objetos. El sistema Sky Image Cataloguing and Analysis Tool (SKYCAT) se basa en técnicas de agrupación (clustering) y árboles de decisión para poder clasificar los objetos en estrellas, planetas, sistemas, galaxias, etc. con una alta confiabilidad (Fayyad y otros, 1996). Los resultados han ayudado a los astrónomos a descubrir dieciséis nuevos quásars con corrimiento hacia el rojo que los incluye entre los objetos más lejanos del universo y, por consiguiente, más antiguos. Estos quásars son difíciles de encontrar y permiten saber más acerca de los orígenes del universo. 3.5. En los clubes deportivos El AC de Milán utiliza un sistema inteligente para prevenir lesiones. Esta temporada el club comenzará a usar redes neuronales para prevenir lesiones y optimizar el acondicionamiento de cada atleta. Esto ayudará a seleccionar el fichaje de un posible jugador o a alertar al médico del equipo de una posible lesión.[10] El sistema, creado por Computer Associates International, es alimentado por datos de cada jugador, relacionados con su rendimiento, alimentación y respuesta a estímulos externos, que se obtienen y analizan cada quince días. El jugador lleva a cabo determinadas actividades que son monitoreadas por veinticuatro sensores conectados al cuerpo y que transmiten señales de radio que posteriormente son almacenadas en una base de datos. Actualmente el sistema dispone de 5.000 casos registrados que permiten predecir alguna posible lesión. Con ello, el club intenta ahorrar dinero evitando comprar jugadores que presenten una alta probabilidad de lesión, lo que haría incluso renegociar su contrato. Por otra parte, el sistema pretende encontrar las diferencias entre las lesiones de atletas de ambos sexos, así como saber si una determinada lesión se relaciona con el estilo de juego de un país concreto donde se practica el fútbol. Los equipos de la NBA utilizan aplicaciones inteligentes para apoyar a su cuerpo de entrenadores. El Advanced Scout[11] es un software que emplea técnicas de data mining y que han desarrollado investigadores de IBM para detectar patrones estadísticos y eventos raros. Tiene una interfaz gráfica muy amigable orientada a un objetivo muy específico: analizar el juego de los equipos de la National Basketball Association (NBA). El software utiliza todos los registros guardados de cada evento en cada juego: pases, encestes, rebotes y doble marcaje (double team) a un jugador por el equipo contrario, entre otros. El objetivo es ayudar a los entrenadores a aislar eventos que no detectan cuando observan el juego en vivo o en película.

Page 77: Desarrollo De La Inteligencia Final

77

Un resultado interesante fue uno hasta entonces no observado por los entrenadores de los Knicks de Nueva York. El doble marcaje a un jugador puede generalmente dar la oportunidad a otro jugador de encestar más fácilmente. Sin embargo, cuando los Bulls de Chicago jugaban contra los Knicks, se encontró que el porcentaje de encestes después de que al centro de los Knicks, Patrick Ewing, le hicieran doble marcaje era extremadamente bajo, indicando que los Knicks no reaccionaban correctamente a los dobles marcajes. Para saber el porqué, el cuerpo de entrenadores estudió cuidadosamente todas las películas de juegos contra Chicago. Observaron que los jugadores de Chicago rompían su doble marcaje muy rápido de tal forma que podían tapar al encestador libre de los Knicks antes de prepararse para efectuar su tiro. Con este conocimiento, los entrenadores crearon estrategias alternativas para tratar con el doble marcaje. La temporada pasada, IBM ofreció el Advanced Scout a la NBA, que se convirtió así en un patrocinador corporativo. La NBA dio a sus veintinueve equipos la oportunidad de aplicarlo. Dieciocho equipos lo están haciendo hasta el momento obteniendo descubrimientos interesantes. 4. Extensiones del data mining 4.1. Web mining Una de las extensiones del data mining consiste en aplicar sus técnicas a documentos y servicios del Web, lo que se llama web mining (minería de web) (Kosala y otros, 2000). Todos los que visitan un sitio en Internet dejan huellas digitales (direcciones de IP, navegador, galletas, etc.) que los servidores automáticamente almacenan en una bitácora de accesos (log). Las herramientas de web mining analizan y procesan estos logs para producir información significativa, por ejemplo, cómo es la navegación de un cliente antes de hacer una compra en línea. Debido a que los contenidos de Internet consisten en varios tipos de datos, como texto, imagen, vídeo, metadatos o hiperligas, investigaciones recientes usan el término multimedia data mining (minería de datos multimedia) como una instancia del web mining (Zaiane y otros, 1998) para tratar ese tipo de datos. Los accesos totales por dominio, horarios de accesos más frecuentes y visitas por día, entre otros datos, son registrados por herramientas estadísticas que complementan todo el proceso de análisis del web mining. Normalmente, el web mining puede clasificarse en tres dominios de extracción de conocimiento de acuerdo con la naturaleza de los datos: 1. Web content mining (minería de contenido web). Es el proceso que consiste en la extracción de conocimiento del contenido de documentos o sus descripciones. La localización de patrones en el texto de los documentos, el descubrimiento del recurso basado en conceptos de indexación o la tecnología basada en agentes también pueden formar parte de esta categoría. 2. Web structure mining (minería de estructura web). Es el proceso de inferir conocimiento de la organización del WWW y la estructura de sus ligas. 3. Web usage mining (minería de uso web). Es el proceso de extracción de modelosinteresantes usando los logs de los accesos al web. Algunos de los resultados que pueden obtenerse tras la aplicación de los diferentes métodos de web mining son: • El ochenta y cinco por ciento de los clientes que acceden a /productos/home.html y a /productos/noticias.html acceden también a /productos/historias_suceso.html. Esto podría indicar que existe alguna noticia interesante de la empresa que hace que los clientes se dirijan a historias de suceso. Igualmente, este resultado permitiría detectar la noticia sobresaliente y colocarla quizá en la página principal de la empresa. • Los clientes que hacen una compra en línea cada semana en /compra/producto1.html tienden a ser de sectores del gobierno. Esto podría resultar en proponer diversas ofertas a este sector para potenciar más sus compras. • El sesenta por ciento de los clientes que hicieron una compra en línea en /compra/producto1.html también compraron en /compra/producto4.html después de un mes.

Page 78: Desarrollo De La Inteligencia Final

78

Esto indica que se podría recomendar en la página del producto 1 comprar el producto 4 y ahorrarse el costo de envío de este producto. Los anteriores ejemplos nos ayudan a formarnos una pequeña idea de lo que podemos obtener. Sin embargo, en la realidad existen herramientas de mercado muy poderosas con métodos variados y visualizaciones gráficas excelentes. Para más información, ver Mena (1999). 4.2. Text mining Estudios recientes indican que el ochenta por ciento de la información de una compañía está almacenada en forma de documentos. Sin duda, este campo de estudio es muy vasto, por lo que técnicas como la categorización de texto, el procesamiento de lenguaje natural, la extracción y recuperación de la información o el aprendizaje automático, entre otras, apoyan al text mining (minería de texto). En ocasiones se confunde el text mining con la recuperación de la información (Information Retrieval o IR) (Hearst, 1999). Ésta última consiste en la recuperación automática de documentos relevantes mediante indexaciones de textos, clasificación, categorización, etc. Generalmente se utilizan palabras clave para encontrar una página relevante. En cambio, el text mining se refiere a examinar una colección de documentos y descubrir información no contenida en ningún documento individual de la colección; en otras palabras, trata de obtener información sin haber partido de algo (Nasukawa y otros, 2001). Una aplicación muy popular del text mining es relatada en Hearst (1999). Don Swanson intenta extraer información derivada de colecciones de texto. Teniendo en cuenta que los expertos sólo pueden leer una pequeña parte de lo que se publica en su campo, por lo general no se dan cuenta de los nuevos desarrollos que se suceden en otros campos. Así, Swanson ha demostrado cómo cadenas de implicaciones causales dentro de la literatura médica pueden conducir a hipótesis para enfermedades poco frecuentes, algunas de las cuales han recibido pruebas de soporte experimental. Investigando las causas de la migraña, dicho investigador extrajo varias piezas de evidencia a partir de títulos de artículos presentes en la literatura biomédica. Algunas de esas claves fueron: • El estrés está asociado con la migraña. • El estrés puede conducir a la pérdida de magnesio. • Los bloqueadores de canales de calcio previenen algunas migrañas. • El magnesio es un bloqueador natural del canal de calcio. • La depresión cortical diseminada (DCD) está implicada en algunas migrañas. • Los niveles altos de magnesio inhiben la DCD. • Los pacientes con migraña tienen una alta agregación plaquetaria. • El magnesio puede suprimir la agregación plaquetaria. Estas claves sugieren que la deficiencia de magnesio podría representar un papel en algunos tipos de migraña, una hipótesis que no existía en la literatura y que Swanson encontró mediante esas ligas. De acuerdo con Swanson (Swanson y otros, 1994), estudios posteriores han probado experimentalmente esta hipótesis obtenida por text mining con buenos resultados. 5. Conclusiones Nuestra capacidad para almacenar datos ha crecido en los últimos años a velocidades exponenciales. En contrapartida, nuestra capacidad para procesarlos y utilizarlos no ha ido a la par. Por este motivo, el data mining se presenta como una tecnología de apoyo para explorar, analizar, comprender y aplicar el conocimiento obtenido usando grandes volúmenes de datos. Descubrir nuevos caminos que nos ayuden en la identificación de interesantes estructuras en los datos es una de las tareas fundamentales en el data mining.

Page 79: Desarrollo De La Inteligencia Final

79

En el ámbito comercial, resulta interesante encontrar patrones ocultos de consumo de los clientes para poder explorar nuevos horizontes. Saber que un vehículo deportivo corre un riesgo de accidente casi igual al de un vehículo normal cuando su dueño tiene un segundo vehículo en casa ayuda a crear nuevas estrategias comerciales para ese grupo de clientes. Asimismo, predecir el comportamiento de un futuro cliente, basándose en los datos históricos de clientes que presentaron el mismo perfil, ayuda a poder retenerlo durante el mayor tiempo posible. Las herramientas comerciales de data mining que existen actualmente en el mercado son variadas y excelentes. Las hay orientadas al estudio del web o al análisis de documentos o de clientes de supermercado, mientras que otras son de uso más general. Su correcta elección depende de la necesidad de la empresa y de los objetivos a corto y largo plazo que pretenda alcanzar. La decisión de seleccionar una solución de data mining no es una tarea simple. Es necesario consultar a expertos en el área con vista a seleccionar la más adecuada para el problema de la empresa. Como se ha visto a lo largo del este artículo, son muchas las áreas, técnicas, estrategias, tipos de bases de datos y personas que intervienen en un proceso de data mining. Los negocios requieren que las soluciones tengan una integración transparente en un ambiente operativo. Esto nos lleva a la necesidad de establecer estándares para hacer un ambiente interoperable, eficiente y efectivo. Esfuerzos en este sentido se están desarrollando actualmente. En Grossman y otros (2002) se exponen algunas iniciativas para estos estándares, incluyendo aspectos en: • Modelos: para representar datos estadísticos y de data mining. • Atributos: para representar la limpieza, transformación y agregación de atributos usados como entrada en los modelos. • Interfaces y API: para facilitar la integración con otros lenguajes o aplicaciones de software y API. • Configuración: para representar parámetros internos requeridos para construir y usar los modelos. • Procesos: para producir, desplegar y usar modelos. • Datos remotos y distribuidos: para analizar y explorar datos remotos y distribuidos. En resumen, el data mining se presenta como una tecnología emergente, con varias ventajas: por un lado, resulta un buen punto de encuentro entre los investigadores y las personas de negocios; por otro, ahorra grandes cantidades de dinero a una empresa y abre nuevas oportunidades de negocios. Además, no hay duda de que trabajar con esta tecnología implica cuidar un sinnúmero de detalles debido a que el producto final involucra "toma de decisiones". Lista de URL: [url1]:http://www.lsi.upc.es/~lcmolina/about.htm [url2]:http://www.altavista.com [url3]:http://www.kdnuggets.com [url4]:http://www.fcw.com/fcw/articles/2002/0603/news-fbi-06-03-02.asp [url5]:http://tierra.ucsd.edu/archives/ats-l/2002.06/msg00013.html [url6]:http://www.fairisaac.com/page.cfm/press_id=325 [url7]:http://www.mining.dk/SPSS/Nyheder/nr7case_bbc.htm [url8]:http://www.msnbc.com/news/756968.asp [url9]:http://domino.research.ibm.com/comm/wwwr_thinkresearch.nsf/pages/datamine296.html Bibliografía: BRACHMAN, R.J.; KHABAZA, T.; KLOESGEN, W.; PIATETSKY-SHAPIRO, G.; SIMOUDIS, E. (1996). "Mining business databases". Communications of the ACM. Vol. 39, pág. 42-48.

Page 80: Desarrollo De La Inteligencia Final

80

BRODLEY, C.E.; LANE, T.; STOUGH, T.M. (1999). "Knowledge discovery and data mining". American Scientist. Vol. 86, pág. 55-65. FAYYAD, U.M.; PIATETSKY-SHAPIRO, G.; SMYTH, P.; UTHURUSAMY, R. (ed.) (1996). Advances in knowledge and data mining. Cambridge (Massachussets): AAAI/MIT Press. FAYYAD, U.; HAUSSLER, D.; STOLORZ, P. (1996). "Mining scientific data". Communications of the ACM. Vol. 39, pág. 51-57. FELDMAN, R.; DAGAN, I. (1995). "Knowledge discovery in textual databases (KDT)". En: Data mining: torturando a los datos hasta que confiesen http://www.uoc.edu/molina1102/esp/art/molina1102/molina1102.html ã Luis Carlos Molina Félix, 2002 ã de esta edición: FUOC, 2002 Proceedings of the 1st international conference on knowledge discovery. ACM. GROSSMAN, R. L.; HORNIK, M.F.; MEYER, G. (2002). "Data mining standards initiatives". Communications of ACM. Vol. 45 (8), pág. 59-61. HEARST, M. (1999). "Untangling text data mining". En: Proceedings of 37th annual meeting of the association for computational linguistics. Universidad de Maryland. KOSALA, R.; BLOCKEEL, B. (2000). "Web mining research: a survey". SIGKDD Explorations: Newsletter of the special interest group on knowledge discovery and data mining. ACM Press. Vol. 2 (1). MENA, J. (1999). Data mining your website. Digital Press. MOLINA, L.C. (1998). Data mining no processo de extração de conhecimento de bases de dados. Tesis de máster. Sâo Carlos (Brasil): Instituto de Ciências Matemáticas e Computação. Universidad de São Paulo. MOLINA, L.C.; RIBEIRO, S. (2001). "Descubrimiento conocimiento para el mejoramiento bovino usando técnicas de data mining". En: Actas del IV Congreso Catalán de Inteligencia Artificial. Barcelona, pág. 123-130. NASUKAWA, T.; NAGANO, T. (2001). "Text analysis and knowledge mining system". IBM Systems Journal, knowledge management. Vol. 40 (4). RODAS, J. (2001). "Un ejercicio de análisis utilizando rough sets en un dominio de educación superior mediante el proceso KDD". Documento interno. Barcelona: Departamento de Lenguajes y Sistemas Informáticos, Universidad Politécnica de Cataluña. SWANSON, D.R.; SMALHAISER, N.R. (1994). "Assessing a gap in the biomedical literature: magnesium deficiency and neurologic disease". Neuroscience research communications. Vol. 15, pág. 1-9. WAY, J.I.; SMITH, E.A. (1991). "The evolution of synthetic aperture radar systems and their progression to the EOS SAR". IEEE transactions on geoscience and remote sensing. Vol. 29 (6), pág. 962-985. ZAIANE, O.R.; HAN, J.; LI, Z-N.; CHEE, S.H.; CHIANG, J.Y. (1998). "MultiMedia-Miner: a system prototype for multimedia data mining". En: Proceedings of international conference on management of data. ACM SIGMOD. Vol. 27 (2), pág. 581-583. Enlaces relacionados: ß Formación en la UOC http://www.uoc.edu/masters/esp/cursos/especializacion/208_id.html ß KDnuggets http://www.kdnuggets.com/ ß KDcentral http://www.kdcentral.com/ ß Data Mining and Knowledge Discovery. An International Journal http://www.digimine.com/usama/datamine/ ß Departamento de Lenguajes y Sistemas Informáticos. Grupo de Soft Computing http://www.lsi.upc.es/~webia/soft-comp.html ß Página de Luís Carlos Molina Félix

http://www.lsi.upc.es/~lcmolina/

Page 81: Desarrollo De La Inteligencia Final

81

TEMAS

LAS CONSTANTES DE LA NATURALEZA 1 Cuestión de números………………………………………………………………………. 2

2. Proporción áurea…………………………………………………………………………... 3

3. El número de la belleza…………………………………………………………………… 5

4. Pi y los círculos……………………………………………………………………………. 7

5. El número e………………………………………………………………………………… 9

6. Las constantes de la física………………………………………………………………… 11

7. Optimización en el universo………………………………………………………………13

COMPLEJIDAD 1. Definición de sistema complejo …………………………………………………………. 16

2. Complejidad en lo cotidiano………………………………………………………………16

3. Tipos de complejidad………………………………………………………………………16

4. Características de la complejidad…………………………………………………………20

5. Ejemplos…………………………………………………………………………………… 20

6. Complejidad y caos: comportamientos…………………………………………………. 21

INCERTIDUMBRE

1. Probabilidad………………………………………………………………………………. 25

1.1. Probabilidad en acontecimientos pasados……………………………………….. 25

1.2. Probabilidad en un suceso específico……………………………………………. 25

1.3. Probabilidad en grandes cantidades de eventos……………………………….. 25

2. Resumen de datos………………………………………………………………………. 26

2.1. Promedios…………………………………………………………………………… 26

2.2. Datos resumidos…………………………………………………………………….. 26

3. Muestreo de datos………………………………………………………………………. 27

4. Caso de estudio…………………………………………………………………………. 27

5. Bibliografía……………………………………………………………………………… 34

ESCALAS MULTIPLES

1. Introducción…………………………………………………………………………….. 35

Page 82: Desarrollo De La Inteligencia Final

82

2. Escala espacial en Ecología…………………………………………………………….. 37

3. La Escala y el análisis espacial………………………………………………………… 37

4. El reparto de variación entre escalas………………………………………………… 40

5. Covariación entre variables a distintas escalas…………………………………….. 44

6. El problema de la potencia estadística………………………………………………. 45

7. Consideraciones finales………………………………………………………………. 48

8. Articulo: “Escalas en Ecología, su importancia para el estudio de la selección de habitat de las aves” ……………………………………………………………………………… 51

ALGORITMOS Y FLUJOGRAMAS

1. definición de algoritmo………………………………………………………………. 63

2. Características de los algoritmos…………………………………………………….. 63

3. Clasificación de algoritmos…………………………………………………………… 64

4. Medios de expresión de un algoritmo………………………………………………. 64

5. Análisis de algoritmos……………………………………………………………….... 68

5.1. Fases de resolución……………………………………………………………………68

5.1.1. Análisis del Problema…………………………………………………………. 68

5.1.2. Diseño del algoritmo…………………………………………………………. 69

5.1.3 Verificación del algoritmo…………………………………………………… 69

DATA MINING

1. Introducción………………………………………………………………………………. 72

2. Data mining: Conceptos y definiciones………………………………………………… 73

3. Aplicaciones de uso……………………………………………………………………… 74

3.1 En el Gobierno……………………………………………………………………….. 74

3.2 En la Empresa……………………………………………………………………….. 74

3.3. En la Universidad…………………………………………………………………… 75

3.4. En Investigaciones espaciales……………………………………………………… 76

3.5. En Clubes Deportivos………………………………………………………………. 76

4. Extensión del Data Mining……………………………………………………………… 77

Page 83: Desarrollo De La Inteligencia Final

83

4.1. Web mining………………………………………………………………………….. 77

4.2. Text mining…………………………………………………………………………... 78

5. Conclusiones…………………………………………………………………………….. 78