trabajo de resumen del capitulo 5 y 6 del cisne negro

32
EL CISNE NEGRO – TALEB NASSIN NICHOLAS FIIS – METODOLOGIA DE SISTEMAS IIPágina 1 RESUMEN DEL CAPITULO 5 Y 6 DEL LIBRO DEL CISNE NEGRO – TALEB NASSIM NICHOLAS

Upload: arnaldo-jonathan-alvarado-ruiz

Post on 25-Jul-2015

549 views

Category:

Documents


4 download

TRANSCRIPT

FIIS – METODOLOGIA DE SISTEMAS II Página 1

RESUMEN DEL CAPITULO 5 Y 6 DEL LIBRO DEL CISNE NEGRO – TALEB NASSIM NICHOLAS

CURSO:

METODOLOGIA DE SISTEMAS II

TRABAJO ENCARGADO

RESUMEN DE LOS CAPITULOS 5 Y 6 DEL LIBRO DEL CISNE NEGRO - TALEB NASSIM NICHOLAS

PRESENTADO POR:

ACEVEDO ALIAGA, ALBERTO LUCIO ALVARADO RUIZ, ARNALDO JONATHAN

TARAZONA CAJAMUNI, TEOBALDO MILTON

Docente:

ING. : MARCOS CANALES AGUIRRE

Tingo María – Perú

FIIS – METODOLOGIA DE SISTEMAS II Página 2

1. INDICE

1.- INDICE ………………………………………………………………………………………………………………. (4)

FIIS – METODOLOGIA DE SISTEMAS II Página 3

INDICE

2.- INTRODUCCION ………………………………………………………………………………………………… (6)

3.- OBJETIVOS

3.1.- OBJETIVOS GENERALES ……………………….................................................. (8)

3.2.- OBJETIVOS ESPECIFICOS ……………………………………………………………………… (8)

4.- MARCO TEORICO

4.1.- RESUMEN

4.1.1.- FUENTE DE RESUMEN DEL 1 AL 4 ………………..……………………. (10)

4.1.2.- RESUMEN DEL CAPITULO 5, CONFIRMACION, LA

DICHOSA CONFIRMACION ..………………..…………………………….. (11)

4.1.3.- RESUMEN DEL CAPITULO 6 – LA FALACIA

NARRATIVA …….………………………………………………………..…….… (11)

4.2.- INTERPRETACION DESDE LA PERSPECTIVA

SISTEMATICAS ………………………………………………………………………………….. (12)

4.2.1.- RELACION DE LA COMPLEJIDAD

CON LOS CISNES NEGROS ………………………………………………... (13)

4.2.2.- CARACTERISTICAS DE LA SOCIEDAD CON RELACION

A LA TEORIA DE LOS CISNES NEGROS …………………………….….. (16)

4.3.- CRITICA ………………………………………………………………………………………..…… (22)

5.- CONCLUSIONES …………………………………………………………………………………….………… (23)

6.- BIBLIOGRAFIA …………………………………………………………………………………………………. (25)

FIIS – METODOLOGIA DE SISTEMAS II Página 4

2. INTRODUCCIONFIIS – METODOLOGIA DE SISTEMAS II Página 5

INTRODUCCION

Según Nassim Nicholas Taleb, una pequeña cantidad de Cisnes Negros es capaz de explicar casi todo lo concerniente a nuestro mundo, desde el éxito de las ideas y las religiones hasta la dinámica de los acontecimientos históricos y los elementos de nuestra propia vida personal. El éxito de Google y Youtube, son Cisnes Negros.

Indudablemente, estamos frente a un libro iconoclasta, en todos los sentidos (incluido en el hecho de que no aparece apenas citas de otros pensadores o eruditos, pues el autor siempre recela de ello y trata de presentar su ideario como una colección de pensamientos muy personales, basados más en la reflexión y la meditación y no tanto en pruebas de laboratorio.

Y por esa razón, El Cisne Negro ha sido un libro que ha inspirado muchos de los artículos de Xataka Ciencia, como por ejemplo:Preferimos ganar poco aunque lo podamos perder todo / De cómo se produce el éxito de un artículo científico, o la larga serie El miedo infundado al terrorismo, los accidentes de tráfico, la violencia de género y otros hechos matemáticamente improbables.

Profesor de Ciencias de la Incertidumbre de la Universidad de Massachussets en Amherst, Nassim Nicholas Taleb ha escrito un libro que quizá sea un Cisne Negro en sí mismo, donde trata de explicarnos mediante narraciones trufadas de anécdotas cómo los seres humanos creemos saber más de lo que realmente sabemos. También constituye un lúcido razonamiento acerca de la estupidez de reducir la complejidad del mundo (social, psicológico, financiero, histórico) a unas simples fórmulas que en realidad jamás predicen casi nada, pues casi todo lo que vemos está creado por la serendipia, esto es, el azar.

En El Cisne Negro descubriremos que nos encanta los tangible, la confirmación, lo explicable, lo estereotipado, lo teatral, lo romántico, lo pomposo, la verborrea, la Harvard Business School, el Premio Nobel y, sobre todo, la narración; que todo se nos explique en forma de fábula o cuento para que nuestro sistema crítico quede todavía más inerme de lo habitual.

Pero ¿qué es exactamente un Cisne Negro? Para que un suceso sea determinado como “Cisne Negro” (antes del descubrimiento de Australia, las personas del Viejo Mundo estaban convencidas de que todos los cisnes eran blancos basándose en las pruebas empíricas de su realidad) debe reunir tres requisitos. Primero, debe ser una rareza. Segundo, debe producir un gran impacto. Tercero, pese a su condición de rareza, la naturaleza humana debe inventar explicaciones de su existencia a posteriori, para convertirlo en falsamente explicable y predecible.

FIIS – METODOLOGIA DE SISTEMAS II Página 6

FIIS – METODOLOGIA DE SISTEMAS II Página 7

OBJETIVOS

3. OBJETIVOS

3.1. OBJETIVOS GENERALES

Resumir los capítulos 5 y 6 del libro del Cisne Negro de TALEB NASSIM NICHOLAS

3.2. OBJETIVOS ESPECIFICOS

Dar a conocer un pequeño resumen de los capítulos antecesoras Dar a conocer de que trata el capitulo 5 (Confirmación, la dichosa

confirmación) Dar a conocer de que trata el capitulo 6 (La falacia Narrativa) Hacer una interpretación desde la perspectiva sistemática Hacer una pequeña critica

FIIS – METODOLOGIA DE SISTEMAS II Página 8

FIIS – METODOLOGIA DE SISTEMAS II Página 9

MARCO

TEORICO

4. MARCO TEORICO4.1. RESUMEN

4.1.1. FUENTE DE RESUMENES DEL 1 AL 4

En el primer capítulo “El aprendizaje de un escéptico empírico”, el autor aclara su acercamiento al análisis histórico. Él describe la historia como opaca, esencialmente una caja negra de causa y efecto. Poniéndonos como ejemplo los acontecimientos históricos, en la cual la sociedad a tratado de explicar de cómo sucedieron y cuáles fueron sus efectos, pero no la determinación que produjeron tales efectos. El autor hace referencia llamándolo “El trio de opacidad”.

En el segundo capítulo “El cisne negro de Yevgenia”, el autor cuenta la historia del autor Yevgenia Nikolayevna Krasnova y su libro Una historia de la repetición. Ella publicó su libro en la tela y fue descubierta por una compañía que publicaba pequeña; publicaron su trabajo sin editar y el libro se convirtió en un bestseller internacional. La firma que publicaba pequeña se convirtió en una corporación grande, y Yevgenia llegó a ser famoso. Este incidente es a Cisne negro. Taleb se parece utilizar la “repetición” como indirecta que él está prediciendo la historia de su propio libro el cisne negro--El rechazamiento de Yevgenia de la ficción y del nonfiction como categorías es misterioso evocador de la idea de Taleb, y su carácter se parece autobiográfico mientras que Taleb puede empujar la diversión en su propio temperamento intolerante.

En el tercer capítulo “El especulador y la prostituta”, el autor nos introduce los conceptos de Extremistan y Mediocristan. Él los utiliza como guías para definir cómo es fiable el ambiente que usted está estudiando. Mediocritstan los ambientes utlizan patrones, matemáticas y ecuaciones probalisiticas, siendo muy poco las excepciones. En Extremistan los ambientes utilizan las excepciones donde la estadística, la probabilidad y la mayor parte de las herramientas de medición que utilizamos no funcionan bien.

El capítulo 4 “Los mil y un días o de cómo no ser imbécil” reúne los capítulos anteriores con la narrativa de un pavo, donde el autor lo utiliza para ilustrar el problema filosófico de inducción y cómo más allá de funcionamiento no hay indicador del funcionamiento futuro. Él entonces toma a lector en la historia de Escepticismo.

FIIS – METODOLOGIA DE SISTEMAS II Página 10

4.1.2. RESUMEN CAPITULO 5 - “CONFIRMACION, LA DICHOSA CONFIRMACION”

En este capitulo podemos rescatar las siguientes ideas:

No somos inmunes a los errores lógicos triviales Ejemplo: 1001 días de un pavo , si se observa solo 1000 días

hay un no suceso, en el día 1001 es el día de acción de gracias, que cambio tan drástico dentro del entendimiento.

La mente simplifica el problema conciente o inconscientemente.

“Nunca quise decir que los conservadores en general sean estúpidos. Me refería a que la gente conservadora normalmente es estúpida” – John Stuart Mili.

Especificidad del dominio Son nuestras razones, nuestras formas de pensar,

nuestras intuiciones dependen del contexto en que se presenta el asunto.

Empirismo genuino Tendencia natural a fijarnos en los casos que

confirman nuestra historia y nuestra vision en el mundo.

Ver cisnes blancos no confirma la existencia de cisnes negros, Se que afirmación es falsa pero no necesariamente que afirmación es correcta.

Nos acercamos a la verdad mediante ejemplos negativos, no mediante la verificacion.

No ser escépticos, solo semiescepticos – Doktor Professor Karl Raimund Popper

Mil días no pueden demostrar que uno este en lo cierto. Pero basta un dia para demostrar que se esta equivocado.

No es fácil afirmar con plena certeza que algo es un error.

4.1.3. RESUMEN CAPITULO 6 – “LA FALACIA NARRATIVA”

Como nos engañamos con historias y anécdotas.

Nos engañamos con historias que sacian nuestra sed platónica de modelos distintos. Nos gustan las historias, nos gusta resumir y simplificar, es decir, reducir la dimensión de las cosas, lo que es particularmente grave cuando se trata de un suceso raro.

FIIS – METODOLOGIA DE SISTEMAS II Página 11

Queremos que nos cuenten historias (no una serie de estadísticas empíricas), aunque deberíamos analizar con mayor detalle si tal historia ofrece distorsiones importantes de la realidad. La información estadística abstracta no nos influye tanto como la anécdota(Ejemplo: central park, muerte de un familiar en moto).

Caemos en la trampa de la causalidad, tenemos que inventar una causa. la falacia narrativa se dirige a nuestra escasa capacidad de fijarnos en secuencias de hechos sin tejer un a explicación o ,los que es igual, sin forzar a un vínculo lógico las explicaciones atan los hechos. Hacen que se puedan recordar mejor; ayudan a que tengan más sentido. Las historias permiten recordar y darles sentido al pasado (tendemos a recordar con mayor facilidad aquellos hechos de nuestro pasado que encajen en una narración).

Seleccionamos únicamente los hechos que encajan en nuestras teorías. Y cuando los hechos ya han tenido lugar, creamos historias post-hoc para que el hecho parezca tener una causa.

Cuanto más se resume (con las historias), mas orden se pone y menor es lo aleatorio. De aquí que la misma condición que nos hace simplificar nos empuja a pensar que el mundo es menos aleatorio de lo que realmente es. Y el cisne negro es lo que excluimos de la simplificación. La narración puede conducir a un error en la valoración de las probabilidades. La narratividad hace que veamos los sucesos pasados como más predecibles.

4.2. INTERPRETACIÓN DESDE LA PERSPECTIVA SISTEMÁTICA

El “Cisne negro” es un libro de Nassim Taleb que nos muestra uno de los errores más comunes en los seres humanos cuando nos enfrentamos a la complejidad y la incertidumbre. Si hemos vivido en el hemisferio norte (lugares donde viven cisnes blancos) toda nuestra vida, pensaremos que todos los cisnes son blancos. La existencia de un cisne negro nos parece imposible debido a nuestra reducida experiencia; pero el hecho es que hoy en la actualidad en un mundo interconectado, complejo y extremo, en donde la información circula a toda velocidad y en todas las direcciones, son cada vez más posible que nos crucemos con un cisne negro en el camino, cambiando la perspectiva de nuestra vida.

FIIS – METODOLOGIA DE SISTEMAS II Página 12

De ahí la importancia de preguntarnos: ¿Cómo podemos identificar un Cisne Negro, si éstos son impredecibles? ¿Qué es lo que podemos hacer para adaptarnos a su existencia? El autor Nassim interpreta a un Cisne Negro como un suceso que tienes 3 propiedades siguientes:

Es una rareza que habita fuera del reino de las expectativas normales, porque no hay ningún elemento en el pasado que apunte de forma convincente a su posibilidad.

Produce un impacto extremo con consecuencias importantes para nuestras vidas.

Está caracterizado por la predictibilidad retrospectiva. Es decir, no podemos predecirlo antes de que suceda, pero una vez que ocurre, pensamos que “lo habíamos visto venir”.

Hay muchas cosas que no somos capaces de predecir, pero que pueden cambiar nuestra vida por completo. Por ejemplo, la crisis financiera global, o los atentados de las Torres Gemelas, como también el impacto del internet en la sociedad o la globalización en el mundo. Pensemos en nuestra propia vida, en la elección de carrera, por ejemplo; en cómo nos ha ido económicamente, dónde vivimos actualmente o cuándo conocimos a nuestra pareja. ¿Cuántos sucesos realmente importantes en nuestra propia existencia ocurrieron de una forma prevista y programada, conforme a un plan establecido?, todos estos eventos en la vida del ser humano son cisnes negros, cumpliendo las 3 propiedades: rareza, impacto extremo y predictibilidad retrospectiva.

4.2.1. RELACIÓN DE LA COMPLEJIDAD CON LOS CISNES NEGROS Los eventos Cisne Negro se pueden presentar en los Sistemas Complejos Adaptativos, cuyos sistemas son diversos y conformados por múltiples elementos interconectados y tienen la capacidad de cambiar y aprender de la experiencia. Por ejemplo la economía mundial, consiste de un número excesivamente grande y creciente de Agentes (proveedores, clientes, inversionistas, prestamistas, prestatarios e intermediarios) comprometidos en una rica interacción, y que posee las siguientes características:

El sistema no tiene ningún control central, pero está sujeto a ciertas reglas impuestas desde el exterior o a normas de comportamiento.

Su comportamiento global emerge de la interacción de los comportamientos de los agentes locales y es impredecible.

El sistema está tan frecuentemente perturbado que no tiene tiempo para volver a su equilibrio y por lo tanto está la

FIIS – METODOLOGIA DE SISTEMAS II Página 13

mayoría del tiempo "lejos del equilibrio" o "al borde del caos".

Debido a la no linealidad del sistema, una pequeña perturbación puede ser amplificada para causar una gran interrupción, conocido como "cisne negro" o "efecto mariposa".

El sistema es capaz de auto-organización autónoma y por lo tanto es adaptable y resistente.

El sistema evoluciona con su entorno y los cambios resultantes son irreversibles.

Al igual que todos los sistemas sociales, sus agentes constituyentes declaran y no declaran objetivos, y la propensión a perseguir esos objetivos en cooperación o competencia con otros agentes.

El problema clave es la impredecibilidad de su comportamiento global. Por ejemplo, sabemos que el sistema presenta aumentos y disminuciones cíclicos de la producción económica, pero no podemos predecir el momento de la próxima desaceleración, ni su gravedad. La lección clave aprendida de diez años de experiencia en elaborar soluciones a problemas complejos de gran escala es que por muy bien que se diseñe un sistema complejo, no lo hará funcionar de inmediato como se esperaba. Esta es una regla, en lugar de una excepción, porque el comportamiento global de tales sistemas surge de la interacción de los agentes constituyentes y es, en principio, no predecible.Sin embargo, siempre es posible ajustar el comportamiento del sistema diseñado mediante el ajuste de parámetros críticos del sistema. El problema que queremos evitar es la propagación de las oscilaciones a través del sistema, lo que provoca inestabilidad y puede dar lugar a la desintegración del sistema. El resultado de una exitosa puesta a punto del sistema es que su comportamiento, aunque impredecible en detalle, nunca sale de la región determinada del espacio de comportamiento, y se recupera rápidamente después de cada perturbación.Los principales parámetros que interviene en el comportamiento complejo del cisne negro son:

El grado de autonomía dado a los Agentes El peso dado al Agente Empresa. La velocidad de las transacciones entre Agentes El grado de interconectividad entre los Agentes

El grado de autonomía de los agentes es tal vez el factor más importante que determina el comportamiento de un sistema

FIIS – METODOLOGIA DE SISTEMAS II Página 14

complejo. Si los agentes se ven muy limitados, la complejidad se pierde y con ella la adaptabilidad y capacidad de recuperación del sistema. Por ejemplo el software se comporta exactamente como un programa convencional de computadora, es determinista y si se encuentra una situación que no fue prevista por el programador, el programa se detiene. Si, por otra parte, se les da demasiada libertad a los Agentes, se aumenta la complejidad y el sistema se comporta de forma errática. Según el mejor conocimiento de los autores no hay una teoría capaz de prescribir el grado correcto de la libertad. Aún más importante, parece que las normas que rigen los agentes deben reforzarse o relajarse en función de la dinámica de la situación. En presencia de los fenómenos extremos parece ser una ventaja darle a un agente mayor libertad para encontrar rápidamente una manera eficaz de adaptación, mientras que cuando el ambiente es menos turbulento, puede ser más adecuado limitar el riesgo de la innovación no controlada.

La complejidad está, por definición, presente en situaciones donde los componentes autónomos interactúan de manera impredecible. Cada vez que un nuevo evento altera el estado actual del sistema, se necesita un cierto período de tiempo para el sistema para adaptarse a la nueva situación y para las negociaciones entre Agentes encaminadas a lograr un acuerdo en la adaptación. El exceso de velocidad de las transacciones entre los agentes puede conducir a la inestabilidad ya que puede causar el inicio de una nueva ola de negociaciones antes de que la anterior se haya establecido. Por otro lado, una velocidad demasiado lenta puede impedir al sistema a adaptarse a una perturbación en tiempo antes de que se produzca la próxima perturbación. Un ajuste hábil de la velocidad de operación es necesario.En un gran sistema en la que todos los nodos están conectados el uno al otro las interacciones entre los nodos son completamente impredecibles y a menudo conducen a eventos extremos (Cisnes Negro). La reducción severa de las interconexiones limita la adaptabilidad del sistema. La mejor solución práctica es dividir el sistema en regiones con nodos vinculados con gran densidad entre sí dentro de cada región, e interconectar regiones menos densamente. Una partición adecuada limita la frecuencia de ocurrencia e intensidad de los eventos extremos.Conforme se acumula experiencia en la optimización de sistemas complejos, se hizo posible elaborar normas para gestionar la complejidad, que se articulan a continuación. La aplicación coherente de estas normas durante primeras etapas de diseño reduce la necesidad de ajuste.

FIIS – METODOLOGIA DE SISTEMAS II Página 15

4.2.2. CARACTERÍSTICAS DE LA SOCIEDAD CON RELACIÓN A LA TEORÍA DE LOS CISNES NEGROS

Las características principales que el autor nos mencionan son aquellas que afectan al sistema haciéndolo más complejo:

LA ILUSIÓN DE LA PREDICCIÓN: En esta característica el autor nos muestra los errores que cometemos en nuestros procesos de razonamiento cuando nos enfrentamos a la complejidad, la incertidumbre y la aleatoriedad del mundo en el que vivimos. Los seres humanos nos somos muy buenos a la hora de predecir los fenómenos realmente importantes. Nuestra capacidad se reduce a las predicciones sencillas en entornos sencillos.

Nos pasamos gran parte de nuestra vida preocupados por el futuro, tratando de anticipar lo que sucederá, con el fin de proteger a nuestras familias y maximizar nuestras oportunidades. Los expertos analizan los sucesos y variables que intervienen; ofreciendo sus predicciones estadísticas. El Gobierno, los sociólogos, los departamentos de estadística, y la industria informática acumulan montañas de datos que luego utilizan para anticipar y predecir los riesgos a los que nos enfrentamos. Pero la realidad es que fallamos una y otra vez.

FIIS – METODOLOGIA DE SISTEMAS II Página 16

Características de la sociedad con relación a la teoría de los Cisnes Negros

SOCIEDAD

1. La ilusion de

la prediccio

n 2. La evidenci

a silencia

3. El problema

de la induccion simplificad

a4. La distoricion retrospecti

va

5. La falacia

platonica

6. La Mediocristá

n y Extremistá

n

Acontecimientos que después resultan trascendentales nos dan por sorpresa, como por ejemplo la crisis de los mercados en 1987, con los trágicos ataques terroristas del 11 de septiembre de 2001, con la invasión de las redes sociales en la sociedad, entre otros muchos acontecimientos inesperados.

LA EVIDENCIA SILENCIOSA: Es el mecanismo por el que mantenemos la ilusión de que podemos entender el mundo, y de que somos capaces de anticipar lo que va a ocurrir. Tras el suceso, nos centramos sólo en una parte de la información, justamente la que podría explicarlo, y dejamos de lado el resto de las pruebas y evidencias.

Los seres humanos, a la hora de tomar decisiones, nos basamos en una cierta información, y dejamos de lado todo el resto: lo que no vemos, lo que no sabemos, lo que no observamos, los textos perdidos, los desenlaces diferentes, etc. Tenemos la tendencia a fijarnos en los que sobreviven, en los que triunfan, y no en los que no llegan a nada. Entre otras cosas, porque de ellos no sabemos casi nada.

Para el autor, el ejemplo más claro es la I Guerra Mundial. Después de la guerra, estudiamos que el conflicto estalló por la tensión existente entre Reino Unido por un lado, y Austria y Alemania por otro. Es decir, que la tensión llevó a la guerra y que, por lo tanto, si hay tensión, podemos predecir el estallido de una guerra. Pero en esta concepción no tenemos en cuenta los episodios de tensión que no desembocaron en una guerra, y que han sido la mayoría. El autor nos dice que “estos episodios llevaron a los reyes y políticos a Baden-Baden a escuchar ópera y beber champán”.

EL PROBLEMA DE LA INDUCCIÓN SIMPLIFICADA: En esta característica Taleb presenta el problema de la inducción obtener conclusiones generales a partir de datos particulares utilizando el caso del “pavo de Russell”, llamado así en honor a Bertrand Russell, que fue quien expuso por primera vez el ejemplo.

El caso es el siguiente: El pavo comprobó que todas las mañanas le daban de comer y, tras varios meses de observaciones, concluyó que existía una ley universal: “Estos humanos tan amables me deben de querer mucho, puesto que todos los días me dan de comer generosamente”. Cuando llegó el día de Acción de Gracias, resulta que los “amables humanos” afilaron el

FIIS – METODOLOGIA DE SISTEMAS II Página 17

cuchillo y demostraron que la ley formulada por el pavo valía bien poco. Para el pavo, eso era un Cisne Negro; para el carnicero no, porque sabía lo que iba a pasar. Así que el cisne negro depende de nuestro conocimiento. Y debemos tener en cuenta que hay muchas cosas que no conocemos.

Nuestra manera de pensar no es muy diferente de la del “pavo de Russell”. Gran parte de la matemática estadística, el cálculo de riesgos y las distribuciones de probabilidad están atravesadas por esta manera de pensar: a mayor frecuencia de un hecho, menor es la sensibilidad frente a lo inesperado.

LA DISTORSIÓN RETROSPECTIVA: Nos resalta los diferentes errores del razonamiento humano cuando se encuentra frente a los cisnes negros, cuya distorsión o error se produce porque sobrestimamos el valor de las explicaciones racionales y de los datos, a la vez que subestimamos la importancia de la aleatoriedad, de lo que no puede ser explicado con los datos.

Existe una base genética y filosófica que explica el error de los seres humanos cuando nos enfrentamos a la incertidumbre y la aleatoriedad. Según el autor, la tecnología no favoreció un tipo de pensamiento complejo y probabilístico; muy al contrario: somos muy rápidos a la hora de adoptar decisiones instantáneas, sustentadas en una mínima cantidad de datos o en teorías superficiales y carentes de solidez.

Un ejemplo que el autor nos muestra es el siguiente: Tal vez porque quienes divisaban un león y echaban a correr presuponiendo que todos los animales salvajes siempre comen seres humanos, tenían más probabilidades de sobrevivir que quienes preferían poner a prueba tal hipótesis de manera experimental. Claro que hay leones de talante amistoso de la misma manera que existen los cisnes negros, pero es preferible ser prudente y cauteloso de antemano que sufrir más tarde las consecuencias. Es, de nuevo, una visión sobre el problema de la inducción que hemos tratado antes.

LA FALACIA PLATÓNICA: En esta característica el autor nos dice que los seres humanos somos hijos de la escuela platónica, que nos animó a preferir la teoría estructurada, ordinaria y comprensible, frente a la desordenada y compleja realidad. También somos víctimas de una “falacia narrativa”, que seleccionamos únicamente los hechos que encajan en nuestras

FIIS – METODOLOGIA DE SISTEMAS II Página 18

teorías y cuando los hechos ya han tenido lugar, creamos historias para que el hecho parezca tener una causa.

Siempre tendemos a recordar que nuestras previsiones fueron más ajustadas a lo que luego sucedió. Es un mecanismo psicológico por el que todo el tiempo tratamos de construir historias “consistentes”, retocando las previsiones reales que en su momento hicimos.

LA MEDIOCRISTÁN Y EXTREMISTÁN: Característica que nos muestra la perspectiva de la sociedad desde dos puntos: “Mediocristan y Extremistan”.Un ejemplo de la Mediocristan es: imaginemos que reunimos en uno de esos países a 1.000 personas elegidas al azar, y que las pesamos para extraer la media. Si traemos a la persona más gorda del mundo -pongamos que pesa 350 kilos- ¿cambiará mucho el peso medio de las 1.001 personas reunidas en ese país? La respuesta es no. En la Mediocristan nos muestra una sociedad basada en las matemáticas, la estadística y la teoría de la probabilidad. En esa sociedad existen las excepciones, pero apenas tienen consecuencias. Las variaciones individuales apenas alteran el promedio.

Un ejemplo de la Extremistan: Ahora cojamos a esas mismas 1.000 personas y contemos su dinero para hacer una media. Acto seguido, introduzcamos en el país a una persona con mucho dinero. ¿Cambiará mucho la media de riqueza de los allí reunidos? Sí. Cambiará de forma brutal. Es casi seguro que la persona más rica, tenga mucho más dinero él sólo que todo el resto de habitantes. Extremistán, es la sociedad en el que la estadística, la probabilidad y la mayor parte de las herramientas de medición que utilizamos no funcionan bien. Extremistán es el país de matemáticas menos ortodoxas.

FIIS – METODOLOGIA DE SISTEMAS II Página 19

FIIS – METODOLOGIA DE SISTEMAS II Página 20

CRITICA

5. CRITICAEl libro nos muestra un recorrido por todos y cada uno de los diferentes errores del razonamiento humano cuando se encuentra frente a los “cisnes negros” o sucesos improbables. El Cisne negro plantea nuestra ceguera con respecto a lo aleatorio, y del ¿Por qué seguimos centrándonos en las suceso irrelevantes, y no en los posibles sucesos grandes e importantes, pese a las evidentes pruebas de lo muchísimo que influye?La lógica del Cisne Negro nos enseña a tomar a cuenta lo que no sabemos, siendo causado por lo impredecible que ocurra. El autor Taleb abarca mucho: además de la economía y la estadística, aborda la psicología del conocimiento, estudio de los procesos de pensamientos, buscando por qué tendemos a caer en estas falacias y comenta mucho acerca de los errores que cometen los historiadores y sociólogos, al forzar siempre una relación causal para explicar un determinado evento histórico o social. El libro muestra una forma muy didáctica para leer el contenido. A pesar de la complejidad de algunas ideas, la lectura nunca se vuelve demasiado difícil, y está llena de anécdotas y comentarios personales, donde el lector tendrá una mejor visión sobre el concepto que defina.

FIIS – METODOLOGIA DE SISTEMAS II Página 21

FIIS – METODOLOGIA DE SISTEMAS II Página 22

CONCLUSIONES

6. CONCLUSIONES

Nuestro cerebro está hecho para ver más orden del que realmente hay. Y aunque esto pudo ser de mucha ayuda en las circunstancias dentro de las que vivieron nuestros más remotos antepasados, no nos sirve de mayor cosa a la hora de predecir, por ejemplo, una drástica caída de los precios accionarios.

Estamos programados para crear historias simples sobre fenómenos muy complejos y variados; de modo que siempre terminamos falseando la realidad. El resultado de esto es que perdemos control de la realidad y nos volvemos incapaces para predecir cualquier anomalía estadística.

En este texto, el autor presenta su teoría de los cisnes negros para ilustrar el modo en que la mayoría de nosotros cae en la trampa de pasar por alto las anomalías con el fin de uniformar cualquier modelo mental o teoría. Entre los temas tratados están: la falacia narrativa, pronósticos falsos y cómo entablar amistad con los cisnes negros.

FIIS – METODOLOGIA DE SISTEMAS II Página 23

FIIS – METODOLOGIA DE SISTEMAS II Página 24

BIBLIOGRAFIA

7. BIBLIOGRAFIA

EL CISNE NEGRO EL IMPACTO DE LO ALTAMENTE IMPROBABLE - Nassim

Nicholas Taleb.

N.N. Taleb, The Black Swan, Second Edition, Penguin, 2010, Prologue p xxi.

N.N. Taleb, The Black Swan, Second Edition, Penguin, 2010, Prologue p xxi.

Black Swan Unique to Western Australia.

«‘The Black Swan: The Impact of the Highly Improbable'», The New York

Times, 22 de abril de 2007.

The Fourth Quadrant and The Limits of Statistics.

Andrew Gelman, Columbia University, "Statistical Modeling, Causal

Inference, and Social Science".

Nassim Nicholas Taleb, New York Times, "The Black Swan: The Impact of

the Highly Improbable" (First Chapter).

ANALYSIS: Mispriced risk tests market faith in a prized formula by Anuj

Gangahar (New York), Financial Times. 16 April 2008.

Abardanell, Jeffery S. y Victor L. Bernard, «Test of Analysts'

Overreaction/Underreaction of Earnings

Information as an Explanation for Anomalous Stock Price Behavior»,

Journal of Finance, n" 47, 1992, pàgs.1.181-1.207.

Aczel, Amir D,, Chance: A Guide to Gambling, Love, the Stock Market, and

Just About Everything Else, Nueva York, Thunder's Mouth Press, 2004.

Adamic, Lada, «The Small World Web», Lecture Notes in Computational

Science, n° 1696,1999, pags. 443-452.

Adamic, Lada y Bernardo A. Huberman, «The Nature of Markets in the

World Wide Web», Quarterly Journal of Electronic Commerce, n° 1,1999,

pags. 5-12.

Albert, R. y A.-L. Barabâsi, «Topology of Evolving Networks: Local Events

and Universality», Physicaln Review Letters, n° 85, 2000, pags. 5.234-5.237.

Albert, R., H. Jeong y A.-L. Barabasi, «Error and Attack Tolerance of

Complex Networks», Nature, 406,2000, pags. 378-382.

FIIS – METODOLOGIA DE SISTEMAS II Página 25