dilema del prisionero por paula casal. keele university uk

Upload: mauricio-ulloa-fernandez

Post on 01-Mar-2016

10 views

Category:

Documents


0 download

DESCRIPTION

universidad

TRANSCRIPT

  • 1

    Dilema del prisionero, por Paula Casal, Keele University, UK

    El "Dilema del Prisionero" es una historia que suele atribuirse a A. W.

    Tucker (1), que da nombre al ms conocido de los problemas que estudia la

    Teora de Juegos. Esta teora es una rama floreciente de la Teora de la

    Eleccin Racional que ha resultado ser de gran utilidad no slo en

    Economa y en Biologa Evolutiva, sino tambin en Filosofa y Teora

    Poltica y Social.

    La mencionada historia es la siguiente. Dos prisioneros incomunicados en

    celdas individuales han cometido dos crmenes, uno leve y otro grave.

    Existen pruebas suficientes para que les condenen por el primero, pero no

    por el segundo, a menos que alguno confiese haberlo cometido. El fiscal

    visita a uno de los prisioneros y le dice:

    "Tengo una buena noticia y una mala noticia para usted. La buena noticia

    es que si ninguno de ustedes confiesa su grave crimen, slo podremos

    condenarles a dos aos por su primer crimen y si usted confiesa, yo

    convencer al jurado de que es usted un hombre arrepentido y de que el

    perverso es su compaero, de modo que usted quedara libre en un ao y

    l permanecera en prisin 10 aos. La mala noticia es que voy a hacerle la

    misma oferta a su compaero". "Y qu ocurrira si ambos confessemos?",

    pregunta el prisionero. "Entonces no tendr razn para beneficiar a

    ninguno de ustedes, dejar que la justicia tome su curso y, como el crimen

    es grave, estimo que les condenarn al menos a 8 aos". As, los

    prisioneros se encuentran ante el siguiente dilema:

  • 2

    Cada uno piensa que slo pueden pasar dos cosas: que el otro confiese o

    que no confiese. "Si confiesa, es mejor que yo tambin lo haga, porque de

    lo contrario me quedar 10 aos en la crcel. Si no confiesa y yo s,

    entonces podr beneficiarme de la oferta del fiscal y quedar libre en un

    ao". La conclusin es que haga lo que haga el otro, lo mejor es confesar.

    Ambos razonan de igual modo, con lo cual ambos confiesan y se quedan

    en la crcel mucho ms tiempo del que les habra tocado, si hubiesen

    cooperado entre s y ninguno de los dos hubiese confesado.

    Este es un juego de dos personas, pero podra darse entre n personas, por

    ejemplo, en el caso de una huelga, que puede entenderse como un bien

    pblico (* tragedia de los comunes). Cada trabajador puede pensar: "o bien

    hay bastantes trabajadores que vayan a la huelga y consiguen el objetivo

    de esta accin colectiva (por ejemplo, un ascenso salarial, una reduccin

    de la jornada laboral o una mejora en las condiciones de trabajo), o bien

    esto no ocurre. En el primer caso, de todas formas voy a beneficiarme del

    xito de la huelga, y si me quedo, puedo, adems, seguir cobrando y quiz

    mejore mis relaciones con mis superiores. Y si los dems no van a la

    huelga, lo mejor es que yo tampoco vaya, porque estar pagando en vano

    los costes de mi contribucin a esta accin colectiva que va a fracasar".

  • 3

    El problema es que lo individualmente racional conduce al fracaso

    colectivo. Lo mismo puede ocurrir en el caso de muchas otras acciones

    colectivas (manifestaciones, revoluciones, guerras, votaciones, etc.) y en

    muchos otros contextos, por lo que este juego ha resultado til en una

    gama muy amplia y variada de investigaciones en Ciencias Sociales.

    Este y otro juegos pueden caracterizarse por el orden de las alternativas

    siguientes.

    C = la Cooperacin universal: todos cooperan E = el Egosmo universal: nadie coopera G = el Gorrn: menos yo, todos cooperan P = el Primo: slo coopero yo

    Dilema del Prisionero (DP): GCEP Juego de la Seguridad (JS): CGEP Imperativo Categrico (IC): CPEG Juego del Gallina (JG): GCPG

    En el DP, el orden es G-C-E-P. Ello es especialmente claro en la historia

    original, en la que los dos prisioneros estn incomunicados. No obstante,

    si les hubiesen permitido hablar, la historia podra ser la misma: "Si me

    dice que no confesar, lo mejor es que yo confiese; y si me dice que

    confesar, lo mejor es que yo tambin lo haga". Adems, puede que el otro

    mienta o cambie de idea.

    Ahora bien, la cuestin sera distinta si entre los prisioneros hubiese

    amistad y mutua confianza o, en el caso general, si lo que cada miembro

    del grupo desea en primer lugar es que se obtenga el bien pblico y no

    obtener la mayor ganancia para s. En ese caso, la situacin ya no sera la

    del DP, sino la de un Juego de la Seguridad (CGEP). Muchas veces, como

    ha sealado Amartya Sen, lo que ocurre no es que uno quiera explotar a

    los dems, sino no perder doblemente haciendo el primo; y por ello, uno

    est dispuesto a cooperar, siempre que los dems tambin lo hagan. Por

    ejemplo, es posible que a ningn productor le guste utilizar los crueles e

    insanos mtodos que se emplean hoy en las granjas-factora; pero que,

    sometidos a la presin del mercado, se vean obligados a reducir sus costes

  • 4

    confinando a los animales en espacios cada vez menores y tratndoles de

    formas cada vez ms repugnantes. En un mercado cerrado o con barreras

    proteccionistas, el gobierno podra prohibir ciertas prcticas o emplear

    impuestos o subvenciones selectivas que pongan fin a esa dinmica; pero

    si tal pas tiene que competir con otros, el gobierno tender a apoyar a los

    ms despiadados, que son los que prometen un mayor xito competitivo en

    el mercado internacional. As, los mtodos pueden llegar a ser tan

    escalofriantes que horrorizaran a la mayora de los consumidores que

    estn informados, pero tambin estos tendrn que comprar lo que hay, si

    no pueden prescindir de todo producto animal.

    En el JS, los individuos estn dispuestos a cooperar (por ejemplo, a pagar

    cierto impuesto) con la condicin de que los dems tambin lo hagan. Por

    ello, cuando falta informacin y los participantes no saben qu decidirn

    los dems, pueden terminar comportndose como en un DP. Al no tener

    garantas, prefieren jugar sobre seguro, de ah el nombre del juego (2). Si

    los individuos estuviesen dispuestos a cooperar, independientemente de lo

    que hiciesen los dems, ya no se tratara de un JS, sino de lo que Elster

    llama un Juego del Imperativo Categrico (CPEG).

    Al margen de si sta es una caracterizacin adecuada de la tica kantiana,

    cosa que habra que discutir, desde el punto de vista social, Elster piensa

    que sta ni es frecuente ni conveniente. Por un lado, arguye que la historia

    de la clase obrera muestra que la conducta cooperativa suele ser

    condicional; y por otro, que los actos heroicos individuales, no

    secundados, pueden ser contraproducentes, al dar pie a represalias

    colectivas. "Esto prueba", concluye, "que la tica individualista kantiana

    no es adecuada para la accin colectiva" (3). Aqu caben al menos cuatro

    breves observaciones. Por un lado, la cooperacin incondicional slo es

    contraproducente en ciertas circunstancias; y lo que es ms infrecuente no

    es tanto la cooperacin incondicional (de las madres o los ecologistas, por

  • 5

    poner dos ejemplos cotidianos), como el preferir E a G (por ejemplo,

    preferir que todos usen CFCs (clorofluorocarburos) a ser el nico que los

    usa). Por otro lado, la tica consecuencialista tampoco es inmune a los

    problemas de accin colectiva y el mismo Elster mantiene otras veces

    posiciones anti-consecuencialistas basadas en la imposibilidad de predecir

    en Ciencias Sociales (4).

    Por ltimo, el Juego del Gallina (GCPG) debe su nombre (the chicken game)

    a una especie de juego ritual que a veces se ve en las pelculas sobre

    bandas juveniles norteamericanas. Los aspirantes a lderes compiten en

    sus coches en una peligrosa carrera hacia un precipicio. Ambos quieren

    que sea el otro el que decelere, porque ninguno quiere quedar como una

    gallina; de modo que ambos continan acelerando, y el riesgo aumenta.

    Pero segn aumenta el riesgo, quedar como una gallina empieza a no

    parecer tan malo como correr un riesgo altsimo y creciente de estrellarse.

    Algo parecido puede ocurrir entre dos compaas de autobuses que

    recorren el mismo trayecto y se adelantan mutuamente tratando de llegar

    antes a cada parada para llevarse a los pasajeros que estn esperando y

    ofrecerles mayor rapidez, aumentando as el riesgo de accidentes. Otro

    ejemplo es el de la inversin en innovaciones tecnolgicas que ahorran

    mano de obra. Si nadie invierte en ello, los salarios suben, por lo que

    resulta racional adelantarse a esta subida introduciendo tecnologas que

    ahorren mano de obra; pero si los dems capitalistas ya lo estn haciendo,

    sobrarn desempleados dispuestos a aceptar bajos salarios, por lo que el

    capitalista individual ya no tendr incentivos para invertir en estas

    tecnologas (5). No siempre es fcil distinguir un JS y un DP, pues en

    ambos casos la conducta no cooperativa individualmente racional es

    colectivamente contraproducente, como ocurre cuando la competencia

    entre fabricantes les lleva a gastar cada vez ms en publicidad, a bajar

    cada vez ms los precios o a arriesgar la propia ruina por arrastrar a ella a

    los dems. Cuando todos gritan para que se les oiga ms que a otros, slo

  • 6

    se consigue una afona colectiva. Si se trata de un DP, conviene no

    cooperar hagan lo que hagan los dems, mientras que en un JG, la

    decisin depende de la estrategia que elijan los dems y se tender a hacer

    lo contrario de lo que hagan stos.

    Tras los ejemplos, puede hacerse ahora una caracterizacin algo ms

    tcnica que permita situar mejor al DP.

    (a) El DP se emplea en Ciencias Sociales para analizar

    conductas intencionales (orientadas a una meta) y se adopta el supuesto

    metodolgico de que la conducta es racional y optimizadora (entre los

    medios disponibles se eligen los ms adecuados para obtener tales

    metas)(6). Cuando se supone adems, que cada individuo considera que los

    dems son tan racionales como l, son capaces de razonamientos

    parecidos y estarn calculando si emprender tal accin o tal otra, se habla

    de racionalidad estratgica, que es de la que propiamente se ocupa la

    Teora de Juegos o de Decisiones Interdependientes. Cuando cada uno slo

    se considera a s mismo como variable y a los dems como constantes, se

    habla de racionalidad paramtrica.

    (b) En un DP cada uno calcula qu es lo que pueden hacer los dems, pero

    termina llegando a la misma conclusin tanto si piensa que los dems

    harn una cosa, como si cree que harn otra. Es decir, es un juego

    con estrategia dominante (hay una opcin que es la mejor, hagan lo que

    hagan los dems). Aqu la estrategia dominante es el egosmo universal,

    mientras que en el IC domina la cooperacin. Otros juegos no tienen

    estrategia dominante, como el JS, en el que lo mejor es hacer lo que haga

    el resto.

    (c) El DP tiene un solo punto de equilibrio, es decir, de un conjunto de

    estrategias slo hay una que sea ptima frente a las de los otros. Como

    slo tiene uno, este es la solucin (conjunto de estrategias a las que

  • 7

    convergen tcitamente los actores racionales con informacin perfecta). El

    JS, en cambio, tiene dos puntos de equilibrio. En este caso, la solucin

    ser la colectivamente ptima, el punto que todos prefieren a todos los

    dems, que en el JS es la cooperacin.

    (d) El DP tiene una solucin subptima (E). El resultado es el desastre

    colectivo. La cooperacin universal no es individualmente

    estable ni individualmente accesible: todos tendern a alejarse de ella y

    nadie querr dar el primer paso para acercarse a ella. En el JS, en cambio,

    s es individualmente estable aunque no individualmente accesible;

    mientras que en el JG, que no tiene solucin, el ptimo es individualmente

    accesible, pero no individualmente estable.

    (e) El DP es un juego de suma variable, porque no slo la distribucin de

    las ganancias, sino tambin el total a distribuir, depende de las estrategias

    elegidas. En los juegos de suma cero, que son los nicos que siempre

    tienen solucin, uno gana lo mismo que pierde el otro. Son juegos de puro

    conflicto, mientras que los de suma variable pueden ser de pura

    cooperacin o mixtos de cooperacin y conflicto. Al DP y al JG los estudia

    la teora de los juegos no cooperativos, que es la que ms se utiliza en

    Ciencias Sociales, porque la teora de los juegos cooperativos -til en otros

    contextos, como el del anlisis normativo- ya cuenta con la cooperacin y

    no investiga cmo se origina y en qu condiciones puede surgir. No

    obstante, los juegos cooperativos pueden cumplir funciones explicativas,

    cuando la cooperacin es, a su vez, explicada a partir de la no-

    cooperacin.

    Estas ltimas distinciones no se incluyen en el siguiente esquema (7), al

    que podran aadirse bastantes distinciones ms. Por ejemplo, puede

    tratarse de un juego de 2-personas y de una sola vez o de n-personas que

    interactun reiteradamente. El tamao del grupo y el nmero de jugadas

    son factores a tener en cuenta cuando se aborda la cuestin de cmo

  • 8

    evitar que un DP lleve al desastre. Por ejemplo, cuando un grupo crece,

    pueden aumentar los problemas de coordinacin que dificulten la accin

    colectiva, pero tambin puede que el grupo, al tener ms miembros, cuente

    con una masa crtica de individuos suficiente para que se consiga el

    objetivo (8).

    Pues bien, cmo puede evitarse que un DP lleve al desastre? La respuesta

    ms frecuente es esta: hay que modificar las circunstancias, aadiendo un

    tercero (el Estado o la Ley) que imponga sanciones a los gorrones, cobre

    multas por destruir bienes pblicos y recaude impuestos para

    construirlos. Esta es la forma en que suele entenderse a Hobbes. No

    obstante, en una seccin del Leviatn (cap. 15) conocida como su

    "respuesta al insensato" (Reply to the Foole), Hobbes mismo sugiere otra

    opcin que fue precisamente la que abraz un autor de inspiracin

    anarquista, Michael Taylor y que Robert Axelrod populariz y desarroll

    empleando un computador.

    La idea bsica es muy sencilla: cuando un grupo de personas interactan

    en repetidas ocasiones, por ejemplo, cooperando para recoger la cosecha

    en una aldea, un gorrn puede engaar a algunos durante cierto tiempo,

    pero no engaar a todos todo el tiempo. Si el insensato se niega a cooperar

    con los que le han ayudado, la prxima vez lo dejarn solo y, al final, le ir

    peor que si hubiese cooperado. Axelrod obtuvo la versin informtica de

    esta idea calculando el balance de costes y beneficios que obtenan,

    siguiendo ciertas pautas de conducta, unos individuos ficticios que

    interactuaban reiteradamente. A los cooperadores incondicionales, que

    cooperaban indiscriminadamente con cualquiera, no les iba demasiado

    bien, porque -aunque saliesen ganando cuando interactuaban con otros

    cooperadores- los gorrones les explotaban ilimitadamente. A los gorrones

    no les iba del todo mal, porque no tenan costes y a veces conseguan

    aprovecharse de alguien. Pero a los que mejor les iba era a los

  • 9

    cooperadores condicionales que seguan la estrategia llamada C-toma y

    daca (C-tit for tat) consistente en cooperar la primera vez y luego hacer lo

    mismo que el otro ha hecho la ltima vez. De esta forma, si el otro no

    coopera, no se le permitir que se siga saliendo con la suya, sino que la

    prxima vez se le castigar no cooperando; y si el otro coopera (condicional

    o incondicionalmente) se generar una dinmica mutuamente beneficiosa.

    Al investigar las condiciones en las que la cooperacin puede surgir

    espontneamente entre egostas, Axelrod lleg a la conclusin de que no

    era necesario que los individuos fuesen racionales y entendiesen lo que se

    ha explicado aqu, ni que hubiese un intercambio de mensajes o confianza

    mutua. De hecho, C-tit for tat, la estrategia ganadora del torneo

    informtico de DPs puede triunfar y difundirse mediante la seleccin

    natural en un proceso evolutivo, incluso en el mundo de las bacterias; y

    hoy los bilogos, que ven a la naturaleza ms como a una economista que

    como a una ingeniera, estn empleando estos mismos modelos.

    Por otro lado, si la autoridad central, el altruismo, el lenguaje,

    la racionalidad, y la confianza, resultaron no ser requisitos indispensables,

    hay otras condiciones que s son necesarias para que la cooperacin surja,

    se difunda y se mantenga. Para que tit for tat funcione, los individuos

    tienen que poder reconocer a los otros jugadores y recordar qu han hecho

    en ocasiones anteriores. Tambin tienen que interactuar repetidas veces y

    tener una probabilidad suficientemente alta de seguir hacindolo en el

    futuro, para que la cooperacin sea estable. Adems, para que sta surja,

    tiene que haber variacin en las estrategias, de modo que pueda darse, o

    bien un proceso de tipo darwiniano, o bien alguna forma de imitacin

    deliberada de las pautas exitosas. Por ltimo, tiene que haber un grupo de

    individuos que interacten entre s, que empiecen cooperando y que

    discriminen entre los que han respondido a su cooperacin y los que no.

    Un solo cooperador rodeado de gorrones no ira a ninguna parte. Por todo

  • 10

    ello, generalmente se piensa que aunque la cooperacin pueda imponerse

    en ausencia de una autoridad central en ciertos contextos, como el de una

    pequea comunidad donde se dan las condiciones adecuadas de

    interaccin reiterada e interdependencia, no es de esperar que se

    resuelvan as todos los DPs que surjan, por ejemplo, a nivel internacional

    (9).

    Las opciones descritas -penalizar la no-cooperacin mediante sanciones

    impuestas por una autoridad central o, en ausencia de sta, "pagando con

    la misma moneda"- se sealan en la parte superior del esquema siguiente,

    que se seguir muy rpidamente a continuacin.

    Si las circunstancias no se alteran, todava puede evitarse el desastre si los

    participantes modifican sus objetivos o actitudes ticas. Derek Parfit

    distingue cuatro soluciones posibles: (i) que los participantes se

    hagan kantianos y hagan slo lo que puedan querer racionalmente que

    hagan los dems (nadie puede querer que nadie coopere); (ii) que se

    conviertan en personas de fiar, de forma que si se llega a un acuerdo de

    cooperacin no lo rompan; (iii) que se vuelvan ms altruistas; y (iv) que

    adquieran reticencia a gorronear, de modo que prefieran hacer su parte si

    piensan que muchos otros tambin la har (10). Esta es la opcin que

    corresponde al "principio de la equidad" (principle of fairness) formulado H.

    L. A. Hart y adoptado por John Rawls: si uno acepta gustoso los beneficios

    logrados con el esfuerzo colectivo de otros, adquiere la obligacin de

    cooperar, incluso cuando no se ha firmado un acuerdo explcito al respecto

    (11).

    La ltima opcin es la de modificar la relacin entre los objetivos y el

    principio de eleccin racional. Simplificando mucho, esta idea podra

    explicarse como sigue. Supongamos que un individuo perdido en un

    desierto le dice a otro que conoce el lugar que, si le conduce hasta la

    poblacin ms cercana, ir al banco y le pagar este servicio. Si son

  • 11

    racionales, sabrn que, una vez que lleguen a la ciudad, el que estaba

    perdido ya no tendr ninguna razn para pagar al gua, por lo que no

    harn el trato y ambos perdern. Es decir, un mundo de maximizadores

    directos, que calculen los beneficios de cada accin concreta, considerada

    aisladamente y elijan la opcin que maximice su utilidad, podra ser una

    autntica pesadilla. Es ms, ser racional en este sentido es

    individualmente -y no slo colectivamente- contraproducente (en trminos

    parfitianos, directly individually self-defeating). Por ello, David Gauthier

    propone otra opcin, que es la del maximizador indirecto o restringido (a

    constrained maximizer), que es el que tiene la disposicin que maximiza su

    utilidad (ser el tipo de individuo que cumple lo acordado, que sigue una

    lnea, etc.) (12). Este ser racional, en este segundo sentido, saldra del

    desierto y pagara su deuda, pero se portara siempre bien?. Una vez que

    hemos dejado atrs las apelaciones al altruismo o a la preocupacin por

    los dems, los maximizadores restringidos podran convertirse, por

    ejemplo, en los co-operadores recprocos de Peter Danielson que "cooperan

    cuando y slo cuando la cooperacin es necesaria y suficiente para que los

    otros cooperen"(13) por lo que podran cooperar siempre con los

    cooperadores condicionales y explotar a fondo a los incondicionales.

    Todo esto plantea el tema de hasta dnde puede fundamentarse

    racionalmente la tica y en qu sentido puede ser sta, como sugiere

    Harsanyi, "una rama de la Teora de la Conducta Racional"(14).

    Considerando que la Economa surgi a su vez, ya con Smith, como rama

    de la tica (15), con la propuesta de este Nobel, el crculo se cerrara. No

    cabe duda de que estos modelos tienen sus limitaciones, pero no es

    necesario negarlas para reconocer su utilidad explicativa y normativa y su

    xito multidisciplinar que est devolviendo a lo que Mill llamaba las

    "ciencias morales", parte de la unidad perdida.

  • 12

    NOTAS

    1.-Vase R. D. Luce y H. Raiffa, Games and Decisions, Wiley, N. York,

    1957, p. 94.

    2.-Vase A. Sen, "Isolation, Assurance and the Social Rate of

    Discount", Quarterly Journal of Economics 80, 1976.

    3.- J. Elster, "Marxismo, Funcionalismo y Teora de Juegos", Zona

    Abierta 33, 1984, p. 48. Vase T. Domenech, De la tica a la poltica,

    Crtica, Barcelona, 1989, caps. 6 y 7 y el juego de la virtud kantiana en la

    p. 287.

    4.- Vase, por ejemplo, "Comment on van der Veen and Van

    Parijs", Theory and Society 15, 1986.

    5 .- Vase J. Elster, "Marxismo, funcionalismo...", p. 51 y El cambio

    tecnolgico, Gedisa, Barcelona, 1990.

    6.- Hay muchas definiciones de racionalidad y de racionalidad

    instrumental. Puede decirse que "actuar racionalmente" en un sentido

    amplio es "hacer aquello que uno tiene ms razn para hacer"; o puede

    hablarse, como hacen los economistas, de "elegir lo que maximice la

    utilidad", lo que mejor satisfaga las propias preferencias. R. Hardin, p. e.,

    se refiere a "la eficiencia con la que uno asegura sus propias metas"

    (Collective Action, John Hopkins UP, 1982, p. 9) y J. Elster a "la eleccin de

    la accin factible, compatible con las restricciones estructurales, que

    produzca los mejores resultados" (vase, p. e., "Marxismo,

    funcionalismo...", p. 39 y Rational Choice, Blackwell, Oxford, 1986, p. 4).

    En castellano, vase J. Mostern, Racionalidad y accin humana, Alianza,

    Madrid, 1978.

    7.- J. Elster, El cambio tecnolgico, p. 65.

    8.- Vanse dos obras clsicas, M. Olson, La lgica de la accin colectiva,

    Limusa, Mxico, 1993 y R. Hardin ibid.; y P. Oliver y G. Marwell, "The

    Paradox of Group Size in Collective Action" American Sociological

  • 13

    Review 53, 1988 y The Critical Mass in Collective Action, Cambridge UP,

    1993.

    9.- Vase M. Taylor, Anarchy and Cooperation, Wiley, Londres, 1976 y R.

    Axelrod, "The Emergence of Cooperation among Egoists", The American

    Political Science Review, 75, 1981, reimpreso en P. K. Moser

    (ed.) Rationality in Action, Cambridge UP, 1990, y en R. Campbell y L.

    Sowden (eds.), Paradoxes of Rationality and Cooperation, U. of British

    Columbia Press, Vancouver, 1985, que son dos excelentes volmenes

    sobre los temas aqu tratados, yLa evolucin de la cooperacin, Alianza,

    Madrid, 1982. Un buen resumen no tcnico puede encontrarse en "Tit for

    Tat", P. Singer (ed.) Ethics, Oxford UP, 1994.

    10.- D. Parfit, "Prudence, Morality and the Prisoner's Dilemma", en J.

    Elster (ed.) Rational Choice, p. 38.

    11.- Vase H. L. A. Hart, "Are There any Natural Rights?", Philosophical

    Review 64, 1955; J. Rawls, Teora de la justicia, FCE, Mxico DF, 1971,

    seccs. 18 y 52; y G. Klosko, The Principle of Fairness and Political

    Obligation, Rowman and Littlefield Publishers, Lanham, USA, 1992.

    12.- Vase D. Gauthier, La moral por acuerdo, Gedisa, Barcelona, 1994, y

    P. Vallentyne (ed.) Contractarianism and Rational Choice, Cambridge UP,

    1991.

    13.- P. Danielson, Artificial Morality: Virtuous Robots for Virtual Games,

    Routledge, Londres, 1992, p. 82.

    14. J. Harsanyi, "Morality and the Theory of Rational Behaviour", en A.

    Sen y B. Williams, Utilitarianism and Beyond, Cambridge UP, 1982, pp. 40

    y ss.

    15.- Vase en Sobre tica y economa, Alianza, Madrid, 1989, p. 11 y ss.

    los comentarios de A. Sen sobre esta antigua unin y posterior divorcio.