singularidad tecnologica

10
SINGULARIDAD TECNOLOGICA Introducción La humanidad ha tenido en los últimos 150 años un avance particularmente rápido en materia tecnológica, en particular el crecimiento de las tecnologías de la información desde la primera computadora anunciada en 1946 (hace 66 años) ha sido exponencial hasta contar con los sistemas de procesamiento, generación y almacenamiento de información con los que contamos hoy en día. El avance tecnológico acelerado ha colocado a varios científicos, especialistas y escritores de distintas áreas en la posición de imaginar cómo será el futuro dado lo que existe hoy en materia tecnológica. La extrapolación del comportamiento industrial y social en los sistemas de información, quizá el método más efectivo de prospección, ha permitido que se pueda suponer un momento en el cual será posible crear un sistema tecnológico, autónomo y híbrido, que iguale la inteligencia humana dadas las capacidades de procesamiento de información, que se equiparen con las capacidades de nuestro cerebro biológico. Este punto, sin embargo, no sería el límite del desarrollo, a partir de ese momento las máquinas con capacidades inteligentes, capaces de replicarse en tiempos extremadamente cortos en comparación con los entes biológicos, podrían comenzar a mejorar iterativamente en una suerte de evolución. Esto, según los autores que apoyan esta teoría, llevaría a máquinas con capacidades de inteligencia más allá de la humana, y por lo tanto más allá de la inteligencia biológica. Este documento parte de la definición que Vernor Vinge, quien acuñó el término e integró las ideas de varios otros escritores y tecnólogos para entregar el concepto de singularidad tecnológica, como un símil de la singularidad en astrofísica, donde el espacio de hace infinitamente elástico y se comprime de la misma manera. A la par, esta revisión también se basa en los textos de quien es hoy el mayor promotor del concepto de singularidad, Ray Kurzweil, para entregar un panorama general de qué es la singularidad tecnológica, revisar que más allá del optimismo desarrollista hay riesgos y conocer los argumentos en favor y en contra de la mera posibilidad de que un evento de tal magnitud pueda suceder en algún momento, y en particular cuando los principales teóricos indican que será dentro de la primera mitad del siglo XXI. 1. Qué es la Singularidad Tecnológica El término “Singularidad” se define genéricamente como el fenómeno, lugar o circunstancia donde las reglas que gobiernan el comportamiento dejan de tener validez. La Singularidad tecnológica es “un periodo futuro durante el cual el ritmo del cambio tecnológico será tan rápido y su impacto tan profundo, que la vida humana será transformada irreversiblemente” (Kurzweil, The Singularity is Near: When Humans Trascend Biology, 2005), Vinge nos dice que es el punto donde se crea una inteligencia sobrehumana de manera tecnológica (Vinge, 1993). En este mismo artículo definitorio de Vinge, nos indica que no es sólo por la vía de la creación de una gran computadora que replique la inteligencia humana, como se puede alcanzar este punto, el autor nos da cuatro opciones: Puede ser que se desarrollen computadoras que estén “despiertas” y sean superinteligentes en la escala humana. Hay voces en contra y a favor de la posibilidad, pero en este caso, como en las siguientes opciones, el autor nos dice que si existe la posibilidad, se llegará a ella irremediablemente.

Upload: tammy-flores-flores

Post on 20-Dec-2015

17 views

Category:

Documents


0 download

DESCRIPTION

SINGULARIDAD TECNOLOGICA

TRANSCRIPT

Page 1: SINGULARIDAD TECNOLOGICA

SINGULARIDAD TECNOLOGICA

Introducción

La humanidad ha tenido en los últimos 150 años un avance particularmente rápido en materia tecnológica, en particular el crecimiento de las tecnologías de la información desde la primera computadora anunciada en 1946 (hace 66 años) ha sido exponencial hasta contar con los sistemas de procesamiento, generación y almacenamiento de información con los que contamos hoy en día.

El avance tecnológico acelerado ha colocado a varios científicos, especialistas y escritores de distintas áreas en la posición de imaginar cómo será el futuro dado lo que existe hoy en materia tecnológica. La extrapolación del comportamiento industrial y social en los sistemas de información, quizá el método más efectivo de prospección, ha permitido que se pueda suponer un momento en el cual será posible crear un sistema tecnológico, autónomo y híbrido, que iguale la inteligencia humana dadas las capacidades de procesamiento de información, que se equiparen con las capacidades de nuestro cerebro biológico. Este punto, sin embargo, no sería el límite del desarrollo, a partir de ese momento las máquinas con capacidades inteligentes, capaces de replicarse en tiempos extremadamente cortos en comparación con los entes biológicos, podrían comenzar a mejorar iterativamente en una suerte de evolución. Esto, según los autores que apoyan esta teoría, llevaría a máquinas con capacidades de inteligencia más allá de la humana, y por lo tanto más allá de la inteligencia biológica.

Este documento parte de la definición que Vernor Vinge, quien acuñó el término e integró las ideas de varios otros escritores y tecnólogos para entregar el concepto de singularidad tecnológica, como un símil de la singularidad en astrofísica, donde el espacio de hace infinitamente elástico y se comprime de la misma manera. A la par, esta revisión también se basa en los textos de quien es hoy el mayor promotor del concepto de singularidad, Ray Kurzweil, para entregar un panorama general de qué es la singularidad tecnológica, revisar que más allá del optimismo desarrollista hay riesgos y conocer los argumentos en favor y en contra de la mera posibilidad de que un evento de tal magnitud pueda suceder en algún momento, y en particular cuando los principales teóricos indican que será dentro de la primera mitad del siglo XXI.

1. Qué es la Singularidad Tecnológica

El término “Singularidad” se define genéricamente como el fenómeno, lugar o circunstancia donde las reglas que gobiernan el comportamiento dejan de tener validez. La Singularidad tecnológica es “un periodo futuro durante el cual el ritmo del cambio tecnológico será tan rápido y su impacto tan profundo, que la vida humana será transformada irreversiblemente” (Kurzweil, The Singularity is Near: When Humans Trascend Biology, 2005), Vinge nos dice que es el punto donde se crea una inteligencia sobrehumana de manera tecnológica (Vinge, 1993).

En este mismo artículo definitorio de Vinge, nos indica que no es sólo por la vía de la creación de una gran computadora que replique la inteligencia humana, como se puede alcanzar este punto, el autor nos da cuatro opciones:

Puede ser que se desarrollen computadoras que estén “despiertas” y sean superinteligentes en la escala humana. Hay voces en contra y a favor de la posibilidad, pero en este caso, como en las siguientes opciones, el autor nos dice que si existe la posibilidad, se llegará a ella irremediablemente.

La segunda forma en cómo llegar a la Singularidad es que una red de computadoras interconectadas “despierte” como una entidad superinteligente. Hay que notar que el autor escribió esto en 1993, cuando el primer navegador gráfico, Mosaic, era lanzado al mercado en abril de ese año.

La tercera vía para acceder a la Singularidad es a través de la integración de humanos y computadoras a través de interfaces avanzadas, donde la conjunción de la parte biológica con la informática puede generar incrementos a las capacidades humanas de manera que se puedan reconocer como inteligencias sobrehumanas.

Finalmente la cuarta opción para encontrarse con la Singularidad es mediante la manipulación biológica pura, que puede conducir a mejoras sustanciales en el intelecto humano.

A partir de estos escenarios, son los que involucran el desarrollo de sistemas de información y hardware los que despiertan el debate, y en específico las dos primeras opciones, ya que suponen la creación de lo que se conoce como la Inteligencia

Artificial Dura (IAD). El tercer caso el autor lo define como Inteligencia Amplificada (Iam) que incita un debate distinto, relativo a la cuestión de quiénes serían los elegidos para las modificaciones tecnológicas y con ello convertirse en seres superinteligentes, evolutivamente en uno o varios escalones más arriba que el resto de las personas que no han sido modificadas.

Page 2: SINGULARIDAD TECNOLOGICA

En otro enfoque, Kurzweil con su definición basada en la lógica de crecimiento exponencial de la tecnología, también argumenta que este desarrollo acelerado de las capacidades tecnológicas conduciría a escenarios de avance sin precedentes en tres áreas de conocimiento: la genética, la nanotecnología y la robótica, que él identifica con la IAD.

La posibilidad de una Inteligencia Artificial Superior

Existen dudas ciertas de que la existencia de un organismo (ya sea mecánico, biológico o lógico) que supere en capacidad intelectual al humano sea posible en cualquier momento. Existen, como dijimos, caminos ideados por los autores que apoyan la idea para llegar a la superinteligencia, sin embargo, los detractores de la misma indican que la motivación puede estar basada en la esperanza de la inmortalidad (Horgan, 2008) manifestada incluso por los fundadores de la idea, como Kurzweil quien prevé que los humanos podrían llegar a ser entidades inmortales de software consciente.

Sin embargo, a pesar de que el argumento de la concepción religiosa y de “creyentes” se ve soportada por la premura con la cual los “singularitarios” predicen la aparición del momento de inflexión1 hay autores que al considerar los elementos que integran la conciencia y con ello la inteligencia, afirman que la creación de máquinas con esa característica es posible (Koch & Tononi, 2008). Según el artículo de Koch y Tononi, la conciencia depende exclusivamente de las matemáticas y la lógica, no viene de un reino mágico, por lo cual en teoría puede ser reproducida en una máquina. Se sabe que está relacionada con la función de la corteza cerebral como lo demuestran casos de humanos en estados vegetativos persistentes, donde la corteza no demuestra actividad. También es necesaria la actividad del tálamo. Un ente consciente es un sistema integrado con un amplio repertorio de estados. Está relacionado con la cantidad de información que el sistema puede generar.

Con base en esto es posible plantear un debate real acerca de la singularidad desde argumentos técnicos y no sólo de creencias.

Sí habrá una Inteligencia Artificial Superior

El artículo fundamental de la Singularidad (Vinge, 1993) es irreductible al afirmar que el estado de la tecnología hará posible en algún momento del siglo XXI (y en particular en la primera mitad) el surgimiento deliberado o accidental de una inteligencia artificial.

Si la Singularidad Tecnológica puede suceder, lo hará. Incluso si todos los gobiernos del mundo entendieran la “amenaza” y murieran de temor, el progreso hacia esa meta continuaría. En la ficción hay historias de leyes aprobadas para prohibir la construcción de una 'máquina que asemeje a la mente humana'. De hecho, la ventaja competitiva (económica, militar, incluso artística) de cada avance en la automatización, es tan irresistible que promulgar leyes, o establecer aduanas que prohiban tales cosas, solamente asegura que alguien más lo obtendrá primero.

Para Kurzweil, la Singularidad es una consecuencia natural de no solamente el desarrollo tecnológico, sino el devenir natural de la evolución, la cultura, la economía y por supuesto de la tecnología, que siguen crecimientos exponenciales más que aritméticos. En su libro La Singularidad está Cerca, enlista los siguientes factores que hacen posible la aparición de máquinas superinteligentes:

La innovación técnica se acelera, se duplica cada década; El poder de las TI crece exponencialmente, se duplica cada año; Para las TI hay un segundo nivel de crecimiento exponencial, alimentado por el beneficio económico

que representa su crecimiento; La exploración del cerebro humano es una de las tecnologías que mejora exponencialmente; Tendremos modelos efectivos de inteligencia humana para la mitad de los años 20 de este siglo; Con la disponibilidad del software y hardware para emular el cerebro humano, se podrá aprobar el

Test de Turing 2 hacia finales de siglo; El ciclo de la inteligencia de las máquinas, que iterativamente mejora su diseño, se hará más rápido

cada vez;

Muehlhauser y Salamon añaden “aceleradores” al surgimiento de la primera inteligencia artificial de al menos nivel humano.

El poder de cómputo ha crecido de manera exponencial en concordancia cercana con la ley de Moore, pero incluso si esta se agota y el crecimiento es menor, podemos esperar hardware que sea más poderoso, por mucho, en unas décadas. Este software con capacidades mucho mayores puede resolver problemáticas mayores en menor tiempo y costo con el uso únicamente de la fuerza bruta. A su vez, el desarrollo de los algoritmos computacionales entrega mejoras al desempeño, como en el caso de Deep

Page 3: SINGULARIDAD TECNOLOGICA

Blue en 1997, que ejecutaba 1.5 millones de millones de operaciones por segundo; en 2003 Deep Junior obtuvo el mismo resultado con la ejecución de 0.0015 millones de millones de operaciones por segundo.

Los conjuntos de datos masivos o el llamado Big Data fomenta la capacidad de reconocimiento de patrones. Con el crecimiento acelerado de fuentes de datos en formatos electrónicos, el bajo precio de producción de los datos y el bajo costo de almacenaje, los sistemas de información cuentan con material disponible y en formatos accesibles para realizar reconocimiento, análisis y procesamiento.

El progreso en la sicología y la neurociencia han permitido conocer procesos y formas de trabajar del cerebro que permiten un mejor modelado que se aplica en redes neuronales, procesamiento tridimensional y paralelo. Esto se agrega al crecimiento de la ciencia en general derivado del crecimiento en número de matriculados en posgrados e investigadores.

Los incentivos económicos son importantes entre los factores que impulsan el desarrollo de la IA+, bajo la promesa de mejores resultados y productividad con menor costo en la producción de bienes y servicios derivado de la posibilidad de robots trabajadores con IA (en primera instancia).

Por último, y quizá el mayor incentivo dentro de la escala de valores no siempre clara del ser humano, es el de “ser los primeros”. Bajo un entorno competitivo y una vez que esté a la vista la meta de la primera máquina con IAD, gobiernos, empresas y cualquier persona con interés comercial y económico (dado el término de Homo Economicus (Robbins, 1932), cualquier persona tiene esas motivaciones) verán las ventajas sustanciales de la construcción de esa primera máquina.

Para algunos autores (Muehlhauser, Facing The Singularity, 2012) la posibilidad de la superinteligencia es sólo cuestión de números y características comparables:

La velocidad de procesamiento, donde nuestras neuronas pueden llevar datos a 75 metros por segundo o menos, cuando una máquina puede superar esas velocidades por 4 millones;

Profundidad serial. El cerebro humano no puede ejecutar rápidamente cálculos que requieren más de 100 pasos secuenciales, por lo cual se apoya en la computación paralela. En el ámbito computacional hoy en día es posible acudir a ambos tipos de procesamiento (serial y paralelo) para superar esta limitación.

Recursos computacionales. El cerebro humano está limitado por el tamaño del cráneo (razones anatómicas y fisiológicas) mientras que las máquinas de cómputo pueden construirse tan grandes como ciudades, sólo limitadas por el consumo de energía y la arquitectura, lo cual es un obstáculo que se busca eliminar con sistemas de menor consumo y nuevos diseños.

Racionalidad. No está claro que los cerebros humanos hagan decisiones racionales de manera nativa y perfecta. Las computadoras se crean desde cero con el juego de instrucciones para ser racionales en las decisiones.

Acceso introspectivo / editabilidad. No podemos introducirnos en nuestro cerebro para editar o mejorar los algoritmos cognitivos. Es evidente que esa posibilidad existe en sistemas diseñados por los humanos.

No habrá una Inteligencia Artificial Superior

La aseveración de un futuro, para algunos cercanos (Vinge, 1993; Kurzweil, The Singularity is Near: When Humans Trascend Biology, 2005) donde habrá una inteligencia artificial capaz de mejorarse a sí misma en procesos iterativos para llegar a la IA++ es por supuesto motivo de debate, no sólo en la comunidad de las TI, sino en todos los ámbitos debido a los grandes impactos filosóficos, éticos, económicos, laborales, religiosos que tiene el supuesto de la posibilidad de una entidad más inteligente que el ser humano, su relación con éste y las posibles decisiones que haría respecto a su futuro, el entorno, su crecimiento.

Además del tema de la creación de una IA Amistosa que vimos anteriormente, algunos autores (Shaviro; Sotala, 2007; Stross, 2011; Greaves & Allen, 2011) cuestionan la posibilidad de que en algún momento se dé la singularidad tecnológica. A partir de varios enfoques y limitantes que intentan demostrar, y para las cuales Chalmers propone una réplica. Cabe mencionar que incluso el artículo de Vinge contempla la posibilidad de que la singularidad no llegue:

Quizá no pase en absoluto. Algunas veces trato de imaginar los síntomas que esperaríamos ver si la Singularidad no se va a desarrollar. [..] Si esto es cierto, en los inicios de la década del 2000 encontraríamos que la curva de desempeño del hardware comenzaría a declinar, esto debido a la incapacidad de automatizar de trabajo de diseño requerido para soportar mejoras al hardware. Terminaríamos con algún equipo muy poderoso, pero sin la capacidad de llevarlo más allá. El procesamiento comercial de las señales digitales sería asombroso, dando apariencia de análogo incluso a las operaciones digitales, pero nunca nada

Page 4: SINGULARIDAD TECNOLOGICA

“despertaría”, y nunca habría la carrera intelectual que es la esencia de la Singularidad. Sería vista como una época dorada... y sería el fin del progreso.

Entre los argumentos en contra de la posibilidad de una inteligencia superhumana, Chalmers enumera los siguientes:

La inteligencia no es solamente un tema de procesamiento de información. Hay factores cruciales en la inteligencia humana que se omiten en la IA: el entendimiento, personificación y cultura.

El diseño de una inteligencia equivalente al menos a la humana requiere de un profundo entendimiento del yo y una sicología cognitiva total. Estos campos del conocimiento están lejos de llegar a sus límites hoy en día, por lo cual no se puede esperar en un futuro cercano (y quizá nunca se llegue a la meta) que se desarrolle la IAD.

Los sistemas de nivel Turing (M2) no pueden crear sistemas de nivel super-Turing (M3), por lo cual a partir de la IA no se puede llegar a la IA+ ni a IA++.

Otras críticas que se manifiestan en distintos lugares (Kurzweil, The Singularity is Near: When Humans Trascend Biology, 2005; Greaves & Allen, 2011) son el problema de la complejidad y el tema de la lógica malthusiana. La complejidad de un cerebro humano sobrepasa al estudio científico cada vez que se hace un nuevo avance en este campo de estudio. Con cada descubrimiento de la química del cerebro, la estructura de las neuronas, se reconoce que la complejidad está más allá de modelos que la ciencia pueda construir. La inteligencia humana es producto de la evolución, un proceso iterativo de prueba y error desarrollado en millones de años y no producto del diseño, adicionalmente a esto la inteligencia humana e incluso cualquier inteligencia biológica, ejecuta varios procesos en paralelo de manera eficiente y cada uno de los procesos es tan complejo que no ha podido ser modelado o replicado en su totalidad.

Queda subyacente en este tema de la complejidad la cuestión de la conciencia y la identidad, si definimos a esta como parte de la inteligencia enfrentamos los diversos fenómenos que se han presentado en casos de traumatismo severo en ciertas personas, donde la identidad se transtorna para reflejarse en objetos, lo cual lleva a que la plataforma de conciencia puede no contener a la conciencia o la identidad (Stross, 2011).

La crítica a la lógica malthusiana indica que no se pueden extrapolar comportamientos que marcan tendencias logarítmicas debido a que hay un punto de agotamiento de recursos inherente a cualquier sistema. En el caso de la IA puede referirse al límite de energía para mantener encendidos los equipos de procesamiento y almacenamiento, o bien el calor generado por lo que supone este argumento, sería una máquina gigantesca.

Enlistamos a continuación algunos otros argumentos en contra de la posibilidad de la singularidad:

La rigidez de la computación digital (secuencial y discreta) contra la lógica difusa de la inteligencia biológica;

Las fallas en los sistemas computacionales actuales, con niveles relativos bajos de complejidad, serán el límite del desarrollo en sistemas de extrema complejidad;

La paradoja del Cuarto Chino, donde hay un ente intermediario (puede ser una persona) que transmite mensajes escritos en ideogramas chinos entre alguien que pregunta y alguien que contesta. Para el que pregunta las respuestas son correctas y califica al intermediario de inteligente, pero éste sólo es un transmisor que no sabe chino y por lo tanto no puede leer lo que dicen las respuestas. El transmisor es sólo una computadora;

La regulación gubernamental desacelerará o detendrá la tecnología.

El debate se presenta así entre la posición de quienes creen en la posibilidad de la Singularidad y quienes la niegan, sin obviar la fracción de quienes temen un surgimiento de IAD sin posibilidad de control en cuanto a la ética o protección hacia sus creadores.

¿Y si fuera posible?

Hoy en día, ante el debate que toma sentidos a favor y en contra de la posibilidad de la superinteligencia, ciertos grupos de especialistas indican que lo mejor ante este escenario es tomar previsiones ante la expectativa, por mínima y remota que fuera, de que en algún momento, ya sea en un laboratorio o espontáneamente, surja una máquina con consciencia propia, lo cual, según hemos visto que afirman Vinge y Kurzweil entre otros, llevará irremediablemente al surgimiento de entes más inteligentes que los humanos. Con esta perspectiva deben considerarse los escenarios que presentará una interacción entre humanos y seres más inteligentes, lo cual plantea 3 alternativas:

1. Inteacción amable y respetuosa, que requiere que la IA sea amistosa;2. Una relación de exterminio humano, debido a la falta de elementos morales en la IA y los procesos

racionales de pensamiento de la misma;

Page 5: SINGULARIDAD TECNOLOGICA

3. La IA ininteresada, la cual puede ignorar la existencia humana como los humanos ignoran la existencia de insectos a menos que se enfrenten con ellos.

Con base en estos tres escenarios podemos hacer un análisis de la interacción.

Inteligencia Artificial Amistosa

El debate para muchos autores (Joy, 2000; Bostrom, 2003; Shulman, Jonsson, & Tarleton, 2009; Muehlhauser & Salamon, Intelligence Explosion: Evidence and Import, 2012; Chalmers, The Singularity: A Philosophical Anlysis, 2010; Muehlhauser & Helm, The Singularity and Machine Ethics, 2012; Yudkowsky, et al., 2010) no se enfoca en la posibilidad o no de llegar en algún momento al punto de la Singularidad, sino de cómo enfrentar a esta, ya que a partir del supuesto de la creación de la primera máquina con IAD que pueda replicarse y mejorarse a sí misma, los humanos, ahora en la cima de la escala evolutiva con el factor del intelecto como diferenciador, quedarían en un segundo plano al perder esta ventaja.

En un escenario donde hay una inteligencia autónoma, con capacidades iguales a las humanas, podemos esperar que se cumpla el argumento de la Explosión de Inteligencia (Chalmers, The Singularity: A Philosophical Anlysis, 2010):

1. Habrá IA (dentro de un periodo de un siglo);2. Si hay IA, habrá IA+ (en un periodo de décadas);3. Si hay IA+, habrá IA++ (en un periodo de décadas).

Donde IA es la Inteligencia Artificial a nivel humano, IA+ es una inteligencia artificial de nivel superior al humano y IA++ es la inteligencia artificial muy superior al nivel humano, tanto como lo es en la actualidad la distancia entre la inteligencia humana y el de mamíferos inferiores como los roedores.

Este panorama nos lleva rápidamente a la cuestión de relación entre dos entidades con inteligencias de distinto nivel, lo cual llevado a la realidad actual significa, en el caso donde IA++ no sea efectivamente tan superior a la inteligencia humana, al menos una situación similar entre los delfines y los humanos. Esto presenta el claro riesgo de una relación desigual, así pensar que las máquinas con IA++ serán herramientas de los humanos de forma natural, es como pensar que “los humanos son herramientas de los conejos o los chimpancés” (Vinge, 1993).

Si se cumple el supuesto de Vinge acerca de la imposibilidad de detener el surgimiento de la IA si esta es posible, es fundamental el desarrollo de una forma de determinar que la IA sea “amistosa”, benevolente o al menos negligente con la existencia de una entidad inferior. No bastarían las tres leyes de robótica de Asimov para garantizar una convivencia segura con máquinas que han alcanzado IA+ o IA++, Good, de acuerdo con Vinge y con Kessel sugiere alimentar a las IA y sus derivadas con una meta-regla dorada: “Trata a tus inferiores como serías tratado por tus superiores”.

Inteligencia Artificial Hostil

La consciencia, establecida como la percepción de la existencia de uno mismo y la posibilidad de evaluar los factores y su afectación con el organismo propio, no requiere la existencia de un conjunto de reglas morales o éticas. La psicología conoce bien la condición de la psicopatía, donde la persona disocia completamente la valoración de sus actos de su contenido moral. Si el organismo (o varios de ellos en caso de la posibilidad de replicación) puede tomar decisiones perfectamente racionales sin tomar en cuenta si estos dañan al ámbito humano. Bien pueden usar las técnicas más destructivas de obtención de recursos naturales o incluso tomar a los humanos como materia prima o fuentes de elementos necesarios para sus procesos.

Inteligencia Artificial Ininteresada

A pesar de que los humanos tendemos a crear escenarios antropocéntricos, nada garantiza que una superinteligencia no quiera interactuar con los humanos simplemente por la diferencia de espacios de inteligencia. Se han realizado mediciones acerca de las personas superdotadas y su capacidad de interacción con personas con menores niveles de inteligencia, en estos se h encontrado que la capacidad de relación está limitada por un rango que limita el poder comunicarse de manera eficiente y productiva entre dos personas con espacios de inteligencia muy distante (Gilbert, 2000; Dronkers, 2002).

Con el antecedente de la relación dificil entre dos personas con diferente nivel de inteligencia, la interacción entre entes que estuvieran por encima de las inteligencias humanas y humanos (por más inteligentes que fueran) podría equipararse a la relación de cualquier animal con el humano. Evidentemente cabe la posibilidad de un desinterés basado en la imposibilidad de comunicación.

Conclusión

Page 6: SINGULARIDAD TECNOLOGICA

La Singularidad Tecnológica es una posibilidad teórica que presenta retos en varios ámbitos humanos, donde se desafían concepciones filosóficas y religiosas y, que en caso de ser posible, alteraría toda la organización social humana. Caben los cuestionamientos acerca de si en realidad los argumentos en contra son lo suficientemente sólidos para demostrar la imposibilidad o sólo para hacer presente los temores ante un escenario completamente desconocido, en el cual se pueden prever casos de destrucción de la humanidad o bien una era dorada, de bienestar y progreso continuo. El debate está vivo y en ambas posiciones se pueden encontrar fallas de lógica, demostraciones recursivas o supuestos demasiado audaces que requieren demostración. Los argumentos en contra la de posibilidad de que la singularidad tecnológica ocurra no son contundentes, debido principalmente a que parten de supuestos menos sólidos, como manifestar que el crecimiento exponencial es finita sin dar más argumentos que la escasez de recursos, o bien dar por sentados supuestos acerca de los espacios de inteligencia sin demostrar cómo fundamentan las aseveraciones de origen, lo que lleva a la debilidad de las conclusiones.

Lo que queda claro a partir de los argumentos de uno y otro lado del debate es que si existe la más mínima probabilidad de que la singularidad suceda en cualquier momento, la humanidad debe estar preparada para la contención de su crecimiento descontrolado y los riesgos potenciales que presenta el convertirse súbitamente en una especie inferior. Un escenario posible es el que mantenemos con las especies que consideramos inferiores. Hoy en día nada nos limita a los humanos como especie superior en la cadena evolutiva acabar con facilidad con la vida de especies completas en favor del progreso de la humanidad, por investigación o por simple diversión. Los humanos, con todo su desarrollo científico, artístico, filosófico, histórico y social, al convertirse en una parte inferior de la cadena evolutiva, también pueden convertirse en fuente de recursos materiales, maquinarias básicas de procesamiento de información o entrar en involución al ver limitadas sus capacidades de expansión debido a la preeminencia de otras entidades. Si existe la más remota posibilidad de la singularidad tecnológica, mejor preparar el camino mediante la elaboración de reglas claras de comportamiento de los entes suprainteligentes, que negar la posibilidad y padecer las consecuencias

SINGULARIDAD TECNOLOGICA

Una hipótesis muy interesante surgida en la segunda década del siglo pasado es la llamada singularidad tecnológica. Probablemente hayas oído hablar de ella como una teoría que plantea la aparición en el futuro de una inteligencia superior a la humana como consecuencia del acelerado desarrollo de la tecnología. Y seguramente también te has preguntado de dónde viene esta idea y cuáles son sus posibilidades de realización.

Hoy intento contarte su origen y razonamientos principales, mientras pensamos juntos si es simplemente un tema de fantasía más o en realidad la singularidad (a secas, como también se le llama) pudiera aparecer en el futuro de nuestro planeta.

Teoría de la singularidad tecnológica

Según esta hipótesis, el desarrollo avanzado de nuestra civilización y, por tanto, de la tecnología, conducirá inevitablemente a un punto en el cual surgirá una inteligencia suprema cuyo pensamiento y recursos tecnológicos serán esencialmente distintos y superiores a los que conocemos en la actualidad. Así pues, serán inentendibles por las generaciones previas.

La teoría plantea que los cambios serán tan profundos que toda la sociedad, a su vez, se transformará: la economía, la política, la manera de comprender la realidad e incluso hasta nuestros propios cuerpos. El nivel de procesamiento mental será tan alto que parecemos seres medievales a los ojos de los individuos de esa nueva civilización.

El nombre de la hipótesis se corresponde con la singularidad cuántica, según la cual en los agujeros negros existe una singularidad gravitacional tal que las leyes de la física dejan de ser válidas y, en consecuencia, ningún evento puede predecirse.

Origen de la singularidad tecnológica

Aunque en los años 50 y 60 ya algunos pensadores habían adelantado la idea de una singularidad en el desarrollo tecnológico, no es hasta los 80 que se hace popular el término en la voz de un matemático y escritor de ciencia ficción de nombre Vernor Vinge, quien comienza a desarrollar la idea de que el ser humano crearía inteligencias superiores a las humanas.

En los 90 Vinge lanza un artículo en Internet que plantea la aparición futura de una inteligencia superhumana que acabará con la era de los hombres. Las vías para ellos serían:

Page 7: SINGULARIDAD TECNOLOGICA

1. Desarrollo de ordenadores superinteligentes que superen nuestra capacidad intelectual.2. Surgimiento de grandes redes computacionales que funcionen como redes neuronales de un gran

cerebro rector supra inteligente.3. Interacción tan estrecha entre seres humanos y ordenadores de modo que los primeros podrían

llegar a tener capacidades computacionales elevadas, por encima de las humanas.4. Manipulación genética tan avanzada que se podría hacer seres humanos con capacidades

cualitativamente superiores.

Otros pensadores notables, como Raymond Kurzweil, han sugeridos patrones exponenciales de progreso tecnológico y han comenzado a desarrollar proyectos para educar a especialistas que pudieran entender y facilitar el avance tecnológico y ayudar a enfrentar los grandes desafíos que dicha transición supondrá para la humanidad.

Tecnología necesaria para la singularidad

Hay dos grupos de tecnología que los defensores de la singularidad proponen como caminos por los cuales se llegará a tal grado de desarrollo intelectual:

Inteligencia artificial: Según los pensadores, cuando el ser humano cree una nueva forma de vida inteligente, la llamada inteligencia artificial (IA), nuestra comprensión de nosotros mismos como seres pensantes cambiará, así como la que tenemos de los fenómenos del universo. Por otra parte, la IA desarrollará tecnologías avanzadas con mucha mayor rapidez que nosotros. De ahí que la civilización comenzará a cambiar radicalmente a velocidad acelerada. Los robots serían el ejemplo de este tipo de inteligencia que podría procesar y realizar cualquier tarea, más allá de las posibilidades de los humanos.

Máquinas de replicación molecular: La idea de esta tecnología es construir máquinas que manipulen la materia a nivel subatómico, de modo que la realidad pueda ser controlada de muchas maneras, entre ellas los genes de los individuos. A su vez estos equipos podrían pensar y trabajar por sí mismos.

Aparición de la singularidad tecnológica

Por razones obvias, no hay una fecha exacta para la cual se prediga la singularidad tecnológica. El progreso tecnológico se produce a grandes saltos y depende de un sinfín de variables no necesariamente predecibles. Además la llamada singularidad llegaría como consecuencia de un proceso paulatino que aglutina muchos otro subprocesos.

Sin embargo, en el 1992 Vinge consideraba que en 30 años habría inteligencia artificial. Otros científicos, por el contrario, consideran que la singularidad llegará dentro de muchas décadas. Más allá de las diferencias de perspectiva, lo que sí parece claro es que cualquier avance en el área de nuevas formas de inteligencia tardará aún mucho tiempo.

Oposiciones a la singularidad tecnológica

Las teorías futuristas como la singularidad tecnológica son defendidas por muchos partidarios, pero también tienen sus detractores. Muchos científicos, como Roger Penrose, consideran que ninguna máquina o inteligencia artificial que se cree podrá jamás superar el intelecto humano.

Otros consideran que una civilización, una vez alcanza un desarrollo tecnológico tan acelerado, que agota sus recursos ambientales ―como ocurre con la nuestra― tiende necesariamente al colapso social y a una regresión en la tecnología. Habría pues un declive y nunca sucedería el momento de supremacía intelectual predicho.

En cualquier caso, la discusión está aún en el plano de las hipótesis y las conjeturas. Tanto quienes apoyan y consideran viable la singularidad, como aquellos que fervorosamente niegan la posibilidad de que aparezca una entidad intelectualmente superior a la nuestra tienen demasiadas variables en su contra como para asegurar o predecir con un rango amplio de probabilidad si las máquinas alcanzarán un desarrollo altamente inteligente.

Por el momento, la singularidad tecnológica continúa siendo una teoría más, fascinante sin duda, pero cuestionable. Aun así, considerando el avance de la ciencia y siendo optimistas, no sería descabellado imaginar un mundo poblado por seres mejor adaptados social y biológicamente con capacidad para comprender la realidad y, a la vez, proteger su planeta, sin importar si son artificialmente inteligentes o genéticamente más desarrollados.