Sé que suena mal, pero en realidad se trata de una cuestión así de sencilla: si somos capaces de crear un gato artificial completamente gatuno a todos los niveles, seremos capaces de crear un ser humano artificial completamente humano.
Voy a tratar de analizar si es posible crear un ser humano artificialmente. ¡Chúpate esa!
Es probable que no sepáis lo que es el test de Turing; no os preocupéis, no hace falta: se trata de una prueba para determinar si una máquina es inteligente o no. Básicamente consiste en que un juez (humano), interrogando por separado a dos interlocutores (que pueden mentir), determine cuál de ellos es una máquina y cuál es un humano. Por supuesto, el juez no puede ver a sus interlocutores y se intercomunica con ellos de forma neutra y distante: un chat, por ejemplo. Se presupone que el juez es inteligente, claro.
Qué elegante, qué sencillo y qué fino. Sobre todo comparado con la explicación de la máquina de Turingque nos ofrece Roger Penrose en La nueva mente del emperador (sólo apto para muy, muy motivados).
Lo que debo destacar aquí es que lo que se mide en este test es la inteligencia, no la humanidad. No tengo ninguna duda de que llegaremos a tener máquinas capaces de superar esta prueba. Y no tardarán mucho.De facto, cualquier mierda-maquinita de jugar al ajedrez vapulea al más avezado jugador.
Pero el meollo del asunto es si un test de Turing, en el que se mide la inteligencia, nos permitiría distinguir también la humanidad de una hipotética máquina perfecta, suponiendo que esa perfección venga determinada por su indistinguibilidad de un ser humano.
Un terreno pantanoso con posturas encontradas. Los más conservadores argüirán que la humanidad es algo inmaterial e intangible que no se puede “imitar”. Los más escépticos dirán que lo inmaterial e intangible no existe y que, por tanto, una máquina perfecta será plenamente humana.
El problema ha venido con los derroteros que han tomado las neurociencias, la genética, lo biología molecular y muchas otras ramas del saber; el alma cada vez pierde más terreno a la hora de establecer la unicidad del ser humano.
Philip K. Dick, en ¿Sueñan los androides con ovejas eléctricas?, atribuye a la empatía la prueba definitiva de humanidad. Buen intento, pero me temo que imitable. La mayoría de las supuestas empatías que nos unen son impostadas: todos tenemos problemas.
Así, de buenas a primeras, la primera cuestión que deberíamos responder es lo que entendemos por humanidad; algo nada sencillo y que muchas personas desde múltiples disciplinas científicas y posturas religiosas, políticas o filosóficas tratan de responder desde hace mucho tiempo. No diré siglos porque hasta hace bien poco el antropocentrismo era un dogma incuestionado incluso por los más recalcitrantes librepensadores.
El problema ha venido con los derroteros que han tomado las neurociencias, la genética, lo biología molecular y muchas otras ramas del saber; el alma cada vez pierde más terreno a la hora de establecer la unicidad del ser humano.
Nuestros parientes genéticos más cercanos (bonobos, chimpancés, gorilas, delfines u orcas), y otros no tan cercanos (elefantes, gatos y perros), muestran muchos signos humanidad. Quizás en grados evolutivos más tempranos, pero la empatía, la intercomunicación, la ayuda mútua, la cultura (grupos de primates transmitiendo formas de caza particulares a sus descendientes), el uso de instrumentos (un puto loro!), la espiritualidad (elefantes presentando sus respetos a sus muertos), la autoconsciencia (animales que pueden reconocerse en un espejo), la planificación (piense en los grupos de orcas atacando cardúmenes de arenques)… no son rasgos exclusivos de los humanos. Siendo realista, no se me ocurre nada que sea exclusivamente humano, algo que ningún otro ser no-humano sea capaz de hacer. Muchas cosas las hacemos mejor, pero no de forma exclusiva.
Lo que me lleva a pensar que si somos capaces de hacer una máquina que sea indistinguible de un animal que, más o menos, presente algún estadío de todos los ámbitos de lo que consideramos humanidad (pongamos un gato o un chimpancé, aunque podría ser un loro), ya estaríamos a las puertas de crear al primer ser humano artificial (con los métodos que sean…). Así, lo que debemos preguntarnos de verdad es si podemos crear un gato artificial (por simplificar).
Sé que suena mal, pero en realidad se trata de una cuestión así de sencilla: si somos capaces de crear un gato artificial completamente gatuno a todos los niveles, seremos capaces de crear un ser humano artificial completamente humano.
Pero ¿cómo es un gato? Asumimos que todas las tareas fisiológicas y la estructura molecular serán creables, es decir, que tendremos un gato artificial completamnet indistinguible en todo a un gato real. Ahora queda lo más difícil: el comportamiento. Debemos pensar en un algoritmo que nos permita modelar el comportamiento de un gato. Y digo sólo comportamiento: una evaluación subjetiva realizada por un observador humano, sesgado a causa de su humanidad, de lo que hace un gato desde su perspectiva, sin llegar a entrar en su espacio perceptivo (lo que siente y recibe) ni en su motor interno (qué le mueve a hacer lo que hace).
Alguien podrá objetar que así es imposible modelar un gato, pero la cruda realidad es que, tras más de 4.000 años de estrecha convivencia, no tenemos ni puta idea de lo que mueve a un gato, así que, como hipótesis de trabajo, no podemos contar con modelar a un gato en todas sus facetas. Aún así, asumimos que si somos capaces de modelar su comportamiento (algo tan ínfimo), seremos capaces de crear un gato artificial.
Vale, podría haber elegido perro, pero veréis que no cambiaría nada. Un gato es, normalmente, un anormal; en el mejor sentido del término. Cada uno tiene su carácter, sus hábitos, sus manías, sus espacios… pero siempre pueden cambiar sin razón alguna. Pueden durarles horas, años o minutos, pueden ser contradictorios y pueden mentir (poner cara de buenos cuando les riñes). O no. Pueden ser completamente aleatorios y confiables a la vez. ¿Cómo se modela eso? ¿Cómo haces que una máquina haga algo que no sabes qué es?
Lo que me lleva al siguiente nivel: si queremos llegar a ser capaces de crear un ser humano artificialmente (asumimos que es algo bueno, aunque guardo mis reservas), antes debemos ser capaces de entender, deconstriur (horror de concepto y estúpido puerto per se) y sintetizar (al menos modelar) a otros animales inferiores; como un gato.
De nuevo debemos acudir a los sueños de los androides (y aquí no vale sólo Blade Runner, hay que acudir al libro) para pensar en ovejas eléctricas. Nosotros pensaremos en gatos eléctricos porque me gustan más los depredadores: me parecen más inteligentes. Pero eso no es lo importante. Animales inferiores se pueden crear. Pongamos una hormiga o una abeja. Dudo que se logre imitar el comportamiento de todo un hormiguero.
En realidad, todo se limita a algo tan sencillo como esto: ¿podemos escribir una fórmula que describa el comportamiento de un animal complejo? Dando por sentado que la fórmula es un algoritmo iterativo retroalimentado que puede incorporar la aleatoriedad como factor (una pollardada para venir a decir que puede imitar casi cualquier cosa que se te pueda imaginar).
Yo creo que la respuesta es que no. Porque no somos capaces de penetrar en la cabeza de un gato. Porque, por muy superiores a un gato que nos sintamos, no somos gatos. Y no los entendemos. Ni siquiera a esos perros de raza (con el mismo grado de cosanguinidad que los Borbones ¡ahí lo dejo!), a los que podemos enseñar a obedecernos (ser soldados, con todo lo que ello significa), son entendibles por una razón muy sencilla: los juzgamos con nuestros parámetros; no unos parámetros universales y objetivos. Si hubiese una especie superior a la nuestra, el parámetro de objetividad debería ser el suyo, no el nuestro. Pero no lo aceptaríamos. Seguramente saldríamos muy mal parados…
Lo relevante ahora es saber cuál es la parte que no puede ser modelizda. Con lo que volvemos al principio: ¿cuál es el rasgo de humanidad? Bueno, no necesariamente humanidad; más bien naturalidad; sea eso lo que sea.
Algo me dice que esa naturalidad está íntimamente ligada al azar, pero guiado por otras fuerzas erráticas pero directivas. Podría ser un batiburrillo de genes, memes, ambiente social, factores meteorológicos, recursos, enemigos, competencia… ¿Modelable? No. Entonces deberíamos plantearnos si el autoaprendizaje es modelable.
Asumamos que podemos predecir la respuesta a cualquier conjunto de factores (os remitiría nuevamente a la máquina de Turing, pero es una paranoia dura, dura, dura…) . Es suponer muchísmo, pero me temo que no será suficiente. Es decir, que podría evaluar un conjunto casi infinito de factores a la vez y dar una respuesta. ¿Seríamos capaces, como humanos, de tener en cuenta la mayor parte de factores que intervienen en cualquier respuesta?
La respuesta es no. Y ahora llega lo que realmente me desasosiega de esta absurda disquisición…
¿Cuántas personas querrían a su lado a un ser completamente predecible, sin dobleces, sin oquedades, transparente…? Alguien en quien confiar al 100%, que sabes lo que va a hacer. Imagina una persona que cocina como los ángeles, que mantiene limpia y ordenada la casa, que hace la compra perfecta, que ahorra, que propone planes conjuntos, que es detallista y romántica, apasionada cuando toca… Una persona que lo tiene todo. Menos esa humanidad.
Me temo que el porcentaje de personas que se quedarían con el no-humano sería alto. Muy alto. Si lograsen superar sus naturales prejuicios (y una previsible presión social). No sé…
Una cosa me queda clara: soy demasiado humano. Lo peor de todo es no saber, ni siquiera yo mismo, qué voy a hacer mañana. Tengo que trabajar esto…
NOTA: Para cerrar estas disquisiciones filosóficas, quiero rendir homenaje a un hombre que se suicidó a los 41 años a causa de la estupida moral anglosajona de los años 50. Os recomiendo encarecidamente leer algo acerca de Alan Turing, una persona extraordinaria que, quizás, podría haber aportado muchísimo más, de lo que ya aportó, a la Humanidad.
Deja una respuesta