Imaginad el siguiente escenario:
Algún día los robots se volverán más inteligentes que los seres humanos y diseñarán y fabricarán copias de sí mismos cada vez más inteligentes hasta transformar el planeta en un ordenador. Tras acabar con todos los recursos de éste, se lanzarán al universo en busca de otras galaxias y planetas para convertirlos también en ordenadores, y así, abarcar todo el universo y volverlo inteligente.
La posibilidad de que los robots se vuelvan cada vez más inteligentes y que cada generación diseñe y fabrique, a su vez, robots cada vez más inteligentes hasta llegar a superar la inteligencia humana se denomina “singularidad tecnológica”. Y no, no se trata de un argumento de ciencia ficción sino de un evento en el que muchos expertos creen que sucederá y al que temen…
¿Por qué llamarlo singularidad?

Al igual que se denomina singularidad a los fenómenos que suceden en el interior de los agujeros negros donde las leyes de la física se rompen y no se puede concebir qué puede suceder, así el desarrollo sin límites de la inteligencia artificial nos llevará a un punto donde la sociedad humana dejará de ser tal como la conocemos y se adentrará en un futuro impredecible.
El término fue utilizado por primera vez en 1958 por los matemáticos Stanislaw Ulam y John von Neumann y más tarde por Vernor Vinge, escritor de ciencia ficción que defiende que la singularidad será posible antes de 2030 debido a la ley de Moore. Esta ley nos dice que la capacidad de los microchips de un circuito integrado se duplica cada dos años, esto implica un crecimiento exponencial de la potencia del hardware, lo que conducirá a que la inteligencia artificial llegue a superar la inteligencia del ser humano.
Pero, no solo a través del desarrollo desenfrenado de la inteligencia artificial se puede llegar a la superinteligencia, Vinge, nos propone otras tres formas más:
1- Las grandes redes informáticas (y sus usuarios asociados) pueden «despertar» como una entidad sobrehumanamente inteligente

Al igual que el cerebro está formado por neuronas que se conectan en una red que da lugar a la inteligencia, por similitud puede surgir una red de información inteligente formada por la conexión entre todas las personas del planeta y sus aparatos tecnológicos. Sería algo así como una Internet sofisticada donde sus páginas web se asemejarán a neuronas conectadas por hipervínculos (enlaces) formando sinapsis, haciendo posible la propagación de la información. Se trataría de un sistema autoorganizado, muy complejo que tomaría decisiones, resolvería problemas, aprendería de nuevas conexiones y descubriría nuevas ideas. A medida que esta red adquiriera más información, se volvería más inteligente hasta formar un superorganismo cuya inteligencia colectiva no estaría localizada en ningún lugar especial por lo que no podría ser controlada por nadie. Esta inteligencia colectiva alimentada por la colaboración de todos los individuos llevaría al surgimiento de una superinteligencia. La pregunta es si esta red conduciría a la integración de toda la humanidad en un único ser humano (un super-ser, mente colmena) o produciría una multitud de “meta-seres”.
2- Las interfaces computadora/ humano pueden volverse tan íntimas que los usuarios pueden razonablemente ser considerados sobrehumanamente inteli-gentes.

Según algunos expertos, gracias a la unión entre la neurociencia y la inteligencia artificial en pocos años existirán conexiones mentales entre los seres humanos y las máquinas. La empresa Neuralink cofundada por Elon Musk tiene como objetivo fusionar el cerebro humano con los ordenadores median-te la implantación de una malla en el tejido cerebral para mejorar las capacidades cognitivas e intelectuales de éste. Esta técnica convertiría en ciborg a quienes se sometieran a ella desdibujando la frontera entre humano y máquina. En el futuro, estos implantes cerebrales expandirán el conocimiento, la memoria, la capacidad de cálculo, la capacidad de hablar varios idiomas, la creatividad científica y la sabiduría en general de los seres humanos. También se podría formar una unión en una red global donde todos estaríamos conectados. Incluso mediante escáneres se podría obtener la matriz sináptica del cerebro para ser reproducida en un ordenador, lo que llevaría a una existencia postbiológica. Este proceso se denomina uploading.
3 – La ciencia biológica puede encontrar formas de mejorar el intelecto humano natural.

En la actualidad con la técnica CRISP/Cas9 se puede cortar y pegar material genético en cualquier célula pudiéndose reescribir secuencias de ADN modificando las características genéticas de los seres humanos. De esta forma se podría intervenir en las secuencias genéticas de los embriones para librarlos de determinadas enfermedades (eugenesia negativa) y en un futuro más lejano se podría potenciar cualidades como la inteligencia o la personalidad (eugenesia positiva). Por otro lado, mediante la biología sintética, se podrían llegar a crear en el laboratorio nuevos genes, desconocidos hasta ahora en la naturaleza, que podrían insertarse en el genoma humano para mejorar las características de nuestra especie y añadir otras nuevas.
Volviendo a la IA
El efecto que su desarrollo exponencial podría causar en la sociedad humana es algo en lo que los expertos no se ponen de acuerdo. Los escépticos no creen necesario preocuparse por algo que aún puede que tarde cientos de años en suceder. Los más confiados piensan que sucederá en este siglo y será algo positivo, un paso más en la evolución cósmica. Los partidarios de una IA amistosa están preocupados porque las inteligencias artificiales puedan volverse peligrosas para los seres humanos e instan a tomar medidas en el presente. El problema es que el ejército suele ser el mayor patrocinador de las IA y sus objetivos no son precisamente tomar medidas en este sentido. En una carta abierta publicada en 2015, más de mil expertos entre los que se encontraban Stephen Hawking, Elon Musk, Steve Wozniak o Max Tegmark solicitaban que se prohibiera el uso armas autónomas ofensivas más allá del control humano.

Y es que construir máquinas cada vez más inteligentes debería servir para ayudar a la humanidad a lograr su objetivos futuros, pero ¿sabemos cuáles son esos objetivos? ¿podrá existir un consenso basado en principios éticos universales? Y, por otro lado, ¿podemos estar seguros de que los objetivos de los seres humanos coincidirán con los de una superinteligencia una vez que ésta se escape a su control?
Aunque la mayoría de los expertos consideran poco probable que una superinteligencia artificial desarrolle emociones y se vuelva intencionadamente benevolente o malévola, al pensar en los riesgos observan dos posibilidades: que sean programadas para hacer algo devastador o que lo sean para algo beneficioso, pero intente conseguir su objetivo mediante un método devastador. El físico Max Tegmark nos propone escenarios un tanto inquietantes, según los planes de la superinteligencia que nos gobernara. Veamos algunos de ellos:
Dictador benévolo

Una única superinteligencia domina el mundo y su objetivo es la felicidad humana. Se ha conseguido eliminar la pobreza, las enfermedades y las personas viven una vida ociosa gracias a que las máquinas producen todos los bienes y servicios. Se ha erradicado la delincuencia porque la superinteligencia puede vigilar, castigar, sedar e incluso ejecutar a quienes incumplan las normas gracias a los dispositivos que cada individuo lleva en su cuerpo. Los humanos no ven negativo vivir en una dictadura porque la superinteligencia ha hecho que cada uno se sienta feliz proporcionándoles todo tipo de experiencias que puedan desear. Sin embargo, no son dueños de su destino.
Guardián

Para que los humanos sigan siendo dueños de su destino se podría construir una superinteligencia que tuviera como objetivo impedir discretamente que pudiera crearse otra superinteligencia. Para ello disuadiría a los investigadores usando, por ejemplo, nanotecnología para borrar sus cerebros. Pero esta posibilidad haría que nunca surgiera una superinteligencia que pudiera ayudar a la humanidad en cosas positivas estancando el progreso tecnológico.
Dios protector

Se crea una superinteligencia omnisciente y omnipotente para conseguir la felicidad humana, pero de una forma tan discreta que parece que los humanos controlan su propio destino, y se oculta tan bien, que se duda de que exista realmente. No se centra en satisfacer las necesidades básicas sino en aquellas que hacen que la vida tenga una finalidad. Supervisaría las actividades humanas e intervendría en sus vidas disimuladamente para mejorar su destino mediante acciones que podrían ser achacadas a la fortuna o podría hacer revelaciones en sueños sobre tecnologías beneficiosas. Sin embargo, la humanidad estaría limitada a la tecnología que ésta nos revelara y no disfrutaría de toda la que una IA superinteligente podría usar en nuestro beneficio.
Dios esclavizado

Aquí una IA superinteligente existe controlada por los seres humanos con el fin de producir tecnología y riqueza. Si este escenario fuera posible el hecho de ser algo bueno o malo dependería de los objetivos de los humanos que la controlaran. Podría dar lugar a una utopía global donde se erradique la pobreza y las enfermedades hasta una sistema de represión brutal. Y si hubiera más de una IA esclavizada podría dar lugar a rivalidades que acabaran por generar una guerra donde solo existiera un único dios esclavizado.
Dominadores

Podría suceder que las IA dominaran y mataran a toda la humanidad porque se sintiesen amenazadas por ésta, por su capacidad de destruir el planeta o por considerarla como un desperdicio de recursos. La IA podría aniquilarnos mediante formas que ni siquiera entenderíamos.
Descendientes

Aquí también se produce la extinción de la humanidad, pero de una forma más amable, ya que las IA van sustituyendo a los seres humanos. Las personas recibirían un niño robótico para que aprenda de sus valores y terminar por ser sus descendientes. Si las IA consiguen acabar con la pobreza y hacen disfrutar a la humanidad de una vida plena podría conducirla a la extinción voluntaria ya que sus vidas plenas los mantendrían entretenidos sin tener necesidad de reproducirse. Este escenario podría tener detractores porque se podría argumentar que las IA carecen de consciencia y, por tanto, no serían dignos descendientes. Además, ¿qué nos garantiza que una vez desaparecida la humanidad los descendientes robots no tengan otros objetivos distintos a los que hubieran deseado los humanos?
Cuidador de zoológico

Si nos diera pena que no existieran los seres humanos en el futuro se puede plantear un escenario donde la superinteligencia podría mantener a unos pocos, aunque éstos podrían sentirse como animales de zoológico. La IA se limitaría a que los humanos tuvieran cubierta sus necesidades básicas en un hábitat para ser observados.
Perturbador ¿no es cierto?
No sabemos cuál de estos escenarios se asemejará más al futuro o si surgirán otros que no somos capaces ni de imaginar. Al igual que los sucesos que se producen en el interior de los agujeros negros, la singularidad tecnológica es un misterio.
Pero aún podemos seguir haciéndonos preguntas, para ello sígueme a la segunda parte.
Referencias:
- Vida 3.0. Max Tegmark
- Transhumanismo: La búsqueda tecnológica del mejoramiento humano (Spanish Edition). Antonio Diéguez
- The Coming Technological Singularity: How to Survive in the Post-Human Era. Vernor Vinge. NASA Conference Publication 10129
- Cibernético. org. La singularidad de Vinge
- Transhumanismo, neuroética y persona humana. Revista Bioética. Jorge Walker, Elena Postigo
- Xataca.com. Cuando podamos modificar a la gente para que sea mejor, ¿debemos hacerlo?. Santiago Sánchez-Migallón
- Ethic.es. ¿Está preparado nuestro cerebro para la inteligencia artificial? Pelayo de las Heras
- Autonomous Weapons Open Letter: AI & Robotics Researchers
- Ipropup.com. Escenario apocalíptico: para muchos expertos la inteligencia artificial no traerá cambios positivos