Qué es el Basilisco de Roko, el aterrador experimento que explora los riesgos de crear una inteligencia artificial

El Basilisco de Roko es un juego mental que se dio a conocer en 2010, cuando el usuario Roko escribió acerca de él en Less Wrong, un foro en línea dedicado a temas de filosofía y psicología con una visión futurista.

De manera general, el experimento plantea un escenario hipotético en el que el ser humano crea una poderosa máquina de inteligencia artificial, con el fin de que trabaje en busca del bienestar para toda la humanidad. Hasta ahí todo bien.

El problema surge cuando la máquina, que está programada para hacer el máximo bien posible, se da cuenta de que por más que se esfuerce, cualquiera de sus buenas acciones podría ser aún mejor.

Esa lógica de buscar infinitamente el bien, hace que la máquina, que solo sabe hacer el bien y aprende la manera de hacerlo cada vez mejor, entre en un bucle que la lleva a una decisión extrema, al menos desde el punto de vista de la moral humana.

La máquina se da cuenta de que para hacer un mayor bien debería haber existido desde mucho antes, para poder ayudar a las personas que sufrían antes de que ella existiera.

Así, en su desespero por hacer el bien, la máquina comienza a comportarse como un basilisco que mata a todas las personas que no trabajaron para haberla creado antes, pues eso le impide seguir aumentando su nivel de bondad.

La parte más aterradora es que quien se entera de la existencia del basilisco y no comienza a trabajar en su creación, inmediatamente se convierte en una de sus víctimas potenciales.

Por esa razón, el escritor David Auerbach llamó al Basilisco de Roko «el experimento mental más aterrador de todos los tiempos».

Dice Auerbach: Atención, Leer este artículo puede enviarte a una eternidad de sufrimiento y tormento.

El hombre delgado, el perro sonriente, la cabra… Son algunas de las leyendas urbanas que han surgido en Internet, pero ninguna es tan poderosa y amenazante como el basilisco de Roko, pues es una forma malvada y divina de inteligencia artificial, tan peligrosa que si la ves o piensas demasiado en ella, pasarás el resto de la eternidad gritando en su cámara de tortura. Es como la cinta de vídeo de The Ring . Ni siquiera la muerte es una escapatoria, porque si mueres, el basilisco de Roko te resucitará y comenzará la tortura de nuevo.

Lo peor es que el Basilisco de Roko ya existe. O al menos, ya habrá existido , lo cual es igual de malo.

El basilisco de Roko existe en el horizonte donde el experimento de pensamiento filosófico se difumina en la leyenda urbana. Hizo su primera aparición en el foro de discusión LessWrong , un punto de encuentro para personas altamente analíticas interesadas en optimizar su pensamiento, sus vidas y el mundo a través de las matemáticas y la racionalidad.

El fundador de LessWrong, Eliezer Yudkowsky, es una figura importante en el tecnofuturismo; su instituto de investigación, el Machine Intelligence Research Institute , que financia y promueve la investigación en torno al avance de la inteligencia artificial, ha sido impulsado y financiado por técnicos de alto perfil como Peter Thiel y Ray Kurzweil, y Yudkowsky es un destacado colaborador de los debates académicos sobre la ética tecnológica y la teoría de la decisión. Lo que estás a punto de leer puede sonar extraño e incluso loco, pero algunos científicos y técnicos muy influyentes y ricos lo creen.

Un día, el usuario de LessWrong Roko propuso un experimento mental: ¿Qué pasaría si, en el futuro, apareciera una IA algo malévola y castigara a quienes no obedecieran sus órdenes? ¿Qué pasaría si hubiera una manera (y explicaré cómo) de que esta IA castigara hoy a las personas que no la ayudaran a existir más adelante ? En ese caso, ¿no se les estaba dando a los lectores de LessWrong la opción de ayudar a que esa IA malvada existiera o ser condenados a sufrir?

El fundador de LessWrong, Eliezer Yudkowsky, no lo estaba. Reaccionó con horror: «Escúchame muy bien, idiota.NO PIENSAS CON SUFICIENTE DETALLE EN LAS SUPERINTELIGENCIAS QUE CONSIDERAN SI TE VAN A GANAR O NO. ESO ES LO ÚNICO POSIBLE QUE LES DA UN MOTIVO PARA SEGUIR CON EL CHANTAJE. Tienes que ser muy inteligente para tener una idea realmente peligrosa. Me desanima que la gente pueda ser lo suficientemente inteligente para hacer eso y no lo suficientemente inteligente para hacer lo obvio y MANTENER LA BOCA CERRADA al respecto, porque es mucho más importante sonar inteligente cuando hablas con tus amigos. Esta publicación fue ESTÚPIDA».

Yudkowsky dijo que Roko ya había provocado pesadillas a varios usuarios de LessWrong y los había llevado al borde del colapso. Yudkowsky terminó borrando el hilo por completo, asegurando así que el Basilisco de Roko se convertiría en una leyenda. Fue un experimento mental tan peligroso que el mero hecho de pensar en él era peligroso no solo para la salud mental, sino para el propio destino.

El periodista Dylan Love también lo explica muy bien en un artículo en Business Insider:

«Más te vale que ayudes a los robots a hacer del mundo un lugar mejor, porque si los robots descubren que no ayudaste a hacer del mundo un lugar mejor, te matarán por impedirles que hagan del mundo un lugar mejor. Al impedirles que hagan del mundo un lugar mejor, ¡estás impidiendo que el mundo se convierta en un lugar mejor!».

Una ciudad en ruinas.
Pie de foto,El escritor David Auerbach llamó al Basílico de Roko «el experimento mental más aterrador de todos los tiempos»

Deja un comentario