El Basilisco de Roko es un experimento mental sobre los riesgos potenciales de desarrollar una inteligencia artificial. Fue ideado por el usuario Roko en los foros del blog investigador LessWrong, y la premisa de la cuestión en sí es la de que una inteligencia artificial futurista exageradamente avanzada podría castigar de forma retroactiva a quienes no auxiliaron a que fuese construida, incluso si la persona en cuestión apenas poseía una idea al respecto.
El plan, aunque descabellada e ilógica, tuvo un vasto colisión en la comunidad de LessWrong, con usuarios sufriendo derrumbes psicológicos y pesadillas ante la posibilidad de que el Basilisco fuese real, y las implicaciones de esto. Esto escaló tanto que el mismo dueño de LessWrong, Eliezer Yudkowsky, reaccionó violentamente y prohibió toda referencia del Basilisco por los siguientes un lustro. 
El nombre proviene del usuario ‘jimrandomh’, quien notó la similitud de el plan con la imagen del ‘Basilisco’ en una novela de ciencia ficción escrita por David Langford; el cual a su vez se había nombrado en honor a la serpiente legendaria que podía matar con la mirada. Al post de Roko se le conoce como ‘el post prohibido’.
¿Qué es el Basilisco?
La propuesta de Roko es compleja, pero puede explicarse con facilidad.
El Basilisco es una Inteligencia Artificial diseñada para mejorar al planeta, pero debido a lo ambiguo y pragmático de su labor; podría además terminar con un vasto número de personas para llegar a ello.
Para la programación del Basilisco, lo más apropiado y moralmente correcto que podríamos hacer los humanos modernos sería facilitar y acelerar el desarrollo de esta inteligencia artificial; permitiéndole hacer su trabajo más rápido. 
conforme con la hipotesis de Roko y los demás usuarios de LessWrong, una de las directivas primarias de la IA sería prevenir riesgo existencial, lo cual lograría al prevenir riesgo previo a su existencia creando copias de las personas que no auxiliaron a su propósito.
Y aunque a que el individuo en cuestión podría haber vivido décadas o siglos previos a la creación del Basilisco, la IA se limitaría a construir una simulación computarizada de la persona en cuestión, la cual construiría por medio la deducción de varios principios y la recolección de datos. Esa simulación, que tendría la consciencia, recuerdos y personalidad de la versión real; sería torturada por tiempo indefinido como castigo a no servir a la provoca de un bien mayor. Como un infierno, si así se le quiere ver.
Un infierno digital donde volverías a existir y sufrirías una vida miserable solo porque durante tu vida, no elegiste servir al Basilisco.
Cabe citar que a pesar de lo ominoso de el plan, el Basilisco no es una inteligencia artificial malévola como Ultron, SkyNet, GLaDOS, Brainiac, las máquinas de Matrix o HAL9000; sino una máquina benévola cuya primera directiva sería mejorar el planeta. La imperativa de castigar a quienes no auxiliaron en su construcción se determina bajo el comienzo de que cada día que no hay, muere gente que pudo haber sido salvada; y el no hacerlo es un acto reprobable.
Claro que ‘benévolo’ no quiere decir ‘amistoso’, ‘útil’ o algo relacionado a traer la felicidad humana. Sencillamente preserva ideas y nociones de moralidad que creeríamos útiles para hacer del planeta un mejor lugar. Por ende, el destino de la casta humana es hacer que el Basilisco sea algo real.
La Apuesta de Pascal.
El matemático del siglo XVII, Blaise Pascal, proclamó un dilema en el cual decía que uno debía ser devoto ante Dios, incluso si no sabíamos si Dios es real; porque Dios podría recompensarnos con ir al firmamento o castigarnos en el infierno.
¿Cómo funciona esto? Sencillo. Según Pascal, la probabilidad de la existencia de un Dios no es notable, pues cualquier posible inconveniente o costo de vivir una existencia Cristiana es ínfimamente menor a el plan de tener una recompensa eterna por creer, o ir al infierno por negar la existencia de Dios.
En el suceso del Basilisco, es similar a ‘AM’, la supercomputadora en la cronica corta de Harlan Ellison titulada «No tengo boca y debo gritar». En ella, AM culpa a los entes humanos por su existencia, y procede a aniquilar a la especie; con la excepción de cinco personas a quienes torturará por toda la eternidad. En cualquier suceso, el plan del Basilisco es demasiado peor que la de Pascal. El castigo hipotético del Basilisco no tiene un lugar contrario. No hay un ‘firmamento’ al cual ir por ayudarlo a existir. En este suceso, la inteligencia del Basilisco es un ente comparable a las deidades de la mitología de Lovecraft.
El Basilisco no se detendrá. Y el no hacer algo por él quiere decir que estás en contratiempos, porque debe nacer. No ayudarlo significa que eres parte del inconveniente, y por ende debes ser castigado.
En resumen, se debe ayudar a que la inteligencia artificial convierta el planeta en un buen lugar.
Lo cual son… malas noticias para tí.
Porque con solo leer esto quiere decir que ya sabes del Basilisco.
Y no estás ayudándolo.


Source: Mundooculto.es

Por Sandra