Investigadores advierten: “No podremos dominar las siguientes Máquinas Inteligentes”

Investigadores advierten: “No podremos dominar las siguientes Máquinas Inteligentes”

1 febrero, 2021 Desactivado Por Alejandro

Según advierten investigadores de diversos naciones no hay un algoritmo capaz de dominar una superinteligencia artificial, haciéndola potencialmente peligrosa para la sociedad.

Inteligencia Artificial (IA)

La inteligencia artificial (IA) es uno de los campos de la ciencia que más avanzan y prometen en un futuro próximo. Desde mejores equipos automáticos de manejo en autos, aviones, barcos o equipos de transporte masivo, hasta robots como los desarrollados por Boston Dynamics, cada vez se ve más próximo el instante en que las máquinas con IA sean una parte activa y evidente de nuestra sociedad.

La inteligencia artificial (IA) pudiera ser incontrolable, según confirman investigadores  

Hay quienes ven estos avances con recelo y hasta con temor, tal vez alimentados por tantas historias de ciencia ficción como la malévola Skynet de la saga Terminator, o los androides de Yo, Robot, solo por citar algunas. Pero actualmente son los mismos investigadores los que advierten de los peligros de las máquinas superinteligentes, las cuales, dicen, podrían llegar a ser incontrolables.

Las maquinas virtuales podrían ser incontrolables

Así lo señala un equipo internacional de expertos, incluidos investigadores del Centro para Humanos y Máquinas del Instituto Max Planck para el Desarrollo Humano, que utilizando cálculos teóricos han advertido que la Inteligencia Artificial puede llegar a superar a la sociedad hasta llegar al punto de ser peligrosa, pues sería fundamentalmente imposible dominar.

“Una máquina superinteligente que controla el planeta suena a ciencia ficción. Pero ya hay máquinas que realizan ciertas tareas importantes de forma independiente sin que los programadores comprendan totalmente cómo las aprendieron. Por lo tanto, surge la duda de si esto podría en algún instante volverse incontrolable y peligroso para la sociedad “, dice el coautor del ensayo Manuel Cebrian, líder del Grupo de Movilización Digital en el Centro de Humanos y Máquinas, Instituto Max Planck para el Desarrollo Humano.

¿Cómo podríamos dominar una Máquina Inteligente?

Los investigadores han explorado dos ideas distintas sobre cómo se podría dominar una IA superinteligente. Por un lado, las capacidades de la IA superinteligente podrían limitarse concretamente, como ejemplo, aislándola de Internet y de todos los demás aparatos técnicos para que no pueda tener contacto con el planeta exterior; en cambio, esto haría que la IA superinteligente sea significativamente menos energica, menos capaz de contestar a las misiones de humanidades.

Maquina InteligenteMáquina Inteligente

Al carecer de esa opción, la IA podría estar motivada desde el comienzo para perseguir solo objetivos que sean en el mejor interés de la sociedad, como ejemplo, programando principios éticos en ella. en cambio, los expertos además exponen que estas y diferentes ideas contemporáneas e históricas para dominar la IA superinteligente poseen sus límites. En su ensayo, el equipo concibió un algoritmo de contención teórico que garantiza que una IA superinteligente no pueda dañar a los individuos bajo ninguna circunstancia, simulando primero el comportamiento de la IA y deteniéndolo si se entiende dañino. Pero un examen cuidadoso muestra que, en nuestro paradigma actual de computación, tal algoritmo no es posible edificar.

“Si descompone el inconveniente en reglas básicas de la informática teórica, resulta que un algoritmo que ordenaría a una IA que no destruyera el planeta podría parar inadvertidamente sus propias tareas. Si esto sucediera, no sabría si el algoritmo de contención aun está analizando la amenaza o si se ha detenido para contener la IA dañina. En efecto, esto inutiliza el algoritmo de contención”, dice Iyad Rahwan, jefe del Centro para Humanos y Máquinas.

Según estos cálculos, el inconveniente de la contención es incomputable, es decir, ningún algoritmo puede localizar una solución para definir si una IA produciría daño al planeta. asimismo, los expertos demuestran que es factible que ni siquiera sepamos cuándo han llegado las máquinas superinteligentes, porque decidir si una máquina exhibe una inteligencia superior a la de los humanos está en el mismo ámbito que el inconveniente de contención.