Inteligencia artificial, trucos de magia y el fin del mundo (tal y como lo conocemos)

Un equipo científico de la Universidad Queen Mary, en Londres, ha diseñado un software al que enseñar trucos de magia. El programa aprende las normas que rigen esos trucos y crea variantes y juego nuevos. Uno de los juegos que se le enseñó al programa es un puzle con una

Artículos recientes

AI

Un equipo científico de la Universidad Queen Mary, en Londres, ha diseñado un software al que enseñar trucos de magia. El programa aprende las normas que rigen esos trucos y crea variantes y juego nuevos.

Uno de los juegos que se le enseñó al programa es un puzle con una serie de figuras dibujadas. Si se reordenan de otra manera las piezas, el número de figuras se reduce, por un efecto óptico. En el segundo de los juegos, la máquina “adivina” qué carta tiene en su mano el voluntario.

El trasfondo del estudio, publicado en la revista Frontiers in Psychology, tiene una base psicológica y matemática, aún así resulta apasionante comprobar que un programa es capaz de “crear” algo nuevo con lo que engañar la percepción humana, aunque se trate de una variante basada en cálculos numéricos.

El equipo de la Queen Mary ha hilado aún más fino, ya que el software incluso consigue, o al menos pretende, convencer a su audiencia que los nuevos trucos son creación de una persona. Es decir, que intenta simular ser humano, una de las aspiraciones clásicas de la inteligencia artificial, y el punto de no retorno establecido por el matemático Alan Turing para determinar que una máquina piensa.

Musk se preocupa

Esta simpática noticia ha llegado a la prensa al mismo tiempo que se filtraba un comentario del empresario e inventor Elon Musk, CEO de la compañía de coches eléctricos Tesla. Musk sembraba la alarma en Edge.org, donde hablaba del peligro de la inteligencia artificial. Según él, en un plazo de cinco a diez años, la rapidez de los avances en este campo supondrá un factor de riesgo para la seguridad mundial.

Musk no dio muchos más detalles. De hecho, sus frases se borraron de la página, no se sabe si por decisión suya o de los administradores de la web. Lo más inquietante, quizá, es su aviso de que “Las empresas líderes en IA han dado grandes pasos para garantizar la seguridad. Ellos reconocen el peligro, pero creen que pueden dar forma y controlar las superinteligencias digitales y prevenir que las malignas se escapen a Internet”.

No podemos más que hacer suposiciones acerca de qué empresas líderes son esas, a qué se refiere con “superinteligencias digitales”, y qué entiende por “escapar a internet”. ¿Quiere decir Musk que pueden filtrarse en la red con fines maliciosos por parte de hackers? ¿O que esas superinteligencias serán capaces de tomar decisiones por sí mismas y acceder a internet por su cuenta?

A Elon Musk se le ve cada vez más preocupado a este respecto. El pasado agosto comentó en Twitter que la IA es “potencialmente más peligrosa que las armas nucleares”, y en una entrevista, que consistía en la mayor amenaza existencial para el hombre, a la que incluso comparó con “invocar al demonio”.

Una duda razonable

El mediático empresario habla en términos apocalípticos, pero algunos expertos en ingeniería y ciencia computacional admiten que es razonable mantener un cierto nivel de precaución, pero no respecto a las máquinas en sí, sino por los responsables que las manejen.

En palabras del profesor Yaser Abu-Mostafa, del Instituto Tecnológico de California, la situación de una máquina tomando el poder y destruyendo el mundo no es más que un cuento de ciencia ficción. Donde reside el riesgo es utilizar las capacidades de una IA en provecho propio. Es decir, una máquina jamás hará nada que el ser humano le prohíba hacer. El peligro viene, como siempre, del hombre, explica el profesor, que pone por ejemplo la investigación nuclear.