El considerado por muchos hombre más inteligente de la actualidad, escribió un artículo para The Independent en donde critica el avance inmoderado de la investigación relacionada con la construcción de Inteligencia Artificial (IA).

De acuerdo con Stephen Hawking, a pesar de que todavía se está lejos de crear mecanismos complejos de IA, los avances en ese sentido son alentadores, por lo que en un futuro cercano es muy probable que se consiga crear máquinas que tomarán decisiones de manera independiente. El físico cree esto significará el punto más alto en la investigación científica de la humanidad, pero también el último gran logro que consiga el género humano, debido a que dar este salto tecnológico puede equivaler, a la larga, a acabar con nosotros mismos tal y como nos conocemos.
Hawking sostiene que si bien el avance en el campo de la IA puede traernos grandes avances a mediano plazo, la comunidad científica no ha creado mecanismos de control de un eventual sistema de inteligencia artificial complejo que puede ocasionar graves problemas a futuro.
“No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorarse así mismo por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad.”
">
El galardonado científico cree que, tal y como si se tratara de un relato de ciencia ficción, en determinado momento la IA puede sobrepasar el control de sus creadores y tomar control del mercado financiero y de los sistemas de defensa de los países más poderosos.
En la parte final de su artículo, Hawking afirma que es necesario crear mecanismos de control para la IA y comenzar a conscientizar a la población de sus posibles peligros.
Comentarios (0)
Sé el primero en comentar.
Deja un comentario