Share
Google+LinkedInPinterest

Stephen Hawking contra Skynet InteligenciaArtificial‬.

El considerado por muchos hombre más inteligente de la actualidad, escribió un artículo para The Independent en donde critica el avance inmoderado de la investigación relacionada con la construcción de Inteligencia Artificial (IA).
Stephen-Hawking
De acuerdo con Stephen Hawking, a pesar de que todavía se está lejos de crear mecanismos complejos de IA, los avances en ese sentido son alentadores, por lo que en un futuro cercano es muy probable que se consiga crear máquinas que tomarán decisiones de manera independiente. El físico cree esto significará  el punto más alto en la investigación científica de la humanidad, pero también el último gran logro que consiga el género humano, debido a que dar este salto tecnológico puede equivaler, a la larga, a acabar con nosotros mismos tal y como nos conocemos.
Hawking sostiene que si bien el avance en el campo de la IA puede traernos grandes avances a mediano plazo, la comunidad científica no ha creado mecanismos de control de un eventual sistema de inteligencia artificial complejo que puede ocasionar graves problemas a futuro.
2

“No hay ninguna ley física que impida que las partículas en un sistema de inteligencia artificial se re-ordenen a sí mismas para realizar cálculos más complejos de los que somos capaces de hacer los seres humanos. Es perfectamente posible que se produzca un salto radical e inesperado. Como Irving Good ya apuntó en 1965, un sistema de inteligencia artificial puede decidir mejorarse así mismo por su cuenta, dando lugar a lo que Vernor Vinge denominó una singularidad.”

El galardonado científico cree que, tal y como si se tratara de un relato de ciencia ficción, en determinado momento la IA puede sobrepasar el control de sus creadores y tomar control del mercado financiero y de los sistemas de defensa de los países más poderosos.

“No es difícil imaginar una tecnología semejante dominando completamente los mercados financieros, sobrepasando los diseños de sus propios creadores, manipulando líderes, o encontrando maneras de construir armas que no seríamos capaces ni de comprender. Aunque el impacto a corto plazo de un sistema de inteligencia artificial depende de quien lo controla, la cuestión a largo plazo es si un sistema así puede ser controlado por seres humanos.”

En la parte final de su artículo, Hawking afirma que es necesario crear mecanismos de control para la IA y comenzar a conscientizar a la población de sus posibles peligros.

“Estamos ante un futuro de incalculables posibilidades, oportunidades y riesgos. Es lógico pensar que los científicos están tomando todas las precauciones para asegurar el mejor resultado posible, ¿verdad? Pues no es así. ¿Si una civilización del espacio exterior nos enviara un mensaje diciendo: “Llegamos en unos años”, nuestra respuesta sería: “¡Muy bien! Avísenos cuando estén llegando para dejar las luces encendidas”? Probablemente no, pero eso es más o menos lo que está ocurriendo con la inteligencia artificial.”
Finalmente el físico teórico escribe que en la actualidad ya se debe comenzar a debatir seriamente las implicaciones del desarrollo de IA.

“Aunque sabemos que la I.A. tiene el potencial para ser el mayor acierto, o el peor error de la humanidad, no se están investigando seriamente sus implicaciones Las únicas organizaciones que están estudiando esto son el Centro Cambridge para el estudio del riesgo existencial, el Instituto para el futuro de la humanidad, el Centro de Investigación de Inteligencia Artificial, y el Instituto Vida Futura. Todos nosotros deberíamos preguntarnos desde hoy mismo qué puede hacerse para aprovechar lo mejor de la inteligencia artificial y evitar lo peor.”

¿Ustedes qué opinan? ¿Creen que Hawking está exagerando o que en verdad corremos el riesgo de padecer la dictadura de las maquinas inteligentes como en Terminator?
 

Fuente:http://codigoespagueti.com
Read More
156

Views