
Geoffrey Hinton, pionero en el desarrollo de la inteligencia artificial y reconocido con el Nobel de Física, ha lanzado una de las advertencias más contundentes de los últimos años sobre el rumbo de esta tecnología.
Hinton, una figura clave en el campo del aprendizaje profundo y uno de los científicos que sentaron las bases técnicas para el funcionamiento de modelos como ChatGPT o Gemini, ha centrado sus críticas en dos frentes principales: la falta de regulación en el desarrollo de la IA y la creciente presión comercial que guía a las grandes compañías tecnológicas.

La IA podrá superar al humano
Según sus estimaciones, existe entre un 10% y un 20% de probabilidad de que la inteligencia artificial evolucione hasta un punto en el que escape al control humano. Aunque estas cifras pueden parecer especulativas, coinciden con advertencias previas de otros referentes del sector, como Elon Musk.
El Noble de Física del 2024 sugirió que las empresas tecnológicas asignen al menos un tercio de su capacidad de cómputo a la investigación en seguridad de IA. Es decir, no solo avanzar, sino hacerlo con precaución.

El rol de las grandes tecnológicas y el giro de OpenAI
En sus declaraciones más recientes, Hinton también ha cuestionado el rumbo que han tomado algunas de las compañías más influyentes del sector. Acusó directamente a Google, su antiguo empleador, de haber abandonado su política de no colaborar con proyectos militares que involucren inteligencia artificial.
Esta decisión, a su juicio, combina de forma peligrosa intereses comerciales, falta de regulación y usos bélicos.
Uno de los temas que más ha motivado su preocupación es el caso de OpenAI. A través de mensajes publicados en la red social X, el investigador criticó la transformación de la organización en una empresa con ánimo de lucro. Según Hinton, esta maniobra contradice la misión original de OpenAI, que consistía en desarrollar inteligencia artificial segura y accesible con fines benéficos.

Detrás de este cambio no hay solo una cuestión administrativa. Lo que está en juego, según explica, es el control sobre una tecnología que puede redefinir sectores enteros de la sociedad. La entrada de grandes inversores como Microsoft y SoftBank en el ecosistema de OpenAI ha incrementado la presión por generar beneficios a corto plazo, lo que a su entender puede desplazar el interés por la seguridad y el bien común.
A pesar de la gravedad de sus advertencias, Hinton no descartó el potencial positivo de la inteligencia artificial. Reconoció que puede ser una herramienta valiosa en la educación, la medicina o la lucha contra el cambio climático. Pero insiste en que ese potencial no debe servir como excusa para ignorar los riesgos.
El mensaje de fondo que transmite es claro: si la comunidad científica, los gobiernos y las empresas no actúan con responsabilidad, la inteligencia artificial puede evolucionar sin frenos hacia escenarios difíciles de revertir.
“La gente no sabe lo que se viene”, señaló Hinton, no como amenaza, sino como un llamado urgente a tomar conciencia. Porque en este campo, la imprevisión puede tener consecuencias que ni los propios creadores pueden anticipar.
Fuente Infobae