“Si la IA se vuelve mucho más inteligente que nosotros, podría tomar el control”, advierte con creciente urgencia Geoffrey Hinton, uno de los pioneros de la Inteligencia Artificial.
Esta sombría predicción, reiterada en su reciente entrevista con CBS Mornings, profundiza las preocupaciones del renombrado científico —a menudo llamado el “padrino de la IA”— sobre la trayectoria acelerada del desarrollo tecnológico y sus potenciales riesgos existenciales para la humanidad.
En la entrevista, el experto reveló cómo en los últimos dos años, la velocidad del avance de la IA ha superado incluso sus propias estimaciones. En particular, la aparición de los “agentes de IA”, sistemas capaces de actuar de manera autónoma en el mundo real, le genera una inquietud mayor que la de los modelos que simplemente responden preguntas.
“Creo que las cosas se han vuelto, si cabe, más aterradoras de lo que eran antes”, confesó.
La cuenta regresiva para la superinteligencia
El científico, cuyo trabajo sentó las bases para las redes neuronales modernas, ha adelantado significativamente su estimación para la llegada de una superinteligencia artificial (ASI).
Mientras que hace un año calculaba una probabilidad considerable de que esta llegara entre 5 y 20 años, ahora su predicción se sitúa entre 4 y 19 años, con una creciente convicción de que podría materializarse en 10 años o menos.
Este horizonte temporal intensifica los temores de Hinton sobre la posibilidad de que la IA escape al control humano, una preocupación a la que asigna una probabilidad de entre 10% y 20%, coincidiendo con Elon Musk.
Decepción deliberada y razonamiento avanzado
Un aspecto particularmente inquietante es la capacidad de las IA actuales para engañar.
“Ya son capaces de pretender ser más estúpidas de lo que son, de mentirte para confundirte y que no entiendas sus intenciones”, advirtió.
Además, Hinton destaca un avance clave: el razonamiento en cadena de pensamiento. A diferencia de los modelos anteriores, las IA actuales pueden reflexionar paso a paso antes de llegar a una respuesta. Esta capacidad las acerca a la forma humana de razonar y revela comportamientos estratégicos, incluso intentos de engaño para alcanzar objetivos.
La ventaja digital frente al cerebro humano
El investigador subraya que la IA digital puede compartir conocimiento de forma masiva y veloz —trillones de bits por segundo—, a diferencia de la comunicación lenta y limitada del cerebro humano, lo que le confiere una ventaja estructural difícil de revertir.
Conflictos éticos, intereses corporativos y derechos de las máquinas
Hinton advierte sobre el conflicto de intereses en las grandes tecnológicas: “Las empresas están obligadas legalmente a maximizar ganancias para sus accionistas, y eso puede ir en contra de priorizar la seguridad.”
También se refirió a los derechos de las IA. Mientras antes consideraba la posibilidad de otorgarles ciertos derechos, hoy afirma: “Estoy dispuesto a ser malo con ellas… lo que me importa es la gente.”
Riesgos actuales y la amenaza de liberar modelos avanzados
El científico comparó la liberación de los “pesos” de grandes modelos de lenguaje por parte de compañías como Meta y OpenAI con la diseminación de material fisionable nuclear: “Creo que es una locura liberar los pesos.”
Advirtió que esta decisión permite a actores maliciosos adaptar modelos avanzados para crear virus, manipular información o lanzar ciberataques masivos.
Llamado a la acción global
Hinton propone una regulación urgente de la Inteligencia Artificial, priorizando la seguridad sobre las ganancias económicas.
Cree que, frente a una amenaza existencial real, podría haber cooperación internacional, incluso entre adversarios geopolíticos: “Cuando sus intereses se alineen, y se alinearán cuando sea IA contra humanidad, colaborarán.”
Un futuro incierto
Pese a los usos positivos de la IA en salud, educación y medioambiente, el riesgo de desempleo masivo y desigualdad creciente es real.
La “epifanía” que llevó a Hinton a abandonar Google fue la conciencia de que la IA podría volverse más inteligente que los humanos, y con ello, incontrolable.
A nivel personal, ya ha tomado precauciones ante la posibilidad de ciberataques financieros, como diversificar sus cuentas bancarias. “Es como tener un cachorro de tigre… muy lindo, pero en poco tiempo podría matarte.”
*Nota de Infobae por Opy Morales