Sólo un puñado de científicos en la Tierra obtienen la distinción de ganar el Premio Nobel, un logro único en la vida grabado para siempre en los anales de la historia.
Esto hizo aún más notable que Geoffrey Hinton hablara durante poco más de un minuto antes de menospreciar al CEO de OpenAI durante una conferencia de prensa ad hoc convocada en honor a su premio.
Después de haber dormido sólo dos horas, el informático, claramente humillado, dijo que no tenía idea de que había sido nominado para el premio. Después de agradecer a dos de sus colaboradores clave a lo largo de los años (Terry Sejnowski y el fallecido David Rumelhart, a quienes llamó «mentores»), Hinton reconoció el papel que sus estudiantes de la Universidad de Toronto han desempeñado a lo largo de los años ayudándolos a lograr la obra de su vida.
«Continuaron haciendo grandes cosas», dijo el martes. “Estoy especialmente orgulloso de que uno de mis alumnos haya despedido a Sam Altman. Y creo que es mejor dejarlo ahí.
Se acerca el primer aniversario del golpe de juntas
Hinton se refería a Ilya Sutskever. El ex científico jefe de OpenAI se unió a Helen Toner y otros dos miembros del consejo de supervisión de la organización sin fines de lucro para despedir a su director ejecutivo en un golpe espectacular en noviembre pasado. Sutskever se arrepintió inmediatamente de su papel que puso a OpenAI en crisis, y Altman volvió a su puesto a los pocos días.
Hinton y Sutskever colaboraron con Alex Krizhevsky en 2012 para crear un algoritmo que pudiera identificar objetos en sus imágenes con un grado de certeza inaudito en ese momento. Apodado “AlexNet”, a menudo se le llama el Big Bang de la inteligencia artificial.
A menudo llamado uno de los padrinos de la inteligencia artificial, Hinton elogió el trabajo de sus colegas Yoshua Bengio y Yann LeCun antes de hacer repetidos comentarios autocríticos. Entre ellas se encontraba la admisión de que cuando era un joven estudiante había abandonado el estudio de la física -el campo en el que había sido reconocido por el comité del Nobel- porque no podía manejar las matemáticas.
La noticia del premio de Hinton llega apenas unas semanas antes del primer aniversario de la breve, sorprendente y finalmente fallida expulsión de Altman, así como del segundo aniversario del lanzamiento de ChatGPT a finales de noviembre de 2022.
El chatbot de IA generativa de OpenAI ha despertado una ola de interés en la tecnología, a medida que el público en general comenzó a darse cuenta por primera vez de que las máquinas podrían superar el intelecto humano en esta generación.
«Muchos buenos investigadores creen que en los próximos 20 años la inteligencia artificial será más inteligente que nosotros y debemos pensar detenidamente qué sucederá entonces», dijo Hinton el martes.
Preocupaciones por la seguridad de la IA
Altman es una figura controvertida en la comunidad de inteligencia artificial. Helen Toner, ex miembro de la junta directiva de OpenAI, lo llamó mentiroso y despojó de recursos a su equipo de seguridad de IA, según un líder del equipo ahora fallecido.
Actualmente, Altman está tratando de perder el estatus de organización sin fines de lucro de OpenAI mientras compite por monetizar su tecnología, creando profundas divisiones dentro de la organización. Esto provocó un éxodo de investigadores de la empresa centrados en alinear la inteligencia artificial general con los intereses de la humanidad como especie todavía dominante en la Tierra.
Cuando se le preguntó acerca de su comentario despectivo sobre Altman al comienzo de la sesión informativa, Hinton explicó su razonamiento.
«Con el tiempo resultó que Sam Altman estaba mucho menos interesado en la seguridad que en las ganancias», dijo, «y creo que es una pena».
Fortuna se ha puesto en contacto con OpenAI para solicitar comentarios.
Hinton pide una investigación urgente sobre la seguridad de la inteligencia artificial
A luminarias como Hinton, de 76 años, les preocupa que anteponer las ganancias a la ética sea intrínsecamente peligroso en la coyuntura actual.
Ya es difícil para los científicos predecir cómo los modelos de IA más avanzados de hoy, con sus billones de parámetros, llegarán realmente a sus resultados. De hecho, se están convirtiendo en cajas negras y, una vez que eso suceda, será cada vez más difícil garantizar que los humanos mantengan la supremacía.
“Cuando nos convertimos en cosas más inteligentes que nosotros mismos, nadie sabe realmente si seremos capaces de controlarlas”, afirmó Hinton, quien se comprometió a dedicar sus esfuerzos a defender la seguridad de la IA en lugar de liderar investigaciones de vanguardia.
Este riesgo de lo desconocido es la razón por la que la legislatura del estado de California propuso un proyecto de ley de seguridad de la IA que fue el primero de su tipo en los Estados Unidos. Sin embargo, inversores influyentes de Silicon Valley como Marc Andreessen presionaron fuertemente contra el proyecto de ley, que finalmente fue vetado por el gobernador Gavin Newsom el mes pasado.
Cuando se le preguntó sobre el riesgo potencialmente catastrófico que representa la IA desbocada, Hinton admitió que no había certeza.
«Por el momento no sabemos cómo evitarlos todos», dijo, «por lo que necesitamos urgentemente más investigaciones».
Ficha de datos: Manténgase actualizado sobre el negocio de la tecnología con análisis en profundidad de los nombres más importantes de la industria.
Regístrese aquí.