¿Qué diablos está pasando con OpenAI?

Nada tiene tanto éxito como el éxito, pero en Silicon Valley nada causa más revuelo que un goteo constante hacia la puerta.

La salida de Mira Murati, directora de tecnología de OpenAI, anunciada el 25 de septiembre, hace que en Silicon Valley se muevan las lenguas de que no todo está bien en Altmanland, especialmente porque las fuentes dicen que se fue porque había renunciado al intento de reformar o desacelerar la empresa. dentro de. A Murati se le unieron en su salida de la empresa de primer nivel dos mentes científicas destacadas, el investigador principal Bob McGrew y el investigador Barret Zoph (quien ayudó a desarrollar ChatGPT). Todos se van sin una oportunidad conocida de inmediato.

Más del reportero de Hollywood

El drama es a la vez personal y filosófico y llega al corazón de cómo se moldeará la era de la inteligencia artificial.

Todo se remonta a noviembre, cuando una mezcla del supuesto estilo de gestión de Sam Altman y las preguntas de seguridad sobre un proyecto ultrasecreto llamado Q* (posteriormente rebautizado como Strawberry y lanzado el mes pasado como o1) empujó a algunos miembros de la junta directiva a tratar de expulsar al co- fundador. Lo consiguieron, pero sólo durante unos días. El rostro del movimiento de la IA, de 39 años, logró recuperar el control de su bulliciosa empresa, gracias en gran parte a Microsoft de Satya Nadella, que posee el 49% de OpenAI y no quería que Altman se fuera a ninguna parte.

La junta se reorganizó para que fuera más favorable a Altman y varios directores que se oponían a él fueron obligados a dimitir. Incluso un alto ejecutivo desconfiado de sus motivos, el cofundador y director científico de OpenAI, Ilya Sutskever, acabaría por marcharse. El propio Sutskever estaba preocupado por el “aceleracionismo” de Altman: la idea de impulsar el desarrollo de la inteligencia artificial a cualquier precio. Sutskever se fue en mayo, según una persona que lo conoce El periodista de Hollywood De hecho, había dejado de participar en la empresa después del fallido golpe de noviembre. (Sutskever aterrizó con creces: acaba de recaudar mil millones de dólares para una nueva empresa de seguridad de inteligencia artificial).

Sutskever y otro alto miembro del personal, Jan Leike, habían dirigido un equipo de “superalineación” encargado de predecir y evitar peligros. Leike se fue al mismo tiempo que Sutskever y el equipo se disolvió. Como muchos otros empleados, Leike se unió desde entonces a Anthropic, el rival de OpenAI que se considera más consciente de la seguridad.

Murati, McGrew y Zoph son las últimas fichas de dominó en caer. Murati también estaba preocupado por la seguridad, un término industrial para la idea de que los nuevos modelos de IA pueden plantear riesgos a corto plazo, como sesgos ocultos, y peligros a largo plazo, como los escenarios de Skynet, y que, por tanto, deberían someterse a pruebas más rigurosas. (Esto se considera especialmente probable con el logro de la inteligencia artificial general, o AGI, la capacidad de una máquina para resolver problemas tan bien como un ser humano que podría lograrse en sólo 1 o 2 años).

Pero a diferencia de Sutskever, después del drama de noviembre, Murati decidió quedarse en la compañía en parte para tratar de frenar los esfuerzos aceleracionistas de Altman y del presidente Greg Brockman desde dentro, según una persona familiarizada con el funcionamiento de OpenAI que pidió no ser identificada porque estaban No estoy autorizado a hablar sobre la situación.

No está claro qué llevó a Murati al límite, pero el lanzamiento de o1 el mes pasado puede haber contribuido a su decisión. El producto representa un nuevo enfoque que apunta no sólo a sintetizar información como lo hacen muchos grandes modelos de lenguaje actuales (“reescribir el discurso de Gettysburg como una canción de Taylor Swift”) sino también a razonar sobre matemáticas y problemas de codificación como ser humano. Quienes se preocupan por la seguridad de la IA han instado a que se realicen más pruebas y se adopten medidas de seguridad antes de que dichos productos se hagan públicos.

El llamativo lanzamiento del producto también se produce al mismo tiempo, y de alguna manera en parte como resultado de, la transición completa de OpenAI a una empresa con fines de lucro, sin supervisión sin fines de lucro y con un CEO en Altman que tendrá acciones como cualquier otro. fundador. Este cambio, que también favorece el aceleracionismo, también ha preocupado a muchos de los ejecutivos salientes, incluido Murati, afirmó la persona.

Murati dijo en una publicación en X que «este momento se siente bien» para alejarse.

La preocupación ha llegado a ser tan grande que algunos ex empleados están dando la alarma en los principales espacios públicos. William Saunders, un ex miembro del personal técnico de OpenAI, testificó ante el Comité Judicial del Senado el mes pasado que dejó la compañía porque preveía un desastre global si OpenAI continuaba por su camino actual.

“La AGI provocaría cambios significativos en la sociedad, incluidos cambios radicales en la economía y el empleo. AGI también podría causar el riesgo de daños catastróficos a través de sistemas que realizan ciberataques de forma autónoma o ayudan en la creación de nuevas armas biológicas”, dijo a los legisladores. “Nadie sabe cómo garantizar que los sistemas AGI sean seguros y estén controlados… OpenAI dirá que están mejorando. Yo y los demás empleados que dimitieron dudamos de que estén listos a tiempo». Un portavoz de OpenAI no respondió a una solicitud de comentarios.

Fundada como una organización sin fines de lucro en 2015 («colaboraremos libremente con otros en muchas instituciones y esperamos trabajar con empresas para investigar e implementar nuevas tecnologías», dice su declaración de misión), OpenAI lanzó una subsidiaria con fines de lucro en 2019. Pero lo ha hecho. hasta ahora todavía está controlado por la junta directiva de la fundación sin fines de lucro. La decisión de eliminar la supervisión de las organizaciones sin fines de lucro le da a la empresa más libertad (e incentivo) para acelerar el desarrollo de nuevos productos, al tiempo que potencialmente los hace más atractivos para los inversores.

Y las inversiones son cruciales: una New York Times El informe encontró que OpenAI podría perder 5 mil millones de dólares este año. (El costo de ambos chips y la energía necesaria para ejecutarlos son extremadamente altos). La compañía anunció el miércoles una nueva ronda de capital de entidades como Microsoft y el fabricante de chips Nvidia por un total de aproximadamente 6.600 millones de dólares.

OpenAI también tiene que cerrar costosos acuerdos de licencia con editores debido a demandas de Veces y otros inhiben la capacidad de la empresa para entrenar libremente sus modelos sobre el contenido de esos editores.

Los movimientos de OpenAI están haciendo reflexionar a los observadores de la industria. «El paso a una empresa con fines de lucro solidificó lo que ya estaba claro: la mayor parte de lo que se hablaba sobre seguridad probablemente eran sólo palabras», dijo Gary Marcus, un veterano experto en inteligencia artificial y autor del libro recién publicado. Domar Silicon Valley: cómo nos aseguramos de que la IA funcione para nosotrosdice THR. «La empresa está interesada en ganar dinero y no tener controles y contrapesos que garanticen su seguridad».

OpenAI tiene un historial de lanzar productos antes de que la industria crea que están listos. El propio ChatGPT sorprendió a la industria tecnológica cuando se lanzó en noviembre de 2022; Los rivales de Google que habían estado trabajando en un producto similar pensaron que ninguno de los últimos LLM estaba listo para debutar.

Queda por ver si OpenAI puede continuar innovando a este ritmo, dada la fuga de cerebros de la semana pasada.

Tal vez para distraer la atención del drama y tranquilizar a los escépticos, Altman publicó una rara publicación en su blog personal la semana pasada en la que postulaba que la “superinteligencia” –la idea de gran alcance de que las máquinas pueden llegar a ser tan poderosas que pueden hacer todo mucho mejor que los humanos– – podría suceder pronto. como a principios de los años 1930. “Los triunfos asombrosos (corregir el clima, crear una colonia espacial y descubrir toda la física) eventualmente se convertirán en algo común”, escribió. Irónicamente, pudo haber sido este discurso el que impulsó a Sutskever y Murati a dirigirse hacia la puerta.

Lo mejor del Hollywood Reporter.

Suscríbase al boletín de THR. Para conocer las últimas noticias, síganos en Facebook, Twitter e Instagram.