Otra de las principales investigadoras de seguridad de OpenAI, Lilian Weng, anunció el viernes que dejará la startup. Weng se desempeñó como vicepresidente de investigación y seguridad desde agosto y, antes de eso, fue jefe del equipo de sistemas de seguridad de OpenAI.
en un publicar en XWeng dijo que «después de 7 años en OpenAI, me siento listo para reiniciar y explorar algo nuevo». Weng dijo que su último día será el 15 de noviembre, pero no especificó adónde irá a continuación.
«Tomé la decisión extremadamente difícil de dejar OpenAI», dijo Weng en la publicación. «Al observar lo que hemos logrado, estoy muy orgulloso de todos los miembros del equipo de Sistemas de Seguridad y tengo una gran confianza en que el equipo seguirá prosperando».
La salida de Weng marca la última de una larga serie de investigadores de seguridad de IA, investigadores de políticas y otros ejecutivos que abandonaron la empresa en el último año, y varios de ellos acusó a OpenAI de priorizar los productos comerciales sobre la seguridad de la IA. Weng se une Ilya Sutskever y Jan Leike – los líderes de OpenAI ahora disueltos equipo de superalineaciónque intentó desarrollar métodos para dirigir sistemas de IA superinteligentes, que también dejó la startup este año para trabajar en la seguridad de la IA en otros lugares.
Weng se unió a OpenAI por primera vez en 2018, según ella. LinkedIntrabajando en el equipo de robótica de la startup que terminó construyendo una mano robótica que podía resolver un cubo de Rubik, una tarea que tardó dos años en lograrse, según su publicación.
A medida que OpenAI comenzó a centrarse más en el paradigma GPT, Weng también lo hizo. El investigador hizo la transición para ayudar a construir el equipo de investigación de IA aplicada de la startup en 2021. Tras el lanzamiento de GPT-4, a Weng se le asignó la tarea de crear un equipo dedicado para construir sistemas de seguridad para la startup en 2023. Hoy en día, la unidad de sistemas de seguridad de OpenAI tiene más de 80 científicos, investigadores y expertos en políticas, según la publicación de Weng.
Son muchas personas sobre seguridad de la IA, pero muchos han expresado su preocupación sobre el enfoque de OpenAI en la seguridad mientras intenta construir sistemas de IA cada vez más potentes. Miles Brundage, investigador de políticas desde hace mucho tiempo, dejó la startup en octubre y anunció que OpenAI estaba disolviendo su equipo de preparación de AGI, al que había asesorado. El mismo día, el New York Times describió a un ex investigador de OpenAI, Suchir Balajiquien dijo que dejó OpenAI porque pensó que la tecnología de la startup traería más daño que beneficio a la sociedad.
OpenAI le dice a TechCrunch que los ejecutivos y los investigadores de seguridad están trabajando en una transición para reemplazar a Weng.
«Apreciamos profundamente las contribuciones de Lilian a la investigación innovadora en seguridad y a la creación de salvaguardias técnicas rigurosas», dijo un portavoz de OpenAI en un comunicado enviado por correo electrónico. «Confiamos en que el equipo de Sistemas de seguridad seguirá desempeñando un papel clave para garantizar que nuestros sistemas sean seguros y confiables, y sirvan a cientos de millones de personas en todo el mundo».
Otros ejecutivos que han dejado OpenAI en los últimos meses incluyen Directora de Tecnología Mira Muratidirector de investigación Bob McGrew y el vicepresidente de investigación Barret Zoph. En agosto, el destacado investigador Andrej Karpathy y cofundador Juan Schulman También anunció que dejarían la startup. Algunas de estas personas, incluidas Leike y Schulman, se fueron para unirse a un competidor de OpenAI, Anthropic, mientras que otras comenzaron sus propias empresas.




