На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети "Интернет", находящихся на территории Российской Федерации)

Регионы России

318 подписчиков

Свежие комментарии

  • Evgeni Velesik
    У них там на безумие проверяют? Он, своими действиями уничтожит Европу в первую очередь, а потом всë остальное!У Дональда Трампа...
  • Лидия Санникова
    Голову проверьте...У Дональда Трампа...
  • Лидия Санникова
    "Переживальщик"... О себе печалься.Отар Кушанашвили:...

Лилиан Венг покидает OpenAI после семи лет работы в компании

Лилиан Венг, один из ключевых специалистов OpenAI, объявила о своём уходе из компании, проработав в ней семь лет. В своём заявлении на платформе X (Twitter) Венг сообщила, что покидает компанию, чтобы «начать всё сначала и попробовать что-то новое». Последним рабочим днём Венг станет 15 ноября.

Венг начала свою карьеру в OpenAI в 2018 году, стараясь разрабатывать инновации в области робототехники, в частности, создавая роботизированную руку, способную собирать кубик Рубика.

С переходом компании к парадигме моделей GPT, она стала частью команды прикладного исследования ИИ в 2021 году. С момента запуска GPT-4 в 2023 году Венг возглавила команду по разработке систем безопасности, в которой сейчас работают более 80 сотрудников.

В своём посте Венг подчеркнула, что гордится достижениями своей команды и уверена в её будущих успехах. Тем не менее, её уход стал частью широкой волны увольнений, охватившей OpenAI в последние месяцы, когда ряд исследователей и руководителей, таких как Илья Суцкевер и Ян Лейке, также приняли решение покинуть компанию, ссылаясь на приоритет коммерческих интересов перед безопасностью ИИ.

Руководство OpenAI уже начало поиск замены Венг, подчеркивая важность её вклада в исследования безопасности и создание надежных технических гарантий. Как сообщается, увольнение Венг и её коллег, работающих в области безопасности, вызывает обеспокоенность среди экспертов о будущем подходах OpenAI к вопросам безопасности искусственного интеллекта.

]]>

 

Ссылка на первоисточник
наверх