После нескольких уходов руководства OpenAI распускает команду по безопасности ИИ

Значок времени чтения 2 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

Ключевые заметки

  • OpenAI распустила свою команду по безопасности ИИ после ключевых увольнений.
  • Экс-руководитель Лейке обеспокоен тем, что исследования безопасности отодвинуты на второй план по сравнению с разработкой продукции.
  • OpenAI гарантирует продолжение исследований в области безопасности, но интеграция между командами неясна.

OpenAI распустила свою команду, которая занимается долгосрочными рисками безопасности, связанными с передовым ИИ. Эта новость появилась всего через несколько дней после уход двух ключевых фигур: Ильи Суцкевера, соучредителя и бывшего главного ученого, и Яна Лейке, который был одним из руководителей команды Superalignment.

Лейке публично выразил обеспокоенность по поводу того, что OpenAI отдает приоритет разработке новых продуктов, а не исследованиям безопасности. 

«Культура и процессы безопасности отошли на второй план по сравнению с блестящей продукцией».

Он сказал, что больше ресурсов следует выделять на мониторинг, готовность и социальное воздействие AGI (Общего искусственного интеллекта). Лейке выразил уверенность в том, что OpenAI должна ставить безопасность превыше всего.

Расформирование команды Superalignment произошло после периода внутренних беспорядков в OpenAI. В ноябре 2023 года соучредитель Сэм Альтман был уволен советом директоров из-за отсутствия прозрачности в общении. 

Хотя Альтман в конечном итоге был восстановлен в должности, Суцкевер и другие члены совета директоров, выступавшие против него, покинули компанию.

OpenAI утверждает, что исследования безопасности будут продолжаться, но неясно, насколько эффективно они будут интегрированы между различными командами без специальной группы, сосредоточенной исключительно на долгосрочном снижении рисков.

Эта новость появилась одновременно с запуском Новая модель искусственного интеллекта OpenAI GPT-4o и настольная версия ChatGPT. 

Только время покажет, как OpenAI справится со сложными задачами по обеспечению ответственной разработки передового ИИ, совмещая эти усилия со стремлением к инновациям.

Больше здесь.