Microsoft обязуется защищать детей в эпоху генеративного искусственного интеллекта

Значок времени чтения 2 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

Ключевые заметки

  • Сотрудничество с такими организациями, как Thorn и All Tech Is Human, подчеркивает коллективные усилия по решению этой проблемы.
Microsoft

В мире, где распространение и влияние технологий продолжают расширяться, безопасность наших детей в цифровой сфере стала первостепенной задачей. Microsoft, наряду с другими технические гигантыРоссия сделала в этом отношении значительный шаг вперед. Они объединились с Thorn и All Tech Is Human, взяв на себя обязательство внедрить надежные меры безопасности детей в рамках своих генеративных технологий искусственного интеллекта. Этот шаг касается не только повышения онлайн-безопасности; это смелое заявление против злоупотребления искусственным интеллектом для увековечивания сексуального вреда детям.

Генеративный ИИ со всем своим потенциалом революционизировать то, как мы взаимодействуем с цифровым контентом, несет в себе риск использования для создания и распространения вредных материалов, включая материалы о сексуальном насилии над детьми (CSAM). Понимая это, Microsoft и ее партнеры концентрируются на разработке моделей искусственного интеллекта, которые активно устраняют эти риски. Они не останавливаются на создании этих моделей; они также гарантируют, что после развертывания эти модели будут постоянно контролироваться и обновляться для поддержания безопасной цифровой среды для детей.

Но что влечет за собой это обязательство? Во-первых, Microsoft занимается разработкой и обучением моделей ИИ, которые по своей сути предназначены для минимизации риска создания или распространения CSAM. Это предполагает ответственный поиск наборов обучающих данных и тщательное тестирование этих моделей во избежание неправильного использования. Как только эти модели будут признаны безопасными, они будут развернуты с постоянными мерами защиты от оскорбительного контента и поведения.

Более того, Microsoft не работает изолированно. Сотрудничество с такими организациями, как Thorn и All Tech Is Human, подчеркивает коллективные усилия по решению этой проблемы. Делясь прогрессом и передовым опытом, эти компании стремятся создать единый фронт против использования технологий искусственного интеллекта во вредных целях.

Эта инициатива также выходит за рамки технических аспектов. Microsoft и ее союзники взаимодействуют с политиками, чтобы гарантировать, что правовая база поддерживает эти меры безопасности. Цель состоит в том, чтобы создать среду, в которой процветают инновации, но не в ущерб безопасности наших детей.

По сути, обязательства Microsoft и ее партнеров знаменуют собой важный шаг в обеспечении того, чтобы по мере развития технологий искусственного интеллекта они делали это с учетом благополучия наиболее уязвимых членов общества. Это напоминание о том, что перед лицом технического прогресса путь должны указывать гуманность и этика.