Влияние ИИ и дипфейков на реальность и будущее

Значок времени чтения 5 минута. читать


Читатели помогают поддержать MSpoweruser. Мы можем получить комиссию, если вы совершите покупку по нашим ссылкам. Значок подсказки

Прочтите нашу страницу раскрытия информации, чтобы узнать, как вы можете помочь MSPoweruser поддержать редакционную команду. Читать далее

манекен, монтажная плата, лицо

В партнерстве с ExpressVPN

Недавние достижения в области искусственного интеллекта вносят существенные изменения в жизнь современных мужчин. Сегодня мы видим, как ИИ может легко выполнять кодирование, написание эссе и, самое главное, генерацию контента за считанные секунды. Однако эти впечатляющие возможности являются собственным проклятием ИИ. По Провайдеры VPN, многие используют искусственный интеллект для создания синтетических носителей для дезинформации, и теперь дипфейки начинают распространяться по всему миру со скоростью лесного пожара.

Эксперты экспериментировали с искусственным интеллектом на протяжении десятилетий, но недавний большой толчок Microsoft к этой технологии вызвал интерес отрасли к вложению дополнительных средств в такие творения. Сразу после открытия своего Bing на базе ChatGPT поисковая система, Google нанесла ответный удар, используя Bard. Однако, в отличие от своего конкурента, Google по-прежнему вводит строгие ограничения на доступ к тестированию Барда, и эксперты предполагают, что это связано с опасениями компании перед тем, что ИИ может сделать в чужих руках.

Это относится и к другим разрабатываемым технологическим продуктам искусственного интеллекта. Например, языковая модель Microsoft VALL-E, которая в настоящее время общедоступна, может имитировать голос и эмоции человека для синтеза персонализированной речи. В качестве акустической подсказки требуется только трехсекундная запись, но он может создавать другое сообщение, используя голос исходного говорящего.

Хотя широкая публика все еще не может получить доступ к упомянутым выше творениям, у них уже есть аналоги, предлагаемые небольшими технологическими фирмами. Это позволило не только обычным пользователям, но и злоумышленникам использовать инструменты любым удобным для них способом. При этом уже не удивительно, что в последнее время появляются различные сообщения о том, что людей обманывают и обманывают с помощью ИИ.

В этих отчетах особо подчеркивалось использование генерируемых ИИ голосов, имитирующих их жертв. В рассказе, которым поделился с Business Insider Сообщается, что в этом месяце матери позвонил некто, представившийся похитителем, и потребовал выкуп в размере 50,000 15 долларов за ее 100-летнюю дочь. Описывая полученный звонок, мать сказала, что это был «XNUMX%» голос ее дочери.

«Это был полностью ее голос. Это был ее перегиб. Это было так, как она бы плакала. Я ни на секунду не сомневалась, что это она», — сказала мать, которая позже обнаружила, что звонок был обманом и что ее дочь на самом деле была с его мужем.

Тот же инцидент с голосом ИИ произошел с парой из Канады, которая, к сожалению, потеряла 21,000 XNUMX долларов от мошенника по телефону. В соответствии с Washington Post, мошенник представился адвокатом и сыном пары, используя голос, сгенерированный искусственным интеллектом, и сказал, что деньги будут использованы для оплаты юридических услуг после того, как он заявил, что сын убил дипломата в автокатастрофе.

Помимо голосов, другие формы генеративных медиа, созданные искусственным интеллектом, также могут обмануть кого угодно — например, поддельные изображения и дипфейковые видео. Хотя в настоящее время нет сообщений о том, что мошенники используют их для получения финансовой выгоды, их влияние может быть широко распространено среди широкой публики. Недавно в сети распространились изображения известных личностей, созданные искусственным интеллектом. Некоторые из них включают фотографии, на которых папа Франциск в модном пуховике, бывший президент Дональд Трамп арестован, а Илон Маск держит за руку своего соперника и генерального директора GM Мэри Барра во время свидания. Тем временем в марте 2022 года в сети появилось дипфейковое видео президента Украины Владимира Зеленского, в котором он просил граждан Украины сдаться России.

Хотя материалы были быстро идентифицированы как фальшивые, их присутствие, несомненно, ввело общественность в заблуждение и вызвало у многих временное замешательство. Даже модель и автор Крисси Teigen пал жертвой фотографий папы. Тем не менее, влияние таких синтетических носителей может быть более серьезным, поскольку ИИ продолжает развиваться, особенно в наше время, когда все больше технологических компаний тратят миллиарды долларов на создание идеального творения ИИ. Когда придет время, ИИ можно будет использовать для искажения общеизвестной реальности, что не является невозможным. Более того, его можно даже использовать для контроля и влияния на общественность, что приводит к различным политическим, социальным и моральным проблемам по всему миру.

Это видно из фальшивого видео во время промежуточных выборов 2018 года, на котором Барак Обама клевещет на Дональда Трампа. Первоначально контент был предназначен для предупреждения онлайн-мира об опасностях фейковых новостей в Интернете, но он имел негативные последствия. Это вызвало гнев у нескольких сторонников Трампа и непреднамеренно нанесло ущерб имиджу лиц, использованных в материале.

А теперь представьте эффект таких генеративных медиа, если бы они были специально разработаны для влиять и манипулировать мнением и продвигать пропаганду среди населения. Результаты могут быть радикальными. Это может быть особенно верно в странах, где СМИ и информация подвергаются цензуре со стороны ограничительных правительств, таких как Беларусь, Китай, Египет, Россия, Иран, Северная Корея, Туркменистан, ОАЭ, Уганда, Ирак, Турция, Оман и другие преимущественно исламские страны. . Некоторые прибегают к использованию VPN для доступа к географически заблокированному контенту, веб-сайтам и службам, чтобы оставаться в курсе последних событий. Тем не менее, доступ к VPN не совсем возможен в этих местах, поскольку они обходят интернет-цензуру и даже блокируют веб-сайты, связанные с услугами VPN. При этом вы можете представить себе будущее таких областей с ограниченным доступом к международным новостям и их правительством, имеющим право разрешать онлайн-контент. Затем добавьте возможность более безупречного ИИ, генерирующего контент в будущем, и публике станет труднее различать, что правда, а что нет.

Отраслевые группы и компании, занимающиеся технологиями искусственного интеллекта, уже работают над определением политики, которая будет определять использование инструментов искусственного интеллекта. Партнерство по ИИ, например, предоставляет рекомендации для учреждений и частных лиц, создающих синтетические медиа-инструменты, или просто для тех, кто распространяет такие материалы. Однако здесь нужны не только частные компании и некоммерческие организации. Законодатели также должны создать конкретный набор правил, которые будут вынуждены соблюдать создатели ИИ и конечные пользователи. Тем не менее, будут ли эти будущие законы достаточно эффективными, чтобы использовать мощь ИИ и не допустить его использования людьми? Мы скоро должны это увидеть.

Оставьте комментарий

Ваш электронный адрес не будет опубликован. Обязательные поля помечены * *