Вплив ШІ та Deepfakes на реальність і майбутнє

Значок часу читання 5 хв. читати


Читачі допомагають підтримувати MSpoweruser. Ми можемо отримати комісію, якщо ви купуєте через наші посилання. Значок підказки

Прочитайте нашу сторінку розкриття інформації, щоб дізнатися, як ви можете допомогти MSPoweruser підтримувати редакційну команду Читати далі

манекен, плата, обличчя

У партнерстві з ExpressVPN

Нещодавні досягнення в області штучного інтелекту істотно змінили життя сучасних людей. Сьогодні ми бачимо, як штучний інтелект може без особливих зусиль виконувати програмування, написання есе та — головне — генерувати контент за лічені секунди. Однак ці вражаючі можливості є власним прокляттям ШІ. За оцінками Постачальники VPN, багато хто використовує штучний інтелект для створення синтетичних медіа для дезінформації, і дипфейки зараз починають поширюватися як лісова пожежа по всьому світу.

Експерти десятиліттями експериментували зі штучним інтелектом, але недавній великий поштовх Microsoft до цієї технології викликав інтерес галузі до збільшення інвестицій у такі творіння. Відразу після відкриття свого Bing на основі ChatGPT пошукова система Google завдала удару у відповідь Bard. Однак, на відміну від свого конкурента, Google все ще запроваджує суворе обмеження для тестового доступу Bard, і експерти припускають, що це пов’язано з побоюваннями компанії щодо того, що ШІ може зробити в чужих руках.

Це стосується інших технологічних продуктів штучного інтелекту, які розробляються. Наприклад, мовна модель Microsoft VALL-E, яка наразі недоступна для всіх, може імітувати голос і емоції людини для синтезу персоналізованих промов. Він вимагає лише трисекундного запису як акустичного підказки, але може створювати інше повідомлення, використовуючи голос оригінального мовця.

Хоча широка громадськість все ще не має доступу до згаданих вище творінь, вони вже мають аналоги, які пропонують невеликі технологічні фірми. Це дозволило не лише звичайним користувачам, а й зловмисникам використовувати інструменти як завгодно. З цього приводу вже не дивно, що останнім часом з’являються різні повідомлення про те, що людей обманюють і обманюють за допомогою ШІ.

У цих звітах особливо наголошувалося на використанні згенерованих штучним інтелектом голосів, які імітують своїх жертв. В історії, поділеній з Business Insider Цього місяця матері зателефонував хтось, який заявив, що він викрадач, і вимагав викуп у 50,000 15 доларів за її 100-річну доньку. Описуючи отриманий дзвінок, мати сказала, що це був «XNUMX%» голос її дочки.

«Це був повністю її голос. Це був її перегин. Це було так, як вона плакала б. Я жодної секунди не сумнівалася, що це вона», – розповіла мати, яка пізніше виявила, що дзвінок був обманом і що її дочка насправді була з чоловіком.

Такий самий інцидент із голосом штучного інтелекту пережила пара з Канади, яка, на жаль, втратила 21,000 XNUMX доларів від шахрая по телефону. Відповідно до Washington Post,, шахрай видавав себе за адвоката та сина подружжя, використовуючи голос, згенерований штучним інтелектом, і сказав, що гроші будуть використані на судові витрати після того, як він заявив, що син убив дипломата в автокатастрофі.

Крім голосів, інші форми створених штучним інтелектом генеративних медіа також можуть обдурити будь-кого — наприклад, підроблені зображення та глибокі фейкові відео. Хоча наразі немає звітів про те, щоб шахраї використовували їх для отримання фінансової вигоди, їхній ефект може бути широко поширеним для широкої громадськості. Нещодавно в мережі поширилися зображення відомих особистостей, створені штучним інтелектом. Деякі включають фотографії, на яких зображений Папа Римський Франциск у модній пуховій куртці, арешт колишнього президента Дональда Трампа та Ілон Маск, який тримає за руку свого суперника та генерального директора GM Мері Барра під час побачення. Тим часом у березні 2022 року з’явився діпфейк президента України Володимира Зеленського, який закликає громадян України здатися Росії.

Незважаючи на те, що матеріали були швидко визначені як фейкові, їх присутність, безсумнівно, ввела в оману громадськість і викликала тимчасове збентеження багатьох. Навіть модель і автор Кріссі Тейген став жертвою фотографій папи. Проте вплив таких синтетичних носіїв може бути серйознішим, оскільки штучний інтелект продовжує розвиватися, особливо в наш час, коли все більше технологічних компаній витрачають мільярди доларів на створення ідеального твору ШІ. Коли цей час настане, штучний інтелект можна буде використати, щоб перекрутити реальність, яку всі знають, що не неможливо. Навіть більше, його можна навіть використовувати для контролю та впливу на громадськість, що призведе до різних політичних, соціальних і моральних проблем у всьому світі.

Це видно з глибокого фейкового відео під час проміжних виборів 2018 року, на якому Барак Обама звинувачує Дональда Трампа. Спочатку цей вміст мав на меті попередити онлайн-світ про небезпеку фейкових новин в Інтернеті, але він отримав негативний результат. Це викликало обурення кількох прихильників Трампа та ненавмисно завдало шкоди іміджу осіб, використаних у матеріалі.

А тепер уявіть ефект таких генеративних засобів масової інформації, якби вони були спеціально розроблені для цього впливати на думку та маніпулювати нею і сприяти пропаганді серед громадськості. Результати можуть бути кардинальними. Це особливо стосується країн, де ЗМІ та інформація піддаються цензурі з боку обмежувальних урядів, таких як Білорусь, Китай, Єгипет, Росія, Іран, Північна Корея, Туркменістан, ОАЕ, Уганда, Ірак, Туреччина, Оман та інші переважно ісламські країни . Деякі вдаються до використання VPN для доступу до географічно заблокованого вмісту, веб-сайтів і служб, щоб бути в курсі. Проте доступ до VPN у цих місцях не зовсім можливий, оскільки вони обходять інтернет-цензуру та навіть блокують веб-сайти, пов’язані з послугами VPN. Завдяки цьому ви можете уявити майбутнє таких територій з обмеженим доступом до міжнародних новин, а їхній уряд має повноваження визначати, який онлайн-контент дозволяти. Потім додайте можливість створення бездоганного штучного інтелекту в майбутньому, і громадськості стане важче розрізняти, що правда, а що ні.

Галузеві групи та технологічні компанії зі штучним інтелектом уже працюють над розробкою політики, яка керуватиме використанням інструментів ШІ. Partnership on AI, наприклад, надає рекомендації для установ і окремих осіб, які створюють синтетичні медіа-інструменти, або просто для тих, хто розповсюджує такі матеріали. Однак тут потрібні не тільки приватні компанії та некомерційні організації. Законодавці також повинні створити конкретний набір правил, яких розробники ШІ та кінцеві користувачі повинні будуть дотримуватися. Тим не менш, чи будуть ці майбутні закони достатньо ефективними, щоб використовувати потужність штучного інтелекту та не дозволяти людям використовувати його? Ми повинні незабаром це побачити.

залишити коментар

Ваша електронна адреса не буде опублікований. Обов'язкові поля позначені * *