Tekoälyn ja Deepfakesin vaikutus todellisuuteen ja tulevaisuuteen

Lukuajan kuvake 5 min. lukea


Lukijat auttavat tukemaan MSpoweruseria. Saatamme saada palkkion, jos ostat linkkien kautta. Työkaluvihje-kuvake

Lue ilmoitussivumme saadaksesi selville, kuinka voit auttaa MSPoweruseria ylläpitämään toimitustiimiä Lue lisää

mallinukke, piirilevy, kasvot

Yhteistyössä ExpressVPN:n kanssa

Tekoälyn viimeaikainen kehitys on tehnyt merkittäviä muutoksia nykyisten miesten elämään. Tänään näemme, kuinka tekoäly voi vaivattomasti suorittaa koodauksen, esseiden kirjoittamisen ja – ennen kaikkea – sisällön luomisen muutamassa sekunnissa. Nämä samat vaikuttavat ominaisuudet ovat kuitenkin tekoälyn oma kirous. Mukaan VPN-palveluntarjoajat, monet käyttävät tekoälyä synteettisten tietovälineiden tuottamiseen väärää tietoa varten, ja syväväärennökset alkavat nyt levitä kulovalkean tavoin ympäri maailmaa.

Asiantuntijat ovat kokeilleet tekoälyä vuosikymmeniä, mutta Microsoftin viimeaikainen suuri panostus teknologiaan sai alan kiinnostuksen investoida enemmän tällaisiin luomuksiin. Heti paljastuksen jälkeen ChatGPT-pohjainen Bing hakukone, Google palasi käyttämään Bardi. Toisin kuin kilpailijansa, Google kuitenkin soveltaa edelleen tiukkaa rajoitusta Bard-testien pääsylle, ja asiantuntijat spekuloivat, että se johtuu yrityksen pelosta, mitä tekoäly voi tehdä väärissä käsissä.

Tämä koskee muita kehitteillä olevia tekoälyteknologiatuotteita. Esimerkiksi Microsoftin VALL-E-kielimalli, joka ei ole tällä hetkellä julkisesti saatavilla, voi jäljitellä ihmisen ääntä ja tunteita ja syntetisoida yksilöllisiä puheita. Se vaatii vain kolmen sekunnin äänityksen akustisena kehotteenaan, mutta se voi tuottaa erilaisen viestin käyttämällä alkuperäisen kaiuttimen ääntä.

Vaikka suuri yleisö ei vieläkään voi käyttää yllä mainittuja luomuksia, niillä on jo pienten teknologiayritysten tarjoamia vastineita. Tämä on antanut tavallisten käyttäjien lisäksi myös haitallisten toimijoiden mahdollisuuden käyttää työkaluja haluamallaan tavalla. Tämän vuoksi ei ole enää yllättävää, että viime aikoina on ilmestynyt erilaisia ​​raportteja ihmisten huijatuista ja huijatuista tekoälyn avulla.

Nämä raportit korostivat erityisesti tekoälyn tuottamien äänten käyttöä, jotka matkivat uhrejaan. kanssa jaetussa tarinassa Business Insider tässä kuussa eräs äiti kuulemma sai puhelun joltakulta, joka väitti olevansa sieppaaja ja vaati 50,000 15 dollarin lunnaita 100-vuotiaasta tyttärestään. Kuvaillessaan saatua puhelua äiti sanoi, että se oli "XNUMX%" hänen tyttärensä ääni.

"Se oli täysin hänen äänensä. Se oli hänen taivutus. Se oli tapa, jolla hän olisi itkenyt. En epäillyt hetkeäkään, että se oli hän, äiti sanoi, joka myöhemmin huomasi, että puhelu oli petos ja että hänen tyttärensä oli todella miehensä kanssa.

Saman tekoälyn ääneen liittyvän tapauksen koki pariskunta Kanadasta, joka valitettavasti menetti 21,000 XNUMX dollaria huijareilta puhelimessa. Mukaan Washington Post, huijari esiintyi asianajajana ja pariskunnan poikana käyttämällä tekoälyn tuottamaa ääntä ja sanoi, että rahat käytettäisiin lakimieskuluihin, kun väitettiin pojan tappaneen diplomaatin auto-onnettomuudessa.

Äänien lisäksi muut tekoälyn tuottamat generatiiviset mediat voivat huijata ketään – esimerkiksi väärennetyt kuvat ja syväväärennösvideot. Vaikka tällä hetkellä ei ole olemassa raportteja, joissa huijarit käyttäisivät niitä taloudellisen hyödyn saamiseksi, niiden vaikutus voi olla laajalle levinnyt suurelle yleisölle. Äskettäin verkossa on levinnyt tekoälyn luomia kuvia kuuluisista henkilöistä. Jotkut sisältävät kuvia, joissa paavi Franciscuksesta näkyy muodikkaassa housutakissa, entisen presidentin Donald Trumpin pidättäminen ja Elon Musk pitelemässä kilpailijaansa ja GM:n toimitusjohtajaa Mary Barraa treffeillä. Samaan aikaan maaliskuussa 2022 Ukrainan presidentistä Volodymyr Zelenskystä ilmestyi syväfake-video, jossa Ukrainan kansalaisia ​​pyydettiin antautumaan Venäjälle.

Vaikka materiaalit tunnistettiin nopeasti väärennöksiksi, niiden läsnäolo kiistattomasti huijasi yleisöä ja aiheutti tilapäistä hämmennystä monille. Jopa malli ja kirjailija Chrissy Teigen joutui paavin kuvien uhriksi. Silti tällaisten synteettisten tietovälineiden vaikutus voi olla vakavampi tekoälyn kehittyessä, etenkin näinä aikoina, kun yhä useammat teknologiayritykset käyttävät miljardeja dollareita täydellisen tekoälyn luomiseen. Kun se aika koittaa, tekoälyä voitaisiin hyödyntää kaikkien tunteman todellisuuden vääristämiseen, mikä ei ole mahdotonta. Vielä enemmän, sitä voitaisiin jopa käyttää hallitsemaan ja vaikuttamaan yleisöön, mikä johtaisi erilaisiin poliittisiin, sosiaalisiin ja moraalisiin kysymyksiin ympäri maailmaa.

Tämä käy ilmi vuoden 2018 välivaalien aikana tehdystä fake-videosta, jossa Barack Obama paheksuu Donald Trumpia. Sisällön oli alun perin tarkoitus varoittaa verkkomaailmaa verkossa olevien valeuutisten vaaroista, mutta se palasi kielteisesti. Tämä aiheutti raivoa useiden Trumpin kannattajien keskuudessa ja vahingoitti tahattomasti materiaalissa käytettyjen henkilöiden kuvaa.

Kuvittele nyt tällaisten generatiivisten median vaikutus, jos ne on erityisesti suunniteltu vaikuttaa ja manipuloida mielipiteitä ja edistää propagandaa yleisölle. Tulokset voivat olla rajuja. Tämä voi olla totta erityisesti maissa, joissa rajoittavat hallitukset sensuroivat tiedotusvälineitä ja tietoja, kuten Valko-Venäjä, Kiina, Egypti, Venäjä, Iran, Pohjois-Korea, Turkmenistan, Arabiemiirikunnat, Uganda, Irak, Turkki, Oman ja muut pääosin islamilaiset maat . Jotkut turvautuvat VPN:ien käyttöön päästäkseen maantieteellisesti lukittuun sisältöön, verkkosivustoihin ja palveluihin pysyäkseen ajan tasalla. VPN-käyttö ei kuitenkaan ole täysin mahdollista näissä paikoissa, koska heillä on Internet-sensuurin kiertäminen ja jopa estetty VPN-palveluihin liittyvät verkkosivustot. Tämän avulla voit kuvitella sellaisten alueiden tulevaisuuden, joilla on rajoitettu pääsy kansainvälisiin uutisiin, ja niiden hallituksella on valta päättää, mitä verkkosisältöä sallitaan. Lisää sitten mahdollisuus virheettömämpään sisältöä tuottavaan tekoälyyn tulevaisuudessa, jolloin yleisön pitäisi olla vaikeampaa erottaa, mikä on totta ja mikä ei.

Toimialaryhmät ja tekoälyteknologiayritykset ovat jo hahmottelemassa käytäntöjä, jotka ohjaavat tekoälytyökalujen käyttöä. Partnership on AI esimerkiksi tarjoaa suosituksia instituutioille ja yksityishenkilöille, jotka rakentavat synteettisiä mediatyökaluja tai yksinkertaisesti niitä, jotka jakavat tällaisia ​​​​materiaaleja. Yksityisiä yrityksiä ja voittoa tavoittelemattomia järjestöjä ei kuitenkaan tarvita täällä ainoita. Lainsäätäjien on myös luotava konkreettiset säännöt, joita tekoälyn rakentajat ja loppukäyttäjät pakotetaan noudattamaan. Ovatko nämä tulevat lait kuitenkin riittävän tehokkaita valjastamaan tekoälyn voiman ja estämään ihmisiä hyödyntämästä sitä? Meidän pitäisi pian nähdä se.