Microsoft se zavezuje, da bo zaščitil otroke v dobi generativne umetne inteligence

Ikona časa branja 2 min. prebrati


Bralci pomagajo pri podpori MSpoweruser. Če kupujete prek naših povezav, lahko prejmemo provizijo. Ikona opisa orodja

Preberite našo stran za razkritje, če želite izvedeti, kako lahko pomagate MSPoweruser vzdrževati uredniško skupino Preberi več

Ključne opombe

  • Sodelovanje z organizacijami, kot sta Thorn in All Tech Is Human, poudarja skupno prizadevanje za neposredno reševanje te težave.
Microsoft

V svetu, kjer se doseg in vpliv tehnologije še naprej širita, je varnost naših otrok v digitalnem svetu postala najpomembnejša skrb. Microsoft, poleg drugih tehnični velikani, je v zvezi s tem naredil pomemben korak naprej. Povezali so se s podjetjema Thorn in All Tech Is Human ter se zavezali, da bodo v svojih generativnih tehnologijah umetne inteligence izvajali robustne varnostne ukrepe za otroke. Pri tej potezi ne gre le za izboljšanje spletne varnosti; to je drzna izjava proti zlorabi umetne inteligence pri ohranjanju spolne škode otrokom.

Generativna umetna inteligenca z vsem svojim potencialom, da revolucionira našo interakcijo z digitalno vsebino, nosi tveganje, da bo izkoriščena za ustvarjanje in širjenje škodljivega gradiva, vključno z gradivom o spolni zlorabi otrok (CSAM). Ob zavedanju tega se Microsoft in njegovi partnerji osredotočajo na razvoj modelov umetne inteligence, ki proaktivno obravnavajo ta tveganja. Ne ustavijo se samo pri izdelavi teh modelov; prav tako zagotavljajo, da se ti modeli, ko so uvedeni, nenehno spremljajo in posodabljajo, da se ohrani varno digitalno okolje za otroke.

Toda kaj ta zaveza vključuje? Za začetek se Microsoft posveča razvoju in usposabljanju modelov umetne inteligence, ki so sami po sebi zasnovani za zmanjšanje tveganja ustvarjanja ali širjenja CSAM. To vključuje odgovorno pridobivanje naborov podatkov za usposabljanje in strogo preizkušanje teh modelov za preprečevanje zlorabe. Ko so ti modeli ocenjeni kot varni, se uvedejo s stalnimi zaščitnimi ukrepi za zaščito pred zlorabo vsebine in ravnanja.

Poleg tega Microsoft ne deluje izolirano. Sodelovanje z organizacijami, kot sta Thorn in All Tech Is Human, poudarja skupna prizadevanja za neposredno reševanje te težave. Z izmenjavo napredka in najboljših praks želijo ta podjetja ustvariti enotno fronto proti izkoriščanju tehnologij umetne inteligence v škodljive namene.

Ta pobuda sega tudi onkraj tehničnih vidikov. Microsoft in njegovi zavezniki sodelujejo z oblikovalci politik, da zagotovijo, da pravni okvir podpira te varnostne ukrepe. Cilj je ustvariti okolje, kjer inovacije uspevajo, vendar ne na račun varnosti naših otrok.

V bistvu Microsoftova zaveza, skupaj z njegovimi partnerji, pomeni ključni korak pri zagotavljanju, da z napredkom tehnologij umetne inteligence to počnejo z mislijo na dobro počutje najbolj ranljivih članov družbe. To je opomin, da morata spričo tehnološkega napredka človečnost in etika voditi pot.