Technologickí giganti ako Microsoft, OpenAI chcú jasnejšie pravidlá pre modely AI zo Spojeného kráľovstva

Ikona času čítania 3 min. čítať


Čítačky pomáhajú podporovať MSpoweruser. Ak nakupujete prostredníctvom našich odkazov, môžeme získať províziu. Ikona popisu

Prečítajte si našu informačnú stránku a zistite, ako môžete pomôcť MSPoweruser udržať redakčný tím Čítaj viac

Kľúčové poznámky

  • AI giganti (Google, Facebook) sa pripájajú k britským bezpečnostným testom AI, ale chcú jasnejšie pravidlá.
  • Spoločnosti súhlasia s opravou nájdených nedostatkov, ale presadzujú transparentnosť v procese testovania.
  • Cieľom Spojeného kráľovstva je byť lídrom v oblasti bezpečnosti AI, ale vyvažuje dobrovoľné dohody s budúcimi nariadeniami.
  • Zamerajte sa na predchádzanie zneužitiu na kybernetické útoky a iné škodlivé aplikácie.

Popredné spoločnosti zaoberajúce sa umelou inteligenciou naliehajú Vláda Spojeného kráľovstva poskytne ďalšie podrobnosti o postupoch testovania bezpečnosti AI. To ukazuje potenciálne obmedzenia spoliehania sa výlučne na dobrovoľné dohody pri regulácii tejto rýchlo sa rozvíjajúcej technológie.

Stalo sa tak po tom, čo OpenAI, Google DeepMind, Microsoft a Meta v novembri 2023 podpísali dobrovoľné záväzky, že sprístupnia svoje najnovšie generatívne modely AI na testovanie pred nasadením novozriadeným inštitútom AI Safety Institute (AISI). Hoci tieto spoločnosti súhlasili s úpravou svojich modelov na základe zistených nedostatkov, teraz sa snažia objasniť konkrétne vykonané testy, ich trvanie a proces spätnej väzby v prípade zistenia rizika.

Napriek tomu, že vláda nie je právne zaviazaná konať na základe výsledkov testov, zdôraznila svoje očakávania, že spoločnosti budú riešiť identifikované riziká. To podčiarkuje prebiehajúcu diskusiu o účinnosti dobrovoľných dohôd pri zabezpečovaní zodpovedného rozvoja AI. V reakcii na tieto obavy vláda načrtla plány pre „budúce záväzné požiadavky“ pre popredných vývojárov AI s cieľom posilniť opatrenia týkajúce sa zodpovednosti.

AISI, ktorú založil premiér Rishi Sunak, zohráva ústrednú úlohu v ambícii vlády postaviť Spojené kráľovstvo ako lídra v riešení potenciálnych rizík spojených s rozvojom AI. To zahŕňa zneužitie kybernetických útokov, návrh biologických zbraní a iné škodlivé aplikácie.

Podľa zdrojov oboznámených s procesom AISI už začala testovať existujúce a nevydané modely, vrátane Gemini Ultra od Google. Zameriavajú sa na potenciálne riziká zneužitia, najmä kybernetickú bezpečnosť, využívajúc odborné znalosti z Národného centra kybernetickej bezpečnosti v rámci GCHQ.

Vládne zmluvy odhaľujú investície do kapacít na testovanie zraniteľných miest, ako je „útek z väzenia“ (vynútenie chatbotov AI, aby obchádzali bezpečnostné opatrenia) a „spear-phishing“ (cielené útoky prostredníctvom e-mailu). Okrem toho prebiehajú snahy o vývoj nástrojov „automatizácie spätného inžinierstva“ na hĺbkovú analýzu modelov.

Podľa potreby budeme zistenia zdieľať s vývojármi. Ak sa však zistia riziká, očakávali by sme, že pred spustením prijmú akékoľvek relevantné opatrenia.

Informovala o tom britská vláda Financial Times.

Google DeepMind potvrdil svoju spoluprácu s AISI, pričom zdôraznil svoj záväzok spolupracovať na dôkladných hodnoteniach a zaviesť osvedčené postupy pre rozvíjajúci sa sektor AI. OpenAI a Meta odmietli komentovať.

Ľahkými slovami:

Veľké spoločnosti s umelou inteligenciou ako Google a Facebook spolupracujú s vládou Spojeného kráľovstva na testovaní ich nových modelov AI z hľadiska bezpečnosti pred vydaním. Vláda chce zabezpečiť, aby tieto modely neboli zneužité na hackovanie alebo vytváranie nebezpečných zbraní.

Spoločnosti radi pomôžu, ale chcú viac podrobností o testoch, napríklad ako dlho budú trvať a čo sa stane, ak sa zistia nejaké problémy. Vláda sa snaží nájsť rovnováhu medzi podporou inovácií a ochranou ľudí.

Nechaj odpoveď

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *