Microsoft, Google, OpenAI, Mistral AI + 12 innych osób podpisujących standardy bezpieczeństwa AI podczas szczytu w Seulu
2 minuta. czytać
Opublikowany
Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej
Kluczowe uwagi
- 16 firm technologicznych, w tym Microsoft, Google i OpenAI, przyjmuje na szczycie w Seulu dobrowolne standardy bezpieczeństwa AI.
- Normy koncentrują się na wymianie informacji, inwestycjach w cyberbezpieczeństwo i badaniach zagrożeń społecznych związanych ze sztuczną inteligencją.
- Część ekspertów zaniepokojona brakiem obowiązkowych przepisów i przejrzystości danych.
Podczas trwającego szczytu w Seulu szesnaście wiodących firm technologicznych zgodziło się na zestaw dobrowolnych standardów bezpieczeństwa AI.
Standardy te, ustanowione dzięki współpracy między rządami i liderami branży, przedstawiają najlepsze praktyki odpowiedzialnego rozwoju sztucznej inteligencji. Kładą nacisk na wymianę informacji między firmami, inwestycje w cyberbezpieczeństwo systemów sztucznej inteligencji oraz nadanie priorytetu badaniom nad potencjalnymi zagrożeniami społecznymi związanymi z zaawansowaną sztuczną inteligencją.
Dobrowolny charakter tych zobowiązań wywołał mieszane reakcje. Niektórzy postrzegają je jako znaczący pierwszy krok w kierunku bezpieczniejszego rozwoju sztucznej inteligencji, inni wyrażają zaniepokojenie brakiem egzekwowanych przepisów. Eksperci uważają, że konieczne mogą być obowiązkowe przepisy, aby zapewnić przedsiębiorstwom priorytetowe traktowanie środków bezpieczeństwa.
Udział firm z Chin (Zhipu.ai) i Zjednoczonych Emiratów Arabskich (Technology Innovation Institute) przez niektórych jest postrzegany jako pozytywne zjawisko, sugerujące rosnący międzynarodowy konsensus w sprawie znaczenia bezpieczeństwa sztucznej inteligencji.
„Szczyt w Seulu opiera się na postępie poczynionym na zeszłorocznym szczycie w Bletchley Park” – powiedziała Michelle Donovan, brytyjska sekretarz ds. technologii. „Zaobserwowaliśmy wzrost współpracy międzynarodowej, a kilka krajów utworzyło własne instytuty bezpieczeństwa AI”.
Pomimo potencjalnych korzyści, obawy pozostają.
Szczyt obejmował także zamknięte wirtualne spotkanie światowych przywódców i dyrektorów przedsiębiorstw, rzekomo skupione na wspieraniu dalszej współpracy w badaniach nad bezpieczeństwem sztucznej inteligencji.
Pełna lista firm, które podpisały się pod standardami bezpieczeństwa:
- Amazonka
- Antropiczny
- Przystać do siebie
- Google/Google DeepMind
- G42
- IBM
- Przegięcie AI
- Meta
- Microsoft
- Sztuczna inteligencja Mistrala
- Naver
- Otwórz AI
- Samsung Electronics
- Instytut Innowacji Technologicznych
- xAI
- Zhipu.ai