Microsoft, Google, OpenAI, Mistral AI + 12 innych osób podpisujących standardy bezpieczeństwa AI podczas szczytu w Seulu

Ikona czasu czytania 2 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Kluczowe uwagi

  • 16 firm technologicznych, w tym Microsoft, Google i OpenAI, przyjmuje na szczycie w Seulu dobrowolne standardy bezpieczeństwa AI.
  • Normy koncentrują się na wymianie informacji, inwestycjach w cyberbezpieczeństwo i badaniach zagrożeń społecznych związanych ze sztuczną inteligencją.
  • Część ekspertów zaniepokojona brakiem obowiązkowych przepisów i przejrzystości danych.
Obraz przedstawiający Mistral

Podczas trwającego szczytu w Seulu szesnaście wiodących firm technologicznych zgodziło się na zestaw dobrowolnych standardów bezpieczeństwa AI. 

Standardy te, ustanowione dzięki współpracy między rządami i liderami branży, przedstawiają najlepsze praktyki odpowiedzialnego rozwoju sztucznej inteligencji. Kładą nacisk na wymianę informacji między firmami, inwestycje w cyberbezpieczeństwo systemów sztucznej inteligencji oraz nadanie priorytetu badaniom nad potencjalnymi zagrożeniami społecznymi związanymi z zaawansowaną sztuczną inteligencją.

Dobrowolny charakter tych zobowiązań wywołał mieszane reakcje. Niektórzy postrzegają je jako znaczący pierwszy krok w kierunku bezpieczniejszego rozwoju sztucznej inteligencji, inni wyrażają zaniepokojenie brakiem egzekwowanych przepisów. Eksperci uważają, że konieczne mogą być obowiązkowe przepisy, aby zapewnić przedsiębiorstwom priorytetowe traktowanie środków bezpieczeństwa.

Udział firm z Chin (Zhipu.ai) i Zjednoczonych Emiratów Arabskich (Technology Innovation Institute) przez niektórych jest postrzegany jako pozytywne zjawisko, sugerujące rosnący międzynarodowy konsensus w sprawie znaczenia bezpieczeństwa sztucznej inteligencji.

„Szczyt w Seulu opiera się na postępie poczynionym na zeszłorocznym szczycie w Bletchley Park” – powiedziała Michelle Donovan, brytyjska sekretarz ds. technologii. „Zaobserwowaliśmy wzrost współpracy międzynarodowej, a kilka krajów utworzyło własne instytuty bezpieczeństwa AI”.

Pomimo potencjalnych korzyści, obawy pozostają. 

Szczyt obejmował także zamknięte wirtualne spotkanie światowych przywódców i dyrektorów przedsiębiorstw, rzekomo skupione na wspieraniu dalszej współpracy w badaniach nad bezpieczeństwem sztucznej inteligencji.

Pełna lista firm, które podpisały się pod standardami bezpieczeństwa:

  • Amazonka
  • Antropiczny
  • Przystać do siebie
  • Google/Google DeepMind
  • G42
  • IBM
  • Przegięcie AI
  • Meta
  • Microsoft
  • Sztuczna inteligencja Mistrala
  • Naver
  • Otwórz AI
  • Samsung Electronics
  • Instytut Innowacji Technologicznych
  • xAI
  • Zhipu.ai

Oto Oświadczenie OpenAI.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *