Giganci technologiczni, tacy jak Microsoft, OpenAI, chcą jaśniejszych zasad dotyczących modeli AI z Wielkiej Brytanii

Ikona czasu czytania 3 minuta. czytać


Czytelnicy pomagają wspierać MSpoweruser. Możemy otrzymać prowizję, jeśli dokonasz zakupu za pośrednictwem naszych linków. Ikona podpowiedzi

Przeczytaj naszą stronę z informacjami, aby dowiedzieć się, jak możesz pomóc MSPoweruser w utrzymaniu zespołu redakcyjnego Czytaj więcej

Kluczowe uwagi

  • Giganci sztucznej inteligencji (Google, Facebook) przyłączają się do brytyjskich testów bezpieczeństwa sztucznej inteligencji, ale chcą jaśniejszych zasad.
  • Firmy zgadzają się naprawić znalezione błędy, ale naciskają na przejrzystość procesu testowania.
  • Wielka Brytania pragnie być liderem w zakresie bezpieczeństwa sztucznej inteligencji, ale równoważy dobrowolne umowy z przyszłymi przepisami.
  • Skoncentruj się na zapobieganiu nadużyciom w celu cyberataków i innych szkodliwych aplikacji.

Wiodące firmy zajmujące się sztuczną inteligencją nalegają, aby: Rząd Wielkiej Brytanii podał więcej szczegółów o procedurach testowania bezpieczeństwa sztucznej inteligencji. Pokazuje to potencjalne ograniczenia polegania wyłącznie na dobrowolnych porozumieniach w celu regulowania tej szybko rozwijającej się technologii.

Nastąpiło to po podpisaniu przez OpenAI, Google DeepMind, Microsoft i Meta w listopadzie 2023 r. dobrowolnych zobowiązań dotyczących udostępnienia swoich najnowszych generatywnych modeli sztucznej inteligencji do testów przed wdrożeniem przez nowo utworzony Instytut Bezpieczeństwa AI (AISI). Zgadzając się na dostosowanie swoich modeli w oparciu o zidentyfikowane wady, firmy te obecnie domagają się jasności co do konkretnych przeprowadzonych testów, czasu ich trwania i procesu przekazywania informacji zwrotnej w przypadku wykrycia ryzyka.

Mimo że nie jest prawnie zobowiązany do podjęcia działań w oparciu o wyniki testów, rząd podkreślił, że oczekuje, że przedsiębiorstwa zajmą się zidentyfikowanymi ryzykami. Podkreśla to trwającą debatę na temat skuteczności dobrowolnych porozumień w zapewnianiu odpowiedzialnego rozwoju sztucznej inteligencji. W odpowiedzi na te obawy rząd nakreślił plany dotyczące „przyszłych wiążących wymogów” dla wiodących twórców sztucznej inteligencji, mających na celu wzmocnienie środków w zakresie odpowiedzialności.

AISI, utworzona przez premiera Rishiego Sunaka, odgrywa kluczową rolę w realizacji ambicji rządu, aby zapewnić Wielkiej Brytanii pozycję lidera w zakresie eliminowania potencjalnych zagrożeń związanych z rozwojem sztucznej inteligencji. Obejmuje to niewłaściwe wykorzystanie cyberataków, projektowanie broni biologicznej i inne szkodliwe aplikacje.

Według źródeł zaznajomionych z tym procesem AISI rozpoczęło już testowanie istniejących i niewydanych jeszcze modeli, w tym Google Gemini Ultra. Koncentrują się na potencjalnych zagrożeniach związanych z nadużyciami, w szczególności na cyberbezpieczeństwie, wykorzystując wiedzę specjalistyczną Krajowego Centrum Bezpieczeństwa Cybernetycznego w ramach GCHQ.

Kontrakty rządowe ujawniają inwestycje w możliwości testowania luk w zabezpieczeniach, takich jak „łamanie więzienia” (nakłanianie chatbotów AI do obchodzenia zabezpieczeń) i „phishing” (ukierunkowane ataki za pośrednictwem poczty elektronicznej). Dodatkowo trwają prace nad opracowaniem narzędzi „automatyzacji inżynierii odwrotnej” umożliwiających dogłębną analizę modeli.

W razie potrzeby udostępnimy ustalenia programistom. Jednakże w przypadku wykrycia zagrożeń oczekujemy, że podejmą one odpowiednie działania przed wystrzeleniem.

Rząd Wielkiej Brytanii powiedział Financial Times.

Google DeepMind podziękował za współpracę z AISI, podkreślając swoje zaangażowanie we współpracę na rzecz solidnych ocen i ustanowienia najlepszych praktyk dla rozwijającego się sektora sztucznej inteligencji. OpenAI i Meta odmówiły komentarza.

W prostych słowach:

Duże firmy zajmujące się sztuczną inteligencją, takie jak Google i Facebook, współpracują z rządem Wielkiej Brytanii nad testowaniem nowych modeli sztucznej inteligencji pod kątem bezpieczeństwa przed wypuszczeniem na rynek. Rząd chce mieć pewność, że modele te nie zostaną wykorzystane do hakowania lub tworzenia niebezpiecznej broni.

Firmy chętnie pomogą, ale chcą więcej szczegółów na temat testów, np. czasu trwania testów i tego, co się stanie, jeśli wykryte zostaną jakiekolwiek problemy. Rząd stara się zrównoważyć zachęcanie do innowacji z zapewnieniem ludziom bezpieczeństwa.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *