Tech-Giganten wie Microsoft und OpenAI wollen klarere Regeln für KI-Modelle aus Großbritannien

Symbol für die Lesezeit 3 Minute. lesen


Leser unterstützen MSpoweruser. Wir erhalten möglicherweise eine Provision, wenn Sie über unsere Links kaufen. Tooltip-Symbol

Lesen Sie unsere Offenlegungsseite, um herauszufinden, wie Sie MSPoweruser dabei helfen können, das Redaktionsteam zu unterstützen Lesen Sie weiter

Wichtige Hinweise

  • KI-Giganten (Google, Facebook) beteiligen sich an den britischen KI-Sicherheitstests, wollen aber klarere Regeln.
  • Die Unternehmen verpflichten sich, gefundene Mängel zu beheben, drängen jedoch auf Transparenz im Testprozess.
  • Das Vereinigte Königreich strebt eine Vorreiterrolle bei der KI-Sicherheit an, gleicht jedoch freiwillige Vereinbarungen mit künftigen Vorschriften ab.
  • Konzentrieren Sie sich auf die Verhinderung von Missbrauch für Cyberangriffe und andere schädliche Anwendungen.

Führende Unternehmen für künstliche Intelligenz fordern dies Die britische Regierung wird weitere Einzelheiten bekannt geben über seine KI-Sicherheitstestverfahren. Dies zeigt die potenziellen Grenzen auf, wenn man sich bei der Regulierung dieser sich schnell entwickelnden Technologie ausschließlich auf freiwillige Vereinbarungen verlässt.

Dies geschieht, nachdem OpenAI, Google DeepMind, Microsoft und Meta im November 2023 freiwillige Verpflichtungen unterzeichnet haben, ihre neuesten generativen KI-Modelle für Tests vor der Bereitstellung durch das neu gegründete AI Safety Institute (AISI) zu öffnen. Diese Unternehmen erklären sich zwar damit einverstanden, ihre Modelle auf der Grundlage festgestellter Mängel anzupassen, streben aber nun nach Klarheit über die durchgeführten spezifischen Tests, deren Dauer und den Feedbackprozess im Falle einer Risikoerkennung.

Obwohl die Regierung gesetzlich nicht dazu verpflichtet ist, aufgrund der Testergebnisse Maßnahmen zu ergreifen, betonte sie ihre Erwartung an die Unternehmen, sich mit den identifizierten Risiken auseinanderzusetzen. Dies unterstreicht die anhaltende Debatte über die Wirksamkeit freiwilliger Vereinbarungen zur Gewährleistung einer verantwortungsvollen KI-Entwicklung. Als Reaktion auf diese Bedenken skizzierte die Regierung Pläne für „zukünftige verbindliche Anforderungen“ für führende KI-Entwickler, um die Maßnahmen zur Rechenschaftspflicht zu stärken.

Das von Premierminister Rishi Sunak gegründete AISI spielt eine zentrale Rolle im Bestreben der Regierung, Großbritannien als Vorreiter bei der Bewältigung potenzieller Risiken im Zusammenhang mit der Weiterentwicklung der KI zu positionieren. Dazu gehören der Missbrauch von Cyberangriffen, die Entwicklung von Biowaffen und andere schädliche Anwendungen.

Quellen, die mit dem Verfahren vertraut sind, zufolge hat die AISI bereits damit begonnen, bestehende und unveröffentlichte Modelle zu testen, darunter auch Googles Gemini Ultra. Ihr Schwerpunkt liegt auf potenziellen Missbrauchsrisiken, insbesondere der Cybersicherheit, und nutzt dabei das Fachwissen des National Cyber ​​Security Center im GCHQ.

Regierungsaufträge offenbaren Investitionen in Fähigkeiten zum Testen von Schwachstellen wie „Jailbreaking“ (das KI-Chatbots dazu veranlasst, Sicherheitsvorkehrungen zu umgehen) und „Spear-Phishing“ (gezielte Angriffe per E-Mail). Darüber hinaus gibt es Bestrebungen, „Reverse-Engineering-Automation“-Tools für eine tiefgreifende Analyse von Modellen zu entwickeln.

Wir werden die Erkenntnisse gegebenenfalls mit den Entwicklern teilen. Wenn jedoch Risiken festgestellt werden, erwarten wir von ihnen, dass sie vor der Einführung alle relevanten Maßnahmen ergreifen.

Die britische Regierung teilte dem mit Financial Times.

Google DeepMind würdigte seine Zusammenarbeit mit der AISI und betonte sein Engagement für die Zusammenarbeit bei der Erstellung fundierter Bewertungen und der Etablierung von Best Practices für den sich entwickelnden KI-Sektor. OpenAI und Meta lehnten eine Stellungnahme ab.

In einfachen Worten:

Große KI-Unternehmen wie Google und Facebook arbeiten mit der britischen Regierung zusammen, um ihre neuen KI-Modelle vor der Veröffentlichung auf Sicherheit zu testen. Die Regierung möchte sicherstellen, dass diese Modelle nicht für Hackerangriffe oder die Herstellung gefährlicher Waffen missbraucht werden.

Die Unternehmen helfen gerne weiter, wünschen jedoch weitere Einzelheiten zu den Tests, etwa wie lange sie dauern und was passiert, wenn Probleme festgestellt werden. Die Regierung versucht, die Förderung von Innovationen mit der Gewährleistung der Sicherheit der Menschen in Einklang zu bringen.

Hinterlassen Sie uns einen Kommentar

E-Mail-Adresse wird nicht veröffentlicht. Pflichtfelder sind MIT * gekennzeichnet. *