De grands créateurs de technologies s’unissent pour donner 10 millions de dollars au AI Safety Fund
2 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale En savoir plus.
Les principales entreprises d’IA ont créé un nouveau Fonds pour la sécurité de l’IA pour soutenir les chercheurs indépendants du monde entier. Le Fonds accordera des subventions aux chercheurs des établissements universitaires, des instituts de recherche et des startups.
OpenAI a annoncé dans une déclaration commune que le Fonds de sécurité de l'IA a reçu un financement initial de 10 millions de dollars d'Anthropic, Google, Microsoft et OpenAI, ainsi que de plusieurs fondations philanthropiques et particuliers.
Pour faciliter le programme, le nouvel organisme industriel Frontier Model Forum est également fondé avec Chris Meserole comme nouveau et premier directeur exécutif.
Un nouveau conseil consultatif pour l’organisme sera également bientôt mis en place « au cours des prochains mois ».
« Les modèles d’IA les plus puissants sont extrêmement prometteurs pour la société, mais pour réaliser leur potentiel, nous devons mieux comprendre comment les développer et les évaluer en toute sécurité. Je suis ravi de relever ce défi avec le Frontier Model Forum », déclare le nouveau directeur exécutif.
Le AI Safety Fund se concentrera sur le soutien au développement de nouvelles façons d’évaluer et de tester les systèmes d’IA pour détecter les dangers potentiels. Ce travail est essentiel pour améliorer la sûreté et la sécurité des systèmes d’IA et aider les gouvernements, les entreprises et la société civile à relever les défis posés par l’IA.
Pendant ce temps, dans la course à l'IA, Meta est prêt à affronter le GPT-4 d'OpenAI modèle avec son propre système, se vantant d'être plus puissant que Llama 2.
Forum des utilisateurs
Messages 0