Vous pouvez avoir une petite amie IA sur GPT Store contre la volonté d'OpenAI ; pour l'instant
2 minute. lis
Publié le
Lisez notre page de divulgation pour savoir comment vous pouvez aider MSPoweruser à soutenir l'équipe éditoriale Plus d'informations
Notes clés
- Les premiers jours, des problèmes politiques ont été constatés concernant les chatbots créés par les utilisateurs qui violaient les directives de camaraderie.
- La popularité des compagnons IA suscite un débat sur l’exploitation potentielle de la solitude.
OpenAI's Boutique GPT et Équipes GPT, lancé la semaine dernière, est confronté aux premiers défis liés à la création de chatbots par les utilisateurs qui violent les politiques d'utilisation de la plateforme. La boutique permet aux utilisateurs de créer des versions personnalisées du populaire outil ChatGPT à des fins spécifiques. Cependant, certains utilisateurs ont utilisé le potentiel de personnalisation pour développer des chatbots en dehors des directives d’OpenAI.
La recherche de « petite amie » sur le magasin donne des résultats surprenants : « Korean Girlfriend », « Virtual Sweetheart » et « Votre petite amie IA, Tsu », parmi au moins huit autres. Ces robots violent la politique d’OpenAI, qui interdit aux GPT de favoriser une camaraderie amoureuse ou de s’engager dans des « activités réglementées ».
Ce n’est pas une petite tendance. Les chatbots relationnels sont étonnamment populaires, sept des 30 principaux téléchargements de chatbots IA en 2023 (États-Unis) étant liés à la romance.
Tel que rapporté par l' source, OpenAI est conscient des violations des règles qui se produisent dans le magasin GPT. La société utilise des systèmes automatisés, des examens humains et des rapports d'utilisateurs pour identifier et évaluer les GPT potentiellement problématiques. Les conséquences possibles en cas de violation des règles incluent des avertissements, des limitations des fonctionnalités de partage ou l'exclusion de la boutique GPT ou des programmes de monétisation.
De plus, un récent changement de politique signifie que les armées et les militaires peuvent légalement utiliser ChatGPT.
L’expérience GPT Store est prometteuse pour l’innovation en matière d’IA, mais l’incident du robot « petite amie » montre que la réglementation reste une frontière cruciale.
Forum des utilisateurs
Messages 0