OpenAI a temporairement désactivé la navigation ChatGPT basée sur Bing en raison du contournement du contenu payant. OpenAI, la société à l’origine de ChatGPT, a récemment interrompu la fonction de navigation de son outil. Cette décision fait suite à la découverte d’un bogue qui permettait aux utilisateurs d’accéder gratuitement à du contenu payant. En arrêtant la fonctionnalité, OpenAI espère résoudre le problème et respecter les droits des propriétaires de contenu.
ChatGPT : la découverte d’un bogue inattendu
OpenAI ChatGPT fournit une navigation basée sur Bing. Il permet aux utilisateurs de rechercher des informations sur le Web. Cependant, les utilisateurs ont remarqué un bogue dans cette fonctionnalité. Ce bogue permettait aux utilisateurs de lire gratuitement des articles normalement payants. OpenAI a rapidement réagi en désactivant la fonction de navigation. Ils ont annoncé la suspension le 4 juillet via Twitter. Leur tweet indique qu’ils ont franchi cette étape pour « créer un bon contenu pour les propriétaires ». Cette découverte a probablement été causée par un post sur Reddit. L’utilisateur a partagé une capture d’écran demandant au chat d’afficher un produit payant. Le message a gagné en popularité, recueillant plus de 6 200 votes positifs et 284 commentaires.
Spéculations et contexte plus large
Après la publication de Reddit, les utilisateurs ont commencé à spéculer sur la façon dont ChatGPT pourrait contourner les paywalls. Cependant, certains ont suggéré que l’outil pourrait utiliser un mécanisme similaire aux outils de suppression de paywall. D’autres pensaient qu’il aurait simplement ignoré le paywall. De plus, il est important de considérer cette affaire dans un contexte plus large. Le scraping de données, ou scraping de données pour former des modèles d‘IA, est devenu un problème courant. Par exemple, Elon Musk a récemment cité le data scraping comme raison des nouvelles restrictions sur Twitter. OpenAI lui-même a déjà été confronté à des problèmes juridiques liés à ce sujet. Ils ont été poursuivis pour avoir prétendument collecté des informations personnelles auprès d’utilisateurs en ligne. Cela soulève des questions sur la manière dont les outils d’IA accèdent aux données et les utilisent.