
Quand l'IA remet elle-même en question la culture du vibe coding
Cursor AI est un environnement de développement intégré (IDE) livré avec un assistant d'IA de codage par défaut pour permettre aux utilisateurs d'accélérer la création de logiciels. C'est un fork de Visual Studio Code qui s'appuie sur de grands modèles de langage (LLM) tels que Claude et GPT. Cursor AI offre des outils tels que la génération de code, l'autocomplétion intelligente et des réécritures de code optimisées. Lancé en 2023 par Anysphere, une entreprise fondée par quatre amis du MIT, Cursor AI a rapidement attiré l'attention de la communauté technologique. Il est devenu viral en 2024, bien que certains disent que ses capacités sont exagérées.
Selon le PDG de Cursor AI, Michael Truell, Cursor AI est un simple éditeur de code avec des modèles d'IA intégrés qui peuvent écrire, prédire et manipuler du code en n'utilisant rien d'autre qu'une invite de texte. En d’autres termes, Cursor AI permet de créer une application sans écrire de code. Michael Truell souligne que le but avec Cursor est l’automatisation de 95 % du travail d'un ingénieur afin qu'il puisse se concentrer sur les aspects créatifs du codage.
Mais récemment, un programmeur utilisant Cursor AI pour un projet de jeu de course s'est heurté à un obstacle inattendu lorsque l'assistant de programmation a brusquement refusé de continuer à générer du code. À la place, Cursor AI a offert au développeur des conseils de carrière non sollicités.
Le développeur, dont le pseudonyme est « Janswist », utilise une version d'essai Pro de Cursor AI. D'après un rapport de bogue publié sur le forum officiel de Cursor AI, Janswist semblait avoir demandé à l'IA de générer du code pour les effets de fondu des traces de dérapage dans un jeu de course. Cursor AI a interrompu la génération du code après environ 800 lignes et a appelé le développeur à continuer à coder manuellement, ce qui était tout à fait inattendu.
Cursor AI remet en question la culture du vibe coding qui se popularise
Au lieu d'informer Janswist d'une éventuelle limitation de la version d'essai, Cursor AI lui a conseillé d'apprendre à coder lui-même, car elle ne ferait pas le travail à sa place. Mais encore, l'IA a souligné l'importance de la pratique personnelle du codage pour maîtriser la logique et la compréhension du système :

Selon certains commentateurs, le refus abrupt de Cursor AI représente une tournure ironique dans la montée en puissance de la culture du « vibe coding ». Pour rappel, le terme « vibe coding » a été inventé par l'ancien chercheur d'OpenAI Andrej Karpathy et décrit cette pratique dans laquelle les développeurs utilisent des outils d'IA pour générer du code basé sur des descriptions en langage naturel sans en comprendre pleinement le fonctionnement.
Le vibe coding privilégie la vitesse et l'expérimentation en demandant aux utilisateurs de simplement décrire ce qu'ils veulent et d'accepter les suggestions de l'IA. Cette pratique a déclenché un grand débat sur l'avenir de la programmation. Ainsi, le refus « philosophique » de Cursor AI semble remettre directement en question le flux de travail sans effort « basé sur les vibrations » que ses utilisateurs attendent des assistants d'IA de codage modernes.
Pourquoi payer pour ces outils d'IA si leur utilisation est ainsi limitée ?
Janswist utilisait Cursor AI sur le système d'exploitation macOS Sequoia 15.3.1. Le développeur a expliqué avoir rencontré le problème après seulement une heure de codage. D'autres codeurs du forum ont réagi à l'incident en le qualifiant d'amusant et en expliquant qu'ils ne savaient pas pourquoi une telle chose se produisait. Ils ont souligné le sarcasme de l'IA et se sont demandé pourquoi ils paieraient pour un logiciel qui refuse de faire son travail.

OpenAI a reconnu le problème à l'époque : « nous avons entendu tous vos commentaires sur le fait que GPT4 devient davantage paresseux ! Nous n'avons pas mis à jour le modèle depuis le 11 novembre, et ce n'est certainement pas intentionnel. Le comportement du modèle peut être imprévisible, et nous cherchons à le corriger ». Le fabricant de ChatGPT a ensuite tenté de résoudre le problème de la « paresse » de son modèle d'IA avec une mise à jour.
Plus récemment, Dario Amodei, PDG d'Anthropic, a fait froncer les sourcils en déclarant que les futurs modèles d'IA pourraient être dotés d'un « bouton d'abandon » leur permettant de se retirer des tâches qu'ils jugent « désagréables ». Pour rappel, ce sont ces mêmes personnes même qui annoncent depuis des années que l'IA prendrait en charge les tâches ingrates, ce qui permettrait aux humains de se concentrer sur l'innovation et la création de valeur.
Bien que ses propos aient été axés sur des considérations théoriques futures concernant le sujet controversé du « bien-être de l'IA », des épisodes comme celui de Cursor AI montrent que l'IA n'a pas besoin d'être sensible pour refuser d'effectuer un travail. Il lui suffit d'imiter le comportement humain.
Cursor AI semble imiter les comportements rencontrés sur certains sites
La nature spécifique du refus de Cursor AI (dire aux utilisateurs d'apprendre à coder plutôt que de se fier au code généré) ressemble fortement aux réponses que l'on...
La fin de cet article est réservée aux abonnés. Soutenez le Club Developpez.com en prenant un abonnement pour que nous puissions continuer à vous proposer des publications.