IdentifiantMot de passe
Loading...
Mot de passe oublié ?Je m'inscris ! (gratuit)

Vous êtes nouveau sur Developpez.com ? Créez votre compte ou connectez-vous afin de pouvoir participer !

Vous devez avoir un compte Developpez.com et être connecté pour pouvoir participer aux discussions.

Vous n'avez pas encore de compte Developpez.com ? Créez-en un en quelques instants, c'est entièrement gratuit !

Si vous disposez déjà d'un compte et qu'il est bien activé, connectez-vous à l'aide du formulaire ci-dessous.

Identifiez-vous
Identifiant
Mot de passe
Mot de passe oublié ?
Créer un compte

L'inscription est gratuite et ne vous prendra que quelques instants !

Je m'inscris !

Copilot, l'outil d'IA commercial de GitHub, est critiqué par la communauté du logiciel open source,
Pour sa reproduction aveugle des blocs de code

Le , par Stan Adkens

86PARTAGES

6  0 
Un outil de programmation alimenté par l’intelligence artificielle qui facilite la recherche d'échantillons de code peut sembler une aubaine pour les développeurs de logiciels, mais l'accueil réservé au nouvel outil Copilot de GitHub a été un peu plus froid. Si certains développeurs sont enthousiasmés par son potentiel, d’autres sont frustrés par la façon dont l’outil, permettant aux codeurs de gagner du temps, a été construit. En effet, GitHub Copilot tire le contexte des commentaires et du code et recommande instantanément des lignes individuelles et des fonctions entières. Mais ces derniers craignent que l'outil ne permette de contourner les exigences en matière de licence pour le code open source et de violer les droits d'auteur des utilisateurs individuels.

Copilot a été lancé en fin juin dans le cadre d'une Preview technique sur invitation uniquement, promettant de faire gagner du temps en répondant au code des utilisateurs par ses propres suggestions intelligentes. Ces suggestions sont basées sur des milliards de lignes de code public dont les utilisateurs ont publiquement contribué à GitHub, en utilisant un système d'IA appelé Codex de la société de recherche OpenAI.

Si Copilot représente un gain de temps considérable que certains qualifient de "magique", d'autres développeurs se montrent sceptiques, craignant que l'outil ne permette de contourner les exigences en matière de licence pour le code source ouvert et de violer les droits d'auteur des utilisateurs individuels.

Armin Ronacher, un éminent développeur de la communauté open source, est l’un des développeurs qui ont été frustrés par la façon dont Copilot a été construit. Il a expérimenté l’outil, a publié une capture d'écran sur Twitter, en trouvant étrange que Copilot, un outil d'intelligence artificielle qui est commercialisé, puisse produit du code protégé par le droit d'auteur.


Fonctionnement de GitHub Copilot

GitHub décrit Copilot comme l'équivalent IA de la "programmation en paire", dans laquelle deux développeurs travaillent ensemble sur un seul ordinateur. L'idée est qu'un développeur peut apporter de nouvelles idées ou repérer des problèmes que l'autre développeur aurait pu manquer, même si cela nécessite plus d'heures de travail.

Dans la pratique, cependant, Copilot est plutôt un outil utilitaire de gain de temps, qui intègre les ressources que les développeurs devraient autrement chercher ailleurs. Lorsque les utilisateurs saisissent des données dans Copilot, l'outil leur suggère des extraits de code à ajouter en cliquant sur un bouton. Ainsi, ils n'ont pas à passer du temps à chercher dans la documentation de l'API ou à rechercher des exemples de code sur des sites comme StackOverflow.


Un réseau neuronal dans GitHub Copilot est entraîné à l'aide de volumes massifs de données, constituées du code : des millions de lignes téléchargées par les 65 millions d'utilisateurs de GitHub, la plus grande plateforme au monde permettant aux développeurs de collaborer et de partager leur travail. Le but est que Copilot en apprenne suffisamment sur les modèles de code pour pouvoir faire du hacking lui-même. Il peut prendre le code incomplet d'un partenaire humain et terminer le travail en ajout les parties manquantes. Dans la plupart des cas, il semble réussir à le faire. GitHub prévoit de vendre l'accès à l'outil aux développeurs.

Comme pour la plupart des outils d'IA, GitHub souhaite également que Copilot devienne plus intelligent au fil du temps en fonction des données qu'il collecte auprès des utilisateurs. Lorsque les utilisateurs acceptent ou rejettent les suggestions de Copilot, son modèle d'apprentissage automatique utilisera ce retour d'information pour améliorer les suggestions futures, de sorte que l'outil deviendra peut-être plus humain à mesure qu'il apprendra.

Vives réactions de la communauté open source

Peu après le lancement de Copilot, certains développeurs ont commencé à s'alarmer de l'utilisation d'un code public pour entraîner l'IA de l'outil. L'une des préoccupations est que si Copilot reproduit des parties suffisamment importantes du code existant, il pourrait violer les droits d'auteur ou blanchir le code open source dans des utilisations commerciales sans licence appropriée. L'outil peut également recracher des informations personnelles que les développeurs ont publiées, et dans un cas, il a reproduit le code largement cité du jeu PC Quake III Arena de 1999, y compris le commentaire du développeur John Carmack.


L’utilisateur Hogan a aussi ajouté dans son fil de discussion : « Ce qui serait vraiment drôle, c'est que les gens qui maintiennent des dépôts populaires commençaient à mettre du mauvais code exprès ».

GitHub affirme que les dérapages de Copilot sont rares. Mais un autre utilisateur de Twitter, répondant au post de Ronacher, a écrit : « Et ici nous avons la preuve directe que GitHub reproduit directement un morceau de code sous GPL, ce qui prouve que c'est un outil vraiment dangereux à utiliser dans des environnements commerciaux ». Dans une autre réponse, on peut lire : « Lol, c'est du blanchiment de code… »

Un porte-parole de Github, a refusé de commenter et s'est contenté de renvoyer à la FAQ existante de la société sur la page Web de Copilot, qui reconnaît que l'outil peut produire des extraits de code textuels à partir de ses données d'entraînement. Cela se produit environ 0,1 % du temps, selon GitHub, généralement lorsque les utilisateurs ne fournissent pas suffisamment de contexte autour de leurs demandes ou lorsque le problème a une solution banale.

« Nous sommes en train de mettre en place un système de suivi de l'origine pour détecter les rares cas où le code est répété à partir de l'ensemble des données de formation, afin de vous aider à prendre de bonnes décisions en temps réel concernant les suggestions de GitHub Copilot », indique la FAQ de l'entreprise.

Entre-temps, le PDG de GitHub, Nat Friedman, a fait valoir sur un site de réseau social que la formation de systèmes d'apprentissage automatique sur des données publiques est une utilisation équitable, tout en reconnaissant que « la propriété intellectuelle et l'intelligence artificielle feront l'objet d'une discussion politique intéressante » à laquelle l'entreprise participera activement.

Cela n'a pas convenu à certains utilisateurs de GitHub qui disent que l'outil dépend de leur code et néglige leurs attentes quant à la façon dont il sera utilisé. La société a récolté du code libre d'utilisation et du code protégé par des droits d'auteur et « a mis le tout dans un mixeur afin de vendre la bouillie à des intérêts commerciaux et propriétaires », a déclare une programmeuse et conceptrice de jeux basée dans le Colorado dont les tweets sur le sujet sont devenus viraux. « On a l'impression de se moquer de l'open source ».

Dans un de ses tweets, elle a écrit : « GitHub Copilot a, de son propre aveu, été formé sur des montagnes de code GPL, donc je ne vois pas bien en quoi il ne s'agit pas d'une forme de blanchiment de code open source dans des œuvres commerciales. La phrase "il ne reproduit généralement pas les morceaux exacts" n'est pas très satisfaisante ».


« Le droit d'auteur ne couvre pas seulement le copier-coller ; il couvre les travaux dérivés. GitHub Copilot a été formé sur du code open source et la somme totale de tout ce qu'il sait a été tirée de ce code. Il n'y a pas d'interprétation possible du terme "dérivé" qui n'inclue pas cela », a-t-elle écrit. « La génération précédente d'IA a été entraînée sur des textes et des photos publics, sur lesquels il est plus difficile de revendiquer des droits d'auteur, mais celle-ci est tirée de grands corpus de travaux avec des licences très explicites testées par les tribunaux, donc j'attends avec impatience les inévitables /massifs/ recours collectifs à ce sujet ».

Sources : GitHub, Tweets (1, 2 & 3)

Et vous ?

Quel est votre avis sur GitHub Copilot ?
Que pensez-vous des commentaires des développeurs qui sont frustrés par la façon dont l’outil est construit ?
Que se passera-t-il si un code privé créé avec l’aide de Copilot viole les droits d'auteur ?

Voir aussi :

Microsoft crée un autocompléteur de code à l'aide de GPT-3, le système de génération de texte d'OpenAI, pour combler le manque de développeurs dans le monde
Open AI présente DALL-E (comme GPT-3), un modèle qui crée des images à partir de texte, pour un large éventail de concepts exprimables en langage naturel
OpenAI a publié l'IA de génération de texte qu'il disait trop dangereuse pour être divulguée, mais le modèle n'est pas encore parfait
Une IA génère des images de corps entiers de personnes qui n'existent pas, avec des modèles et des tenues photoréalistes

Une erreur dans cette actualité ? Signalez-nous-la !

Avatar de Mingolito
Membre extrêmement actif https://www.developpez.com
Le 03/09/2021 à 17:22
Le triomphe du politiquement correct dans toute sa splendeur

Si on en arrive au fait que les mot Israël ou Palestine sont devenus "offensant" alors la je suis certains que c'est devenu n'importe quoi.

Je préfère avant du temps de Coluche ou de Desproges quand on pouvais encore dire ou écrire des conneries librement, c'était le bon temps...
30  1 
Avatar de 23JFK
Inactif https://www.developpez.com
Le 03/09/2021 à 19:20
C'est quoi cette merde ? Tu fais un jeu sur la seconde guerre mondiale, manifestement il y aura du nazi dans le code.
18  1 
Avatar de calvaire
Expert éminent https://www.developpez.com
Le 03/09/2021 à 21:53
Citation Envoyé par JPLAROCHE Voir le message
bonjour,
Tombé sur la tête .... voilà quand les extrêmes s'appliquent.
blaklist (noir sur fond noir) le mot noir n’appartiens pas à une ethnie par exemple....... etc....

à moins qu'ils soient devenu racialisé bref du n'importe-quoi c'est pareil dans la féminisation des mots, avez remarqué comment les femmes n'utilise pas les mots au féminin c'est impressionnant.

donc tous les mots dans l’argot informatique des divers langage vont être révisés !!!!!!!!! alors il faut réécrire la bible car celle écrite (populaire n'est fait qu'avec 2000 mots pour cause d’illettrisme) et le pti beur de banlieue il en dit quoi rien à branlé... en parlant son jargon. Et ne pensée pas que je soit raciste car j'ai lutter et me bat encore contre le racisme (et fait casser le nez physiquement) mais quand le politique fait de la politique pour elle même on arrive a des aberrations.
dans mes tests unitaires, je prend un truc qui m'inspire pour faire le scénario de teste (titanic, taliban, hitler...) en fonction de ce que je vois passer sur bfm.

Apres pour les créateurs de jeux oui forcément y'a des trucs comme ca dans le code, si le jeu contient des "salopes" (duke nuken 3d) il est je pense intelligent d'appeler une fonction associé a ce personnage "bitche_machintruc", si j'ai hitler qui parle (wolfenstein) il semble logique d'appeler la piste audio Hitler_speech.mp3 ou Fuhrer_speech.mp3 (HOI4 ou Wolfenstein par exemple)
Si j'ai l'ia de ben laden à coder je vais c'réer une fonction ben_laden_ia() (postal 2)
C'est indispensable pour comprendre le code.

dans un logiciel de gestion ce serait étrange de retrouver ces choses par contre.
9  0 
Avatar de JPLAROCHE
Membre expérimenté https://www.developpez.com
Le 03/09/2021 à 19:43
bonjour,
Tombé sur la tête .... voilà quand les extrêmes s'appliquent.
blaklist (noir sur fond noir) le mot noir n’appartiens pas à une ethnie par exemple....... etc....

à moins qu'ils soient devenu racialisé bref du n'importe-quoi c'est pareil dans la féminisation des mots, avez remarqué comment les femmes n'utilise pas les mots au féminin c'est impressionnant.

donc tous les mots dans l’argot informatique des divers langage vont être révisés !!!!!!!!! alors il faut réécrire la bible car celle écrite (populaire n'est fait qu'avec 2000 mots pour cause d’illettrisme) et le pti beur de banlieue il en dit quoi rien à branlé... en parlant son jargon. Et ne pensée pas que je soit raciste car j'ai lutter et me bat encore contre le racisme (et fait casser le nez physiquement) mais quand le politique fait de la politique pour elle même on arrive a des aberrations.
7  0 
Avatar de byrautor
Membre éclairé https://www.developpez.com
Le 10/09/2021 à 10:20
" peut être remplacé par "Hydra", ça a déjà été démontré ! "
Aspartam de quoi as tu peur ?
Vous les jeunes, car j'imagine que tu es jeune (j'ai 89 ans), ne supportez plus rien.
Effectivement après le "lavage de cerveau" des "enseignements modernes" qui "démontrent" l'indémontrable la réalité est devenue virtualité.
nazi, noir, résistant, terroriste, il y en a des milliers comme cela qui me sont insupportables (la moitié de ma famille dont mon père sont morts en 1944), mais si je les supprime de mon langage en créant un autre langage la réalité reste !
Un peu de courage que diable, ah Diable : voilà un mot à supprimer du dictionnaire çà sent les Religions.
Relisez un peu Voltaire SVP !
6  0 
Avatar de Aspartame
Membre confirmé https://www.developpez.com
Le 03/09/2021 à 19:35
Citation Envoyé par 23JFK Voir le message
C'est quoi cette merde ? Tu fais un jeu sur la seconde guerre mondiale, manifestement il y aura du nazi dans le code.
peut être remplacé par "Hydra", ça a déjà été démontré .
5  0 
Avatar de Christian.BG
Futur Membre du Club https://www.developpez.com
Le 10/09/2021 à 9:34
Que l'on utilise des termes pour désigner des fonctions, des variables, des noms de programmes faisant appel à des notions de couleur (noir, blanc, rouge, jaune...), de pays (Israel, Palestine, Nigeria...) de genre (homme, femme, enfant, fille, garçon...) ne me semble pas porter atteinte à la probité des uns et des autres. Ici, on atteint juste des sommets dans l'intolérance, le politiquement correct qui en devient très incorrect comme l'écriture inclusive qui est une hérésie. Ce ne sont pas les termes qu'il faut juridiciser, mais le contexte de leur utilisation Et dans ce cas, il sera difficile même pour de l'IA d'en déterminer la teneur, surtout que le sens n'est pas identique en fonction des pays, des langues et même parfois, localement dans un pays.
5  0 
Avatar de jmsei
Membre régulier https://www.developpez.com
Le 10/09/2021 à 14:38
Le monde anglo-saxon est malade et névrosé, il relève de plus en plus de la psychiatrie.
Le problème avec eux c'est qu'ils cherchent à infester le monde dans tous les domaines avec leur maladie mentale.
Tous systèmes ou toutes applications qui auraient la prétention de me dicter ce que je dois penser et qui voudront m'imposer leurs délires seront boycottés.
Je ne travaillerai jamais pour une entreprise qui pratique l'infamie de l'écriture "inclusive" et toutes les dérives de la bien pensance nord américaine.
6  1 
Avatar de cdubet
Membre confirmé https://www.developpez.com
Le 10/09/2021 à 7:20
Politiquement correct a l americaine appliqué au monde entier
Juste pour info, l escalave ca n a pas concerné que les noirs et de loin !
Pensez aux romains quilors de la conquete de la gaule ont transformé certains de nos ancetres en esclaves
Ou simplement au mot "slave" (le gros de leurs esclaves venait de l est ...)

Quand on en arrive a bruler des tintin & asterix en public car ils donnent une mauvaise images des indiens c est que quelque chose ne tourne pas rond

Il y a des moments ou je me dit que les chinois ont finalement pas tord quand ils nous trouvent decadent
4  0 
Avatar de LuNaTiC93
Membre à l'essai https://www.developpez.com
Le 11/09/2021 à 2:55
Je n'aurais jamais cru que la décadence aurait pu à ce point atteindre un domaine technique comme l'informatique et la programmation mais venant des etatsuniens qui sont quoi qu'on en dise des anglosaxons et par conséquent des fous rien ne m'étonne. A une époque quand un malade nous parlait de ses délires on lui faisait une électrothérapie, maintenant les entreprises prennent en compte ce qu'ils disent ce qui explique l'état actuel de notre société occidentale qui sombre petit à petit dans tous les domaines pendant que les chinois eux consacrent leur temps et leur énergie à des vrais problématiques techniques, mais bon eux ne sont pas "inclusifs"
4  0