GitHub Copilot: differenze tra le versioni
Contenuto cancellato Contenuto aggiunto
Funzionalità collegamenti suggeriti: 3 collegamenti inseriti. |
m Bot: numeri di pagina nei template citazione e modifiche minori |
||
(3 versioni intermedie di 3 utenti non mostrate) | |||
Riga 6:
|Licenza =
|SoftwareLibero = sì
}}
Line 15 ⟶ 14:
==Caratteristiche==
Codex è in grado di generare codice risolutivo di problemi di programmazione viene formulati in [[linguaggio naturale]].<ref name=":1">{{Cita pubblicazione|cognome1=Finnie-Ansley |nome1=James |cognome2=Denny |nome2=Paul |cognome3=Becker |nome3=Brett A. |cognome4=Luxton-Reilly |nome4=Andrew |cognome5=Prather |nome5=James |data=14 febbraio 2022 |titolo=The Robots Are Coming: Exploring the Implications of OpenAI Codex on Introductory Programming |rivista=Australasian Computing Education Conference |serie=ACE '22 |città=New York, NY, USA |editore=Association for Computing Machinery |pp=
Secondo il [[sito web]], GitHub Copilot include funzionalità di supporto per i programmatori, come la possibilità di convertire i commenti del codice in [[codice eseguibile]] e il completamento automatico per [[Codice a blocchi|blocchi di codice]], sezioni ripetitive di codice e interi [[Metodo (programmazione)|metodi]] e/o [[Funzione (informatica)|funzioni]].<ref name=":2" /><ref>{{Cita pubblicazione|cognome1=Sobania |nome1=Dominik |cognome2=Schweim |nome2=Dirk |cognome3=Rothlauf |nome3=Franz |data=2022 |titolo=A Comprehensive Survey on Program Synthesis with Evolutionary Algorithms |url=https://ieeexplore.ieee.org/abstract/document/9743417?casa_token=2vffB_1z0UsAAAAA:7YGw6NRDYQE9UBDPUdv7Ij7EwySLOMENhzzRmIYo5erRHv0qtESQn-lCkMAh35cWn-DVrcP69Q |rivista=IEEE Transactions on Evolutionary Computation |volume=27 |pp=
GitHub afferma che le funzionalità di Copilot consentono ai programmatori di navigare al'interno di [[framework]] e [[Linguaggio macchina|linguaggi di codifica]] sconosciuti, riducendo la quantità di tempo dedicata alla lettura della documentazione.<ref name=":2" />
Line 33 ⟶ 32:
Nel giugno 2021 l'[[amministratore delegato]] di GitHub Nat Friedman affermò che "addestrare i sistemi [[machine learning|ML]] sui dati pubblici rientra nel [[fair use]]".<ref>{{Cita tweet|utente=natfriedman|numero=1409914420579344385|autore=Nat Friedman|titolo=In general: (1) training ML systems on public data is fair use|lingua=en|urlarchivio=https://web.archive.org/web/20210630043243/https://twitter.com/natfriedman/status/1409914420579344385}}</ref> Una [[class action|causa legale collettiva]] intentata nel novembre 2022 replicò che si trattava di "pura speculazione", asserendo che "nessun tribunale ha considerato la questione del fatto che "addestrare i sistemi di ML sui dati pubblici sia una forma di fair use".<ref name="class action suit">{{cita web|cognome1=Butterick |nome1=Matthew |titolo=GitHub Copilot litigation |url=https://githubcopilotlitigation.com/ |sito=githubcopilotlitigation.com |data=3 novembre 2022|urlarchivio=https://web.archive.org/web/20221103204107/https://githubcopilotlitigation.com/pdf/1-0-github_complaint.pdf}}</ref> La causa intentata dallo studio legale Joseph Saveri contesta diversi aspetti legali, che vanno dalla violazione del contratto con gli utenti di GitHub alla violazione della [[privacy]] ai sensi del [[California]] Consumer Privacy Act per quanto atiene alla condivisione dei [[dati personali]].<ref name="class action suit"/><ref name="Verge class action">{{Cita web|cognome=Vincent |nome=James |data=8 novembre 2022 |titolo=The lawsuit that could rewrite the rules of AI copyright |url=https://www.theverge.com/2022/11/8/23446821/microsoft-openai-github-copilot-class-action-lawsuit-ai-copyright-violation-training-data|lingua=en}}</ref>
GitHub ha confessato che una piccola parte dell'output
===Libri bianchi della FSF===
Line 42 ⟶ 41:
===Problemi di sicurezza===
Un documento accettato per la pubblicazione nell'[[IEEE]] Symposium on Security and Privacy nel 2022 ha valutato la sicurezza del codice generato da Copilot per i 25 principali di punti di debolezza del codice enumerati dal protocollo MITRE (ad es. il cross-site scripting, [[Directory traversal attack|path traversal]]), nell'ambito di 89 diversi [[Scenario di test|scenari]] e 1.689 programmi.<ref name=":4" /> Ciò fu fatto lungo gli [[asse cartesiano|assi]] della diversità dei punti deboli (la sua capacità di risposta a scenari che possono introdurre vari punti deboli nel codice), diversità dei [[prompt]] (la sua capacità di rispondere ad una stessa debolezza del codice con variazioni minime, [[analisi di sensitività]]) e diversità di [[Dominio (informatica)|domini]] (la sua capacità di generare specifiche [[hardware]] a livello di trasferimento del [[Security log|registro]] in [[Verilog]]).<ref name=":4" /> Lo studio rilevò che attraverso questi assi in molteplici lingue, il 39,33% dei migliori suggerimenti e il 40,73% dei suggerimenti totali avevano condotto a [[Vulnerabilità informatica|vulnerabilità]] del codice. Inoltre, rivelarono che anche piccole modifiche non semantiche (ovvero commenti) apportate al codice riuscivano a incidere sulla sicurezza di quest'ultimo.<ref name=":4" />
===Problemi relativi al mondo della scuola===
Line 52 ⟶ 51:
In VS Code e Visual Studio il programma integra una [[chat]] simile a [[ChatGPT]], oltre al supporto vocale per la dettatura diretta del codice.<ref>{{cita web|url=https://www.punto-informatico.it/github-copilot-x/|titolo=GitHub Copilot X: GPT-4 per gli sviluppatori}}</ref>
== Replit Ghostwriter ==
[[Replit Ghostwriter]] il concorrente diretto di Google che offre funzionalità di testing, software collaborativo e distribuzione delle app.<ref>{{cita web|url=https://www.punto-informatico.it/google-replit-sfida-github-copilot/|titolo=Google si allea con Replit per sfidare GitHub Copilot}}</ref>
Line 59 ⟶ 58:
==Collegamenti esterni==
* {{Collegamenti esterni}}
{{controllo di autorità}}
{{portale|informatica}}
[[Categoria:Elaboratori di linguaggio naturale liberi]]
[[Categoria:Software scientifici]]
|