Intelligenza artificiale: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
m Questa è wikipedia in lingua italiana, ed in lingua italiana intelligenza articiale si abbrevia in IA. Se AI vi piace molto, andate a scrivere nella versione in lingua inglese.
Le linee guida consigliano di evitare l'utilizzo delle sigle e acronimi quando possibile.
Riga 240:
L’intelligenza artificiale viene anche impiegata nel campo della videosorveglianza. Gli algoritmi consentono il riconoscimento degli oggetti presenti nella scena al fine di generare allarmi.
 
In ambito videogame l'applicazione dell'intelligenza artificiale sta facendo sempre più breccia, per migliorare i strumenti di sviluppo dei videogiochi, andando a impattare su [[ricambio del personale]], con un maggiore impatto su artisti concettuali, i desainer grafici, gli artisti dedicati al gioco finito e gli illustratori, in quanto l'intelligenza artificiale viene utilizzata per compiti come la generazione di [[storyboard]], aspetto dei personaggi, rendering e animazioni e potrebbe contribuire fino al 50% dello sviluppo dei videogiochi entro il 2030-2035, inoltre a seconda dell'azienda si potrebbero usare soluzioni di IAintelligenza artificiale pubbliche o interne.<ref>[https://www.wired.com/story/ai-is-already-taking-jobs-in-the-video-game-industry/ AI Is Already Taking Jobs in the Video Game Industry]</ref>
 
Ultimo, ma non per importanza, è l'applicazione di reti neurali complesse nella generazione di testi, o meglio, nella trasformazione di un ''input'' generalmente testuale in un ''output'' anch'esso espresso in caratteri. In particolar modo negli ultimi anni, [[OpenAI]] ha rilasciato numerose versioni del suo "modello" denominato GPT, il quale ha riscontrato notevole successo e scalpore. Attraverso questo modello basato su una particolare rete neurale, è stato possibile generare dei racconti, riassumere automaticamente dei testi, tradurre in maniera sempre più precisa da una lingua all'altra. Attraverso questa disciplina le applicazioni sono le più disparate, tra cui, degno di nota e a forte impatto sociale, quello riguardo al binomio giornalismo e scrittura. Il [[The Washington Post|Washington Post]] ad esempio, gìà nel 2017 dichiarò di aver pubblicato in un anno 850 news elaborate da un'intelligenza artificiale. Il giornale canadese The Globe and Mail invece è interamente diretto da una intelligenza artificiale<ref>{{Cita web|url=https://www.repubblica.it/dossier/stazione-futuro-riccardo-luna/2020/10/20/news/il_giornale_diretto_da_una_intelligenza_artificiale_funziona-271163126/|titolo=Il giornale diretto da una intelligenza artificiale funziona|sito=la Repubblica|data=20 ottobre 2020|accesso=24 novembre 2020}}</ref>. Un altro utilizzo di questo modello trova riscontro nei tool di assistenza alla scrittura e generazione automatica di testi.
Riga 262:
Per capire il valore dell'intelligenza artificiale nel contesto tecnologico italiano, è sufficiente notare come si intreccia con altre tendenze digitali come la Cloud Transformation e l'[[Internet delle cose]]<ref name=":0">{{Cita pubblicazione|nome=Massimo|cognome=Merenda|nome2=Carlo|cognome2=Porcaro|nome3=Demetrio|cognome3=Iero|data=29 aprile 2020|titolo=Edge Machine Learning for AI-Enabled IoT Devices: A Review|rivista=Sensors|volume=20|numero=9|p=2533|lingua=en|accesso=23 novembre 2020|doi=10.3390/s20092533|url=https://www.mdpi.com/1424-8220/20/9/2533}}</ref>. Il primo rende scalabile l'infrastruttura necessaria alla raccolta ed elaborazione dei dati, mentre il secondo crea dispositivi e sensori utili non solo per la raccolta dati ma anche per veicolare servizi basati sull'AI<ref name=":0" />.
 
=== Il significato di IA per le aziende italiane ===
I media e le aziende stanno rivolgendo sempre più l'attenzione verso il tema dell'intelligenza artificiale, in quanto questa si sta dimostrando impattante in termini di efficientamento e automazione di software gestionali, processi industriali, e così via. Tecniche come l'anomaly detection consentono ad esempio di riconoscere, attraverso dati provenienti da sensori, oggetti che presentano dei difetti già in fase di produzione. Reti neurali in grado di stimare la postura umana sono uno strumento che può diventare fondamentale per salvaguardare, ad esempio, la corretta postura del corpo umano durante le ore lavorative, andando a migliorare la sicurezza sul lavoro. I large language model, come ad esempio GPT-3<ref>{{Cita web|url=https://arxiv.org/abs/2005.14165|titolo=Language Models are Few-Shot Learners}}</ref>, si stanno rivelando essere strumenti fondamentali per abbattere i tempi di sviluppo software, o ricevere risposte a domande su ostacoli incontrati nei processi lavorativi.
 
Riga 287:
A partire dal 2017, ''AI for Good'' organizza ogni anno un evento globale, la cui quarta edizione è stata fatta il 21 settembre 2020 a Ginevra, in Svizzera. L'iniziativa operando in relazione a obiettivi di respiro globale<ref>{{Cita pubblicazione|cognome=Butler|nome=Declan|data= 6 giugno 2017|titolo=AI summit aims to help world's poorest|url=https://www.nature.com/news/ai-summit-aims-to-help-world-s-poorest-1.22112|rivista=Nature|lingua=en|volume=546|numero=7657|pp=196-197|doi=10.1038/546196a|issn=0028-0836|urlarchivio=https://web.archive.org/web/20190430190609/https://www.nature.com/news/ai-summit-aims-to-help-world-s-poorest-1.22112}}</ref><ref>{{Cita web|url=https://www.technologyreview.com/s/608049/how-can-we-optimize-ai-for-the-greatest-good-instead-of-profit/amp/|titolo=How Can We Optimize AI for the Greatest Good, Instead of Profit?|lingua=en|accesso=29 giugno 2018|urlmorto=sì|urlarchivio=https://web.archive.org/web/20181109174324/https://www.technologyreview.com/s/608049/how-can-we-optimize-ai-for-the-greatest-good-instead-of-profit/amp/}}</ref>, in particolare riguardo allo [[sviluppo sostenibile]], e si propone di ottenere risultati più immediati e concreti rispetto ai documenti programmatici e di indirizzo generalmente prodotti dai meeting dell'ONU.
 
Le applicazioni di intelligenza artificiale sono state classificate in tre macrocategorie: IAintelligenza artificiale per la Terra (''AI for Earth'')<ref>{{Cita web|url=https://www.nationalgeographic.org/funding-opportunities/grants/what-we-fund/ai-earth-innovation/|titolo=RFP: AI for Earth Innovation|cognome=Society|nome=National Geographic|lingua=en|accesso=14 aprile 2023|dataarchivio=28 agosto 2020|urlarchivio=https://web.archive.org/web/20200828193426/https://www.nationalgeographic.org/funding-opportunities/grants/what-we-fund/ai-earth-innovation/|urlmorto=sì}}</ref><ref>{{Cita web|url=https://www.microsoft.com/en-us/ai/ai-for-earth|titolo=Microsoft AI for Earth|lingua=en|accesso= 10 marzo 2019}}</ref>, AI per fini umanitari (''Humanitarian AI'')<ref>{{Cita web|url=https://www.microsoft.com/en-us/ai/ai-for-humanitarian-action|titolo=AI for Humanitarian Action|lingua=en|accesso= 10 marzo 2019}}</ref><ref>{{Cita web|url=https://www.meetup.com/Humanitarian-AI/|titolo=Humanitarian AI (Cambridge, MA)|sito=Meetup|lingua=en|accesso=10 marzo 2019}}</ref> e AI per l'[[assistenza sanitaria]] (''AI for Healthcare'').<ref>{{Cita pubblicazione|cognome=Wang|nome=Yongjun|cognome2=Shen|nome2=Haipeng|cognome3=Dong|nome3=Qiang|cognome4=Wang|nome4=Yilong|cognome5=Ma|nome5=Sufeng|cognome6=Li|nome6=Hao|cognome7=Dong|nome7=Yi|cognome8=Zhi|nome8=Hui|cognome9=Jiang|nome9=Yong|data=1º dicembre 2017|titolo=Artificial intelligence in healthcare: past, present and future|url=https://svn.bmj.com/content/2/4/230|rivista=Stroke and Vascular Neurology|lingua=en|volume=2|numero=4|pp=230-243|doi=10.1136/svn-2017-000101|issn=2059-8688|pmc=5829945|pmid=29507784}}</ref>
 
Il primo AI for Good Global Summit si è tenuto dal 7 al 9 giugno 2017 a Ginevra<ref>{{Cita web|titolo=AI for Good Global Summit 2017 |url= https://www.itu.int/en/ITU-T/AI/Pages/201706-default.aspx |sito=ITU}}</ref><ref>{{Cita web|url=https://www.youtube.com/playlist?list=PLpoIPNlF8P2PFPZFhYVaUsZrlxcQr6Bhx|titolo=AI for Good - YouTube|sito=YouTube|lingua=en|accesso= 2 luglio 2018}}</ref><ref>{{cita web | url = https://www.slideshare.net/ITU/ai-for-good-global-summit-2017-report | titolo = AI for Good Global Summit - 2017 Report | lingua = en | sito = slideshare.net}}</ref> è stata la creazione di un focus group dell'[[ITU-T]] in tema di apprendimento automatico per la tecnologia di connessione [[5G]].<ref>{{cita web | url = https://www.itu.int/en/ITU-T/focusgroups/ml5g/Pages/default.aspx | titolo = Machine Learning for 5G}}</ref>
Riga 302:
* Approvvigionamento non etico di minerali rari utilizzati nei dispositivi alimentati dall'AI<ref>{{Cita pubblicazione|autore=Kate Crawford|autore2=Vladan Joler|anno=2018|titolo=Anatomy of an AI System|url=https://anatomyof.ai/}}</ref>
* Impronta ambientale dei datacenter, il loro utilizzo di energia e acqua<ref name=":1">{{Cita libro|autore=Kate Crawford|titolo=The Atlas of AI.|data=2021|editore=Yale University Press|doi=10.12987/9780300252392}}</ref><ref>{{Cita pubblicazione|nome=Mél|cognome=Hogan|data=1º dicembre 2015|titolo=Data flows and water woes: The Utah Data Center|rivista=Big Data & Society|volume=2|numero=2|p=2053951715592429|lingua=en|accesso=24 giugno 2021|doi=10.1177/2053951715592429|url=https://doi.org/10.1177/2053951715592429}}</ref>
* Sfruttamento del lavoro digitale "clickwork" coinvolto nell'etichettatura dei dati per allenamento di IAintelligenza artificiale e nella moderazione dei contenuti<ref name=":1" />
* Manipolazione algoritmica delle preferenze di consumo e di voto degli utenti<ref>{{Cita libro|autore=Shoshana Zuboff|titolo=The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power|anno=2019|url=https://archive.org/details/ageofsurveillanc0000zubo|data=2019}}</ref>
 
=== Trasparenza algoritmica e segreto industriale ===
Negli ultimi anni, a causa della crescente presenza di IAintelligenza artificiale nella società, ci sono stati dei tentativi di normare e integrare l'utilizzo delle intelligenze artificiali all'interno del quadro normativo europeo, con particolare attenzione al principio di ''trasparenza algoritmica'', che può essere definito come "l'obbligo, gravante sui soggetti che adottano decisioni con l'ausilio di sistemi automatizzati di trattamento dei dati, di fornire ai destinatari una spiegazione comprensibile delle procedure utilizzate e di motivare sotto questo profilo le decisioni assunte"<ref>{{Cita pubblicazione|autore=Paolo Zuddas|titolo=Brevi note sulla trasparenza algoritmica|rivista=Amministrazione in cammino}}</ref>. Il mancato rispetto della trasparenza violerebbe espressamente l'art. 111 Cost. e il diritto alla difesa ex art. 24 Cost. Inoltre, è stata ribadita nel 2017, dalla [[Dichiarazione di Asilomar]], l'esigenza di garantire la massima trasparenza in ambito di decisioni giudiziarie, in caso di coinvolgimento di sistemi autonomi. Più di recente, al fine di istituire regole armonizzate a livello europeo per lo sviluppo e l'utilizzo dei sistemi di IA, il 21 aprile 2021 la Commissione Europea ha pubblicato una Proposta di Regolamento<ref>{{Cita web|url=https://eur-lex.europa.eu/legal-content/IT/TXT/?uri=CELEX%3A52021PC0206|titolo=EUR-Lex - 52021PC0206 - EN - EUR-Lex|sito=eur-lex.europa.eu|lingua=en|accesso=29 maggio 2022}}</ref>, basandosi su un quadro giuridico già esistente, senza minare la coerenza con le altre norme europee vigenti. Nella suddetta proposta è presente una classificazione delle intelligenze artificiali, con particolare focus sulle "pratiche di intelligenze vietate" e "sistemi IAdi intelligenza artificiale ad alto rischio". Il capo 1 del titolo III fissa le regole di classificazione e individua due categorie principali di sistemi di IAintelligenza artificiale ad alto rischio:
* i sistemi di IAintelligenza artificiale destinati ad essere utilizzati come componenti di sicurezza di prodotti soggetti a valutazione della conformità ex ante da parte di terzi;
* altri sistemi di IAintelligenza artificiale indipendenti che presentano implicazioni principalmente in relazione ai diritti fondamentali esplicitamente elencati nell'allegato III.
 
La Proposta segue un approccio basato sul rischio e impone oneri normativi soltanto laddove un sistema di IAintelligenza artificiale possa comportare rischi alti per i diritti fondamentali e la sicurezza. Per altri sistemi di IAintelligenza artificiale non ad alto rischio sono imposti soltanto obblighi di trasparenza limitati, ad esempio in termini di fornitura di informazioni per segnalare l'utilizzo di un sistema di IAintelligenza artificiale nelle interazioni con esseri umani. Per i sistemi di AI ad alto rischio, i requisiti di qualità elevata dei dati, documentazione e tracciabilità, trasparenza, sorveglianza umana, precisione e robustezza sono strettamente necessari per attenuare i rischi per i diritti fondamentali e la sicurezza posti dall'AI e che non sono oggetto di altri quadri giuridici in vigore. Il titolo IV si concentra su determinati sistemi di IA, al fine di considerare interazioni analitiche con esseri umani, in grado di interpretare emozioni, comportamenti e abitudini sociali o casi di manipolazione di contenuti ("[[Deepfake|deep fake]]") che richiedono la piena consapevolezza dell'essere umano. Ciò consente alle persone di compiere scelte informate o di compiere un passo indietro rispetto a una determinata situazione. Tuttavia, nel Considerando n.63 del [[Regolamento generale sulla protezione dei dati|GDPR]] si precisa che tale diritto di conoscibilità dell'interessato non dovrebbe ledere i diritti e le libertà altrui, compreso il segreto industriale e aziendale e la proprietà intellettuale. Questo porta ad un contrasto sulla quantità di informazioni da rivelare sugli algoritmi coinvolti nel processo decisionale e sul tipo di processi da rendere trasparenti. La possibilità di fare reverse engineering diventa infatti un rischio concreto di perdita economica per un'azienda nel settore IA, oltre al concreto rischio di abbassamento del livello di sicurezza causato dal "''data poisoning''". I sistemi AI, infatti, si basano su una significativa raccolta e analisi di basi di dati come fase di preparazione e monitoraggio degli output rispetto al modello di dati atteso. Attraverso tale meccanismo, le istruzioni fornite non sono completamente predeterminate, ma viene consentito alla macchina di apprendere dall'esperienza, tramite l'inserimento dei dati; questi sistemi, quindi, non si limitano a seguire le istruzioni del programmatore, ma possono andare verso soluzioni impreviste, in relazione ai dati che acquisiscono durante il loro funzionamento. Ancora più oscuri possono risultare i sistemi di [[Apprendimento profondo|deep learning]] (una categoria del [[Apprendimento automatico|machine learning]]), basati sulle reti neurali artificiali, il cui funzionamento risulta ad oggi per lo più inspiegabile in maniera teorica, ma la cui efficacia risulta provata a livello empirico. Questa "scatola nera" che si genera tra input ed output complica ulteriormente la garanzia sulla trasparenza dei dati. Sull'argomento si è espresso anche il GDPR (Regolamento UE 2016/679) tramite gli articoli 13 e 15 in cui si manifesta l'esigenza dell'utente interessato a conoscere l'esistenza di tutti i processi decisionali automatizzati che lo riguardino, nonché la conseguenza prevista di tale trattamento dei dati. Spesso viene fatto riferimento alla ''significatività'' dell'algoritmo, ovvero quanto ha contato l'algoritmo stesso in una specifica decisione all'interno, ad esempio, di un processo amministrativo. Un caso emblematico è rappresentato dal caso COMPAS<ref>{{Cita web|url=https://www.giurisprudenzapenale.com/2019/04/24/lamicus-curiae-un-algoritmo-chiacchierato-caso-loomis-alla-corte-suprema-del-wisconsin/|titolo=Se l'amicus curiae è un algoritmo: il chiacchierato caso Loomis alla Corte Suprema del Wisconsin|autore=Stefania Carrer|sito=Giurisprudenza penale|data=24 aprile 2019|lingua=it|accesso=29 maggio 2022}}</ref>. Nelle controversie sulla trasparenza algoritmica, una delle soluzioni attuali possibili è l'AI spiegabile. L'AI Spiegabile nasce per garantire la tracciabilità dei calcoli, è la risposta alla "scatola nera" a cui si fa riferimento per indicare l'impossibilità di seguire in maniera precisa i passaggi nell'ottenere un risultato. Tuttavia l'Explainable AI presenta vantaggi e svantaggi: rallenta il processo di elaborazione dei dati, richiede formazione del personale e ha un costo elevato poiché deve garantire un alto livello di precisione della previsione e, per verificare ciò, vengono eseguite più simulazioni e confronti tra output con i risultati del dataset di formazione.
 
=== Disoccupazione ===
Riga 374:
La proposta di regolamento costituisce il primo quadro giuridico sull'intelligenza artificiale nell'UE, con l'obiettivo di trasformare l'Unione in un hub globale per un'AI affidabile. La regolamentazione si basa su un approccio denominato "risk-based", cioè basato sulla valutazione dei rischi. La proposta risponde alle esplicite richieste del Parlamento europeo e del Consiglio europeo, che hanno sollecitato un'azione legislativa per garantire un mercato interno efficiente per i sistemi di intelligenza artificiale, affrontando adeguatamente sia i benefici che i rischi associati all'AI a livello dell'Unione.
 
L'obiettivo della proposta di regolamento è fornire una cornice normativa chiara e coerente per l'AI nell'UE, garantendo al contempo la protezione dei diritti fondamentali, la sicurezza e l'affidabilità dei sistemi di intelligenza artificiale. Essa introduce requisiti specifici per i diversi livelli di rischio associati all'uso dell'AI e stabilisce regole per le applicazioni ad alto rischio, come i sistemi di IAintelligenza artificiale utilizzati nei settori della salute, dei trasporti e della sicurezza.
 
==== 2022 ====
Il 25 novembre 2022, il Consiglio dell'Unione Europea ha reso pubblico l'orientamento generale<ref>{{Cita web|url=https://www.studiolegalestefanelli.it/Media/pdf/PROPOSTA%20ST-14954-2022-INIT_it.pdf|titolo=Proposta di regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzare sull’intelligenza artificiale (legge sull’intelligenza artificiale) e modifica alcuni atti legislativi dell’Unione}}</ref> e le modifiche apportate alla proposta di regolamento sull'intelligenza artificiale del 2021, noto come IAAI ACT. Questo documento rappresenta un importante passo nel processo legislativo dell'UE per stabilire regole armonizzate sull'intelligenza artificiale.
 
Tra le modifiche strutturali più significative, vi è una revisione della definizione di intelligenza artificiale, che si limita ora ai sistemi sviluppati mediante approcci di apprendimento automatico e basati sulla logica e sulla conoscenza. Inoltre, il divieto di utilizzo dei sistemi di intelligenza artificiale per pratiche di social scoring viene esteso anche agli attori privati, non solo a quelli pubblici.
Riga 397:
 
Secondo ''[[Wired]]'', l'AI Act prevede le seguenti scadenze dalla data di pubblicazione nella ''Gazzetta Ufficiale dell'Unione Europea'':<ref>{{Cita web|url=https://www.wired.it/article/ai-act-date-entrata-vigore-usi-proibiti-alto-rischio-gazzetta-ufficiale/|titolo=Inizia la stagione dell'AI Act, ecco le 6 scadenze del regolamento europeo sull'intelligenza articiale da sapere|autore=Luca Zorloni|sito=Wired Italia|data=2024-07-12|lingua=it-IT|accesso=2024-07-15}}</ref>
*6 mesi: Divieto sui sistemi di IAintelligenza artificiale con rischio inaccettabile
*9 mesi: Applicazione dei codici di condotta
*12 mesi: Applicazione delle regole di governance e degli obblighi per l'AI di scopo generale
*24 mesi: Inizio dell'applicazione dell'AI Act per i sistemi di IAintelligenza artificiale (incluso l'Allegato III)
*36 mesi: Applicazione dell'intero Regolamento per tutte le categorie di rischio.