VoiceXML: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
Ginosbot (discussione | contributi)
m Bot: Aggiungo: th:VoiceXML
m Aggiunto il template "Apostrofo" ed eliminato uno spazio
 
(46 versioni intermedie di 22 utenti non mostrate)
Riga 1:
'''VoiceXML''' ('''VXML''') acronimo di '''V'''oice e'''X'''ensibletensible '''M'''arkup '''L{{'}}''anguage, rappresentadefinito lo standarddal [[W3CWorld Wide Web Consortium]] (W3C), rappresenta lo standard in formato [[XML]], per la creazione di dialoghi interattivi tra una persona eed un computer.
{{W|informatica|maggio 2008}}
{{S|informatica}}
'''VoiceXML''' ('''VXML''') acronimo di '''V'''oice e'''X'''ensible '''M'''arkup '''L'''anguage rappresenta lo standard [[W3C]] , in formato [[XML]], per la creazione di dialoghi interattivi tra una persona e un computer.
La piattaforma VoiceXML lavora in modo analogo a un browser HTML.
Come un browser HTML carica documenti da un Server Web e li interpreta, analogamente il Voice Gateway carica gli script VoiceXML dal Server Web e li interpreta.
 
La piattaforma VoiceXML lavora in modo analogo a un browser [[HTML]]: i documenti VoiceXML vengono scaricati da un [[server web]] e interpretati e trasformati in voce da un Voice Gateway residente sul computer dell'utente finale.
== A cosa serve ==
VoiceXML si candida come linguaggio ideale per verticalizzare di applicazioni Web esistenti creando così nuovo layer di presentazione, '''Voice User Interface''' (VUI) e una nuova via di accesso ai dati: il telefono.
 
== Applicazioni ==
VoiceXML permette la creazione di logiche di dialogo uomo-macchina in linguaggio naturale attraverso l’integrazione con diverse tecnologie, tra cui:
VoiceXML è un linguaggio progettato per realizzare sistemi di presentazione e interazione vocali, denominati ''Voice User Interface'' (VUI, in italiano ''interfaccia utente vocale''), usando la linea telefonica per l'accesso ai dati.
*[[DTMF|Dual-Tone Multi-Frequency]]
*[[ASR|Automatic Speech Recognition]]
*[[TTS|Text-to-Speech]].
*'''Speaker Verification'''
*Video in streaming o preregistrati
 
VoiceXML permette la creazione di logiche di dialogo uomo-macchina in linguaggio naturale attraverso l’'integrazione con diverse tecnologie, tra cui:
Una delle caratteristiche del linguaggio VoiceXML è quella di essere costruito per sviluppare applicazioni voice-enabled orientate al Web: questo implica, infatti, la possibilità di produrre pagine VoiceXML anche attraverso linguaggi server side (ASP, ASP.NET, JSP, PHP, ecc.).
*[[DTMF|Dual-Tone Multi-Frequency]]
*[[Riconoscimento vocale]]
*[[Sintesi vocale]]
*'''Speaker Verification'''
* Video in streaming o preregistrati
 
Una delle caratteristiche delIl linguaggio VoiceXML è quellaespressamente diconcepito essereper costruito peroperazioni svilupparee applicazioni voice-enabled orientate al Webweb: questo implica, infatti, la possibilitàconsente di produrre paginedocumenti VoiceXML anche in modo dinamico e interattivo con l'utente, attraverso linguaggi server side (ASP, [[ASP.NET]], JSP, PHP, ecc.), così come avviene per le pagine web.
 
== Caratteristiche ==
 
Alcune delle caratteristiche del linguaggio VoiceXML sono:
* ''Linguaggio di markup idealeconcepito per creare applicazioni vocali'': VoiceXML è stato progettato appositamente per la creazione di applicazioni vocali, la gestione dei dialoghi, e l’'integrazione con le funzioni di '''ASR'''riconoscimento e '''TTS'''sintesi vocale.
 
* ''Separazione del codice per le interazioni utente dal codice dell'’applicazione'': la separazione delle logiche di programmazione da quelle di presentazione è un requisito fondamentale, sia per la verticalizzazione di applicazioni esistenti, sia per lo sviluppo in team di applicazioni vocali.
* ''Linguaggio di markup ideale per creare applicazioni vocali'': VoiceXML è stato progettato appositamente per la creazione di applicazioni vocali, la gestione dei dialoghi, e l’integrazione con le funzioni di '''ASR''' e '''TTS'''.
* ''Una strutturaStruttura modulare'': la struttura stessa del linguaggio permette la creazione di dialoghi, grammatiche e logiche di interazione che possono essere resi modulari. Questi elementi possono essere conservati separatamente e riutilizzati in altre applicazioni.
 
* ''Portabilità e semplicità di sviluppo'': VoiceXML è stato creato per essere utilizzato indipendentemente dalle piattaforme e per nascondere al programmatore le logiche di più basso livello;. loLo sviluppatore di applicazioni vocali , infatti, non dovrà preoccuparsi sulladella gestione del motori di riconoscimento o sintesi vocale, ma si potrà concentareconcentrare sulla creazione dell'interfaccia utente.
* ''Separazione del codice per le interazioni utente dal codice dell'’applicazione'': la separazione delle logiche di programmazione da quelle di presentazione è un requisito fondamentale, sia per la verticalizzazione di applicazioni esistenti, sia per lo sviluppo in team di applicazioni vocali.
 
* ''Una struttura modulare'': la struttura stessa del linguaggio permette la creazione di dialoghi, grammatiche e logiche di interazione che possono essere resi modulari. Questi elementi possono essere conservati separatamente e riutilizzati in altre applicazioni.
 
* ''Portabilità e semplicità di sviluppo'': VoiceXML è stato creato per essere utilizzato indipendentemente dalle piattaforme e per nascondere al programmatore le logiche di più basso livello; lo sviluppatore di applicazioni vocali , infatti, non dovrà preoccuparsi sulla gestione del motori di riconoscimento o sintesi vocale, ma si potrà concentare sulla creazione dell'interfaccia utente.
 
== Come funziona ==
L'’utente si connette tramite il proprio telefono (senza dover usare un particolare browser o plugin) ad un Voice Gateway attraverso la [[PSTN|rete telefonica ordinaria]].
 
[[ImmagineFile:Archi3 wiki.jpg|600px]]
L'’utente si connette tramite il proprio telefono (senza dover usare un particolare browser o plugin) ad un Voice Gateway attraverso la [[PSTN]].
 
[[Immagine:Archi3 wiki.jpg|600px]]
 
Il Voice Gateway svolge le seguenti funzioni:
* interpreta il filedocumento VoiceXML;
* produce un messaggio vocale attraverso la sintesi vocale(TTS);
* riceve ed interpreta glii inputcomandi dall'’utente (tramite la tastiera a toni, via DTMF o ASRtramite comandi vocali, via riconoscimento vocale);
* dialoga con il Webserver Serverweb attraverso il [[Hypertext Transfer Protocol|protocollo HTTP]].
 
Il server Webweb, una volta ricevericevute le richieste dal Voice Gateway, e rende disponibili i filedocumenti VoiceXML per la loro interpretazione e conversione in voce verso l'utente finale.
loro interpretazione.
 
== Esempio ==
 
Esempio di un documento VoiceXML:
 
<sourcesyntaxhighlight lang=xml>
 
<?xml version="1.0" encoding="UTF-8" ?>
Line 59 ⟶ 49:
</block>
</form>
</vxml>
 
</syntaxhighlight>
</source>
 
L'’interpretazione di questa pagina VoiceXML da parte del Voice Gateway produrràfa lapronunciare pronuncia da parte del TTS dellele parole " ''Ciao Mondo!'''" ”"tramite un sistema integrato di sintesi vocale.
 
Esempi di applicazioni possibili sono: posta elettronica, informazioni suldi meteo,servizio informazionidi sulpubblica utilità (meteo, traffico...), quotazioni di borsa, oroscopo, call center, [[gestione delle scorte]], ecc.servizi per il tempo libero (oroscopi, eccetera).
 
== Storia del linguaggio ==
Un primo linguaggio di markup per interazioni vocali via telefono, il ''Phone Markup Language'' (PML) fu sviluppato dai [[Bell Laboratories]] di AT&T. Lo sviluppo proseguì anche quando i Bell Laboratories furono scorporati da AT&T e integrati in [[Alcatel-Lucent|Lucent Technology]].
 
Nel frattempo anche [[IBM]] e [[Motorola]] svilupparono i loro linguaggi di markup vocali, denominati rispettivamente SpeechML e VoxML.
AT&T Bell Labs svilupparono il Phone Markup Language (PML).
In seguito AT&T si divise in AT&T e Lucent che portarono avanti separatamente lo svilppo del linguaggio PML.
IBM svilupp&ograve; il linguaggio SpeechML, Motorola il linguaggio VoxML.
Nel Marzo 1999 IBM, AT&T, Lucent e Motorola si unirono nel VoiceXML Forum e crearono (nell'Agosto 1999) il linguaggio VoiceXML.
La '''versione 1.0''' fu pubblicata nel Marzo del 2000.
VoiceXML 1.0 venne largamente adottata, grazie anche alla sua somiglianza con HTML.
'''VoiceXML 2.0''' divento ''Recommendatio'' W3C a Marzo 2004.
 
Nel marzo [[1999]] IBM, AT&T, Lucent e Motorola decisero di unificare gli sviluppi su una base comune, dando vita al VoiceXML Forum che nell'agosto 1999 iniziò le specifiche del linguaggio VoiceXML, pubblicando la versione 1.0 nel marzo [[2000]]. Il nuovo linguaggio di markup, grazie anche alle somiglianze con l'HTML, ebbe subito un'ampia diffusione. L'attore italiano principale nelle attività del forum è stato lo [[Centro studi e laboratori telecomunicazioni|CSELT]].
'''VoiceXML 2.1''', diventata ''Reccomendation'' W3C nel'Ottobre 2007, aggiunge alcune caratteristiche addizionali alla versione precedente con cui è retro-compatibile.
 
Nel marzo [[2004]], la versione 2.0 di VoiceXML divenne una raccomandazione ufficiale del W3C<ref>{{en}} [https://www.w3.org/TR/2004/REC-voicexml20-20040316/ Voice Extensible Markup Language (VoiceXML) Version 2.0] W3C Recommendation, 16 marzo 2004</ref> che ne cura gli sviluppi e le evoluzioni.
== Standard collegati ==
 
A giugno [[2007]] il W3C ha distribuito la versione 2.1 di VoiceXML<ref>{{en}} [https://www.w3.org/TR/2007/REC-voicexml21-20070619/ Voice Extensible Markup Language (VoiceXML) 2.1] W3C Recommendation, 19 giugno 2007</ref>, che presenta una serie di estensioni garantendo la compatibilità all'indietro con la versione precedente.
 
A giugno [[2009]] il W3C ha distribuito la seconda versione draft dell'edizione 3.0 di VoiceXML<ref>{{en}} [https://www.w3.org/TR/2009/WD-voicexml30-20090602/ Voice Extensible Markup Language (VoiceXML) 3.0] W3C Working Draft, 2 giugno 2009</ref>, che prevede ulteriori estensioni tra cui l'identificazione e la verifica della voce e la cattura e riproduzione di video.
 
== Standard collegati ==
Il W3C ha separato la struttura dell’interfaccia vocale in altri diversi linguaggi:
Nel quadro delle attività collegate alle applicazioni vocali, il W3C ha ulteriormente separato il controllo delle interfacce vocale definendo diversi linguaggi di markup, ognuno orientato verso aspetti specifici.
 
=== SRGS e SISR ===
''Speech Recognition Grammar Specification (SRGS)'' è il linguaggio utilizzato per scrivere le grammatiche (insiemi di regole) utilizzate dal riconoscitore vocale per riconoscere gli input ’utente.
 
''Semantic Interpretation for Speech Recognition(SISR)'' gliviene sviluppatoriutilizzato usanoper controllare l’'interpretazione semantica, inserendo le opportune istruzioni nelle grammatiche, per manipolare i risultati ottenuti dal riconoscimento vocale in base al contesto applicativo.
 
=== PLS ===
''[[Pronunciation Lexicon Specification]] (PLS)'' viene utilizzato sia dal riconoscitore vocale sia dalladal sintesisintetizzatore per definirecontrollare la corretta pronuncia di una parola, soprattutto in applicazioni multilingue.
 
=== SSML ===
''[[Speech Synthesis Markup Language]] ([[SSML]])'' viene usato per migliorare la prosodia delle frasi percontrollando esempioaspetti aumentandoquali oenfasi, diminuendotimbro lavocale, volume sonoro e velocità di lettura.
 
=== CCXML ===
''Call CantrolControl eXensible Markup Language (CCXML)'' linguaggio viene usato per la gestione delle telefonate. Permette di accettare una chiamata in entrata, effettuare una chiamata in uscita, disconnettereterminare una chiamata e connettere insiemecollegare più chiamate in conferenza.
 
==Note==
<references />
 
== Altri progetti ==
{{Portale|Informatica}}
{{interprogetto}}
 
{{Controllo di autorità}}
[[Categoria: Linguaggi di markup | Standard informatici]]
{{Portale|Informaticainternet}}
 
[[Categoria:Linguaggi di markup]]
[[de:VoiceXML]]
[[Categoria: Linguaggi di markup | Standard informatici]]
[[en:VoiceXML]]
[[Categoria:Standard W3C]]
[[fr:VoiceXML]]
[[Categoria:Sintesi vocale]]
[[ja:VoiceXML]]
[[Categoria:Riconoscimento vocale]]
[[pl:VoiceXML]]
[[pt:VoiceXML]]
[[sv:VoiceXML]]
[[th:VoiceXML]]