Modulo:Webarchive/sandbox: differenze tra le versioni

Contenuto cancellato Contenuto aggiunto
rendo più preciso il riconoscimento dei servizi onde evitare falsi positivi
stesso trattamento per ogni url
Riga 242:
estratto da mw.uri.new() (es. web.archive.org)
]]
local function serviceName(url_mainurl_data, nolink)
local tracking = 'Categoria:Template Webarchive - altri archivi'
local bracketopen, bracketclose = nolink and '' or '[[', nolink and '' or ']]'
encoded_date = nil -- reset
url_main.service = 'altri'
url_data.service = 'altri'
for _,servizio in ipairs(servizi) do
if mw.ustring.find(string.gsub(url_mainurl_data.host, 'www%.', ''), '^' .. servizio.signature .. '$') then
url_mainurl_data.service = servizio['service'] or url_mainurl_data.service
if servizio['tailbracket'] then
url_mainurl_data.tail = mw.ustring.format(servizio.tailbracket, bracketopen, bracketclose)
else
url_mainurl_data.tail = servizio['tail']
end
tracking = servizio['tracking'] or tracking
Line 259 ⟶ 260:
end
end
if url_mainurl_data.tail == nil then
url_mainurl_data.tail = ' su ' .. url_mainurl_data.host .. '. ' .. inlineRed('Errore: URL di servizio di archiviazione sconosciuto')
end
track[tracking] = 1
end
 
--[[--------------------------< parseExtraArgs >-----------------------
Analizza gli argomenti numerati da 2 a maxurls, come url2..url10, date2..date10, title2..title10
e li memorizza in una tabella.
Per esempio: {{webarchive |url=.. |url4=.. |url7=..}}
Tre argomenti url non in una sequenza numerica (1..4..7).
La funzione processa solo gli argomenti numerati 2 o maggiore (in questo caso 4 e 7).
Crea entrate in una tabella a sequenza numerica come:
urlx[1].url = <valore argomento di url4>
urlx[2].url = <valore argomento di url7>
Restituisce la tabella elaborata.
]]
local function parseExtraArgs(args, maxurls)
local i, index, argurl, argurl2, argdate, argtitle
local ulx = {}
index = 1
for i = 2, maxurls do
argurl = 'url' .. i
if args[argurl] then
ulx[index] = {}
ulx[index]['url'] = args[argurl]
ulx[index]['date'] = args['date' .. i] or args['data' .. i] or
inlineRed('Data mancante', 'warning')
ulx[index]['title'] = args['title' .. i] or args['titolo' .. i]
index = index + 1
end
end
return ulx
end
 
Line 311 ⟶ 283:
 
--[[--------------------------< createRendering >-----------------------
Restituisce la resa dei dati in ulxurl_data[][]
]]
local function createRendering(url_main, ulxurl_data)
local sand
local day = url_mainurl_data[1].date and mw.ustring.match(url_mainurl_data[1].date, '^%d+')
local article = (day == '8' or day == '11') and 'l\'' or 'il '
if not url_mainurl_data[1].title and not url_mainurl_data[1].date then
sand = mw.ustring.format('[%s Archiviato]%s.', url_mainurl_data[1].url, url_mainurl_data[1].tail)
elseif not url_mainurl_data[1].title and url_mainurl_data[1].date then
sand = mw.ustring.format('[%s Archiviato] %s%s%s.', url_mainurl_data[1].url, article, url_mainurl_data[1].date, url_mainurl_data[1].tail)
elseif url_mainurl_data[1].title and not url_mainurl_data[1].date then
sand = mw.ustring.format('[%s %s]%s.', url_mainurl_data[1].url, url_mainurl_data[1].title, url_mainurl_data[1].tail)
elseif url_mainurl_data[1].title and url_mainurl_data[1].date then
sand = mw.ustring.format('[%s %s]%s&#32;(archiviato %s%s).', url_mainurl_data[1].url, url_mainurl_data[1].title, url_mainurl_data[1].tail, article, url_mainurl_data[1].date)
else
return nil
end
if #ulxurl_data > 01 then -- per più URL di archivio
sand = sand .. ' Archivi aggiuntivi: '
local archives_output = {}
for _,urlxi in= 2, ipairs(ulx)#url_data do
archives_output[#archives_output+1] = mw.ustring.format('[%s %s]', urlxurl_data['i].url'], urlxurl_data['i].title'] or formatDate(urlxurl_data['i].date']) )
end
sand = sand .. table.concat(archives_output, ', ') .. '.'
Line 356 ⟶ 328:
end
})
local url_data = {}
local i = 1
while true do
local n = i == 1 and args.url and '' or i
local url = i == 1 and (args.url or args.url1) or args['url' .. i]
 
-- verifica eventuali errori nel parametro url
if i == 1 and not url then
local url1 = args.url or args.url1
return inlineError('url', 'vuoto') .. createTracking()
if not url1 then
elseif not url or i > maxurls then
return inlineError('url', 'vuoto') .. createTracking()
break
elseif mw.ustring.find(url1, 'https://web.http') then
elseif mw.ustring.find(url, 'https://web.http') then
track['Categoria:Errori di compilazione del template Webarchive'] = 1
track['Categoria:Errori di compilazione del template Webarchive'] = 1
return inlineError('url', 'https://web.http') .. createTracking()
elseif return url1inlineError('url' ==.. n, 'https://web.archive.org/http:/') .. thencreateTracking()
elseif url == 'https://web.archive.org/http:/' then
track['Categoria:Errori di compilazione del template Webarchive'] = 1
track['Categoria:Errori di compilazione del template Webarchive'] = 1
return inlineError('url', 'URL non valido') .. createTracking()
return inlineError('url' .. n, 'URL non valido') .. createTracking()
end
end
local url_main = {}
url_data[i] = {}
url_main.url = url1
url_data[i].url = url
url_main.host = mw.uri.new(url1).host
url_data[i].host = mw.uri.new(url).host
if not url_main.host then return inlineError('url', 'URL non valido') end
if not url_data[i].host then return inlineError('url' .. n, 'URL non valido') end
serviceName(url_main, args.nolink)
serviceName(url_data[i], args.nolink)
 
-- gestione delle date
local date = i == 1 and (args.date or args.date1 or args.data or args.data1) or
args['date' .. i] or args['data' .. i]
if date then
if date then
date = formatDate(date)
local udate = url_mainurl_data[i].service == 'wayback' and p.decodeWaybackDate(url_mainurl_data[i].url) or
url_main url_data[i].service == 'webcite' and p.decodeWebciteDate(url_mainurl_data[i].url) or
url_main url_data[i].service == 'archiveis' and p.decodeArchiveisDate(url_mainurl_data[i].url)
if udate and udate ~= date then
date = date .. inlineRed('<sup>[Data nell\'URL non combaciante: ' .. udate .. ']</sup>', 'warning')
elseif not udate and encoded_date == true then
date = date .. ' ' .. inlineRed('Data nell\'URL indecifrabile', 'error')
end
elseif url_data[i].service == 'wayback' then
date = p.decodeWaybackDate(url_data[i].url)
elseif url_data[i].service == 'webcite' then
date = p.decodeWebciteDate(url_data[i].url)
elseif url_data[i].service == 'archiveis' then
date = p.decodeArchiveisDate(url_data[i].url)
else
date = inlineRed('Data mancante', 'warning')
end
if not date then
elseif url_main.service == 'wayback' then
date = encoded_date == false and inlineRed('Data mancante', 'warning') or
date = p.decodeWaybackDate(url_main.url)
inlineRed('Data nell\'URL indecifrabile', 'error')
elseif url_main.service == 'webcite' then
end
date = p.decodeWebciteDate(url_main.url)
url_data[i].date = date
elseif url_main.service == 'archiveis' then
 
date = p.decodeArchiveisDate(url_main.url)
-- gestione del titolo
else
url_data[i].title = i == 1 and (args.title or args.title1 or args.titolo or args.titolo1) or
date = inlineRed('Data mancante', 'warning')
args['title' .. i] or args['titolo' .. i]
 
i = i + 1
end
local rend = createRendering(url_data)
if not date then
date = encoded_date == false and inlineRed('Data mancante', 'warning') or
inlineRed('Data nell\'URL indecifrabile', 'error')
end
url_main.date = date
 
-- gestione del titolo
url_main.title = args.title or args.title1 or args.titolo or args.titolo1
local ulx = parseExtraArgs(args, maxurls)
local rend = createRendering(url_main, ulx)
if not rend then
track['Categoria:Errori di compilazione del template Webarchive'] = 1
rend = '<span style="font-size:100%" class="error citation-comment">Errori in [[:Template:Webarchive]]: problema sconosciuto. Si prega di segnalarlo nella [[Discussioni_templateDiscussioni template:Webarchive|pagina di discussione]] del template.</span>'
end