-
Notifications
You must be signed in to change notification settings - Fork 1
issue24
Tentativo di sintetizzare i vari ragionamenti in #24 e #17 in una strategia implementativa.
Come gergo interno SIMC, senza pretesa che sia universale, chiamiamo
-
decumulazione il calcolo di cumulate previste su intervalli di uguale durata
Deltat
a partire da dati cumulati su un insieme di intervalli tra forecast time 0 e forecast timen*deltat
;Deltat
è necessariamente pari o multiplo dideltat
; il calcolo avviene per differenze di valori successivi -
ricumulazione il calcolo di cumulate previste su intervalli di uguale durata
Deltat
a partire da dati cumulati su un insieme di intervalli contigui di duratadeltat
;Deltat
è necessariamente pari o multiplo dideltat
; il calcolo avviene per somma di valori successivi -
cumulate trascinate un insieme di cumulate previste su intervalli di uguale durata
Deltat
che si sovrappongono parzialmente a vicenda, es. 0-3, 1-4, 2-5...
Se è presente la snow-fall convettiva, sommarla alla large-scale usando libsim. Altrimenti usare direttamente la large scale.
Per sommare c'è il comando:
vg6d_transform --output-variable-list=B13205 snow_ls_conv.grib snow_total.grib
- se il comando non trova uno dei due ingredienti, non esce niente, per cui si deve gestire esternamente il fallback alla sola componente large scale, che in grib1 ha
indicatorOfParameter
79 da tabella WMO - se il comando funziona, il risultato è un grib1 con
indicatorOfParameter
locale nonstandard 153 (v. B13205 in/usr/share/libsim/vargrib2bfr.csv
), di ignoto inventore, forse l'area di qualità dell'aria - TODO la tabella libsim di cui sopra deve essere estesa con i corrispondenti parametri grib2 che si spera esistano nelle tabelle standard WMO
Successivamente si deve decumulare con libsim all'intervallo voluto (i dati di norma sono cumulati dall'inizio del run a n ore) come indicato in https://github.com/ARPA-SIMC/arkimaps/issues/17#issuecomment-749641714; l'opzione --comp-full-steps
evita le cumulate trascinate.
La total snow qui dovrebbe essere già disponibile, quindi nessuna somma di convettiva/large scale è richiesta.
Ci sono informazioni controverse sul fatto che sia cumulata (1) come in Cosmo dall'inizio del run fino a n ore oppure (2) su intervalli di eguale durata, ma se anche siamo nel caso (2) possiamo applicare lo stesso comando di elaborazione statistica che applicheremmo con Cosmo, si accorgerebbe automaticamente della necessità di ricumulare anziché decumulare e farebbe comunque la cosa giusta, (a meno del comportamento di --comp-full-steps
che è da verificare); se l'intervallo di cumulazione è già quello giusto la procedura è una perdita di tempo ma non dovrebbe generare errori.