Programma: PNRR M4C2 – Investimento 1.1 PRIN 2022
Settore ERC: PE - Physical Sciences and Engineering // SH - Social Sciences and Humanities
Codice progetto: 20223725WE – CUP: B53D23009620006
Responsabile scientifico: Prof. Massimo Franchi
Capofila: UNIVERSITA' DEGLI STUDI DI ROMA TOR VERGATA
Partner (Altre Unità): Università degli Studi di Roma "La Sapienza", UNIVERSITA' DEGLI STUDI DI SALERNO, UNIVERSITA' POLITECNICA DELLE MARCHE e Università degli Studi di MESSINA
Contributo Totale progetto: € 169.170,00
Contributo per l’Ateneo: € 21.349,00
Durata: 24 mesi (dal 30/09/2023 al 29/09/2025)
Abstrac
Traditional methods for multivariate time series have focused on models whose aim was to give the most general and flexible description of the Data Generation Process. If N is the number of series, the number of parameters is typically O(Nh), where h ranges from 2 for VAR models to 4 for multivariate GARCH and realized covariances models. This strategy is appropriate when N is small, but in data-rich environments, such as the ones that have become common in recent years, the so-called “curse of dimensionality” is challenging. This problem has recently become particularly acute because the COVID pandemic and the associated economic crisis it has brought about has sparked renewed interest in business cycle analysis, which cannot rely on traditional tools only, with the wealth of data that is available nowadays.
In this project, two main research lines will be developed, both on the methodological and empirical side. These two lines will explore the two main theme of multivariate time series modelling, namely
(1) developing models to be used for structural analysis and forecasting and,
(2) estimating covariance matrices capturing the correlation and volatility properties of the data, to be used for model inference, portfolio selection risk management, and asset pricing.
More specifically, the two main lines of the project can be described as follows:
1) new methods for large time series modelling. In particular, we will:
(i) establish the number of cointegrating relationships in large datasets;
(ii) explore the features of MAI models to reduce the dimension of VAR structures and extending them to consider time-varying parameters, nonstationarity and cointegration;
(iii) treat large scale time series as a collection of functions recorded over time;
(iv) estimate Dynamic Factor Models with large dimension.
2) New methods for predicting large dimensional covariance matrices. In this case we will pursue three purposes:
(i) dimension reduction by using regularization methods and proposing more flexible and time-varying dynamic conditional covariance models;
(ii) analysis of volatility spillover effects;
(iii) development of new models to capture and estimate the effects of exogenous variables on volatilities and covariances of financial markets.
We foresee two types of output, both of the highest quality standard: scientific articles and computer code. The former are intended for publication in high-ranking journals. The latter will have two main features: it will be accessible and usable with minimum cost and difficulty by the largest possible number of users, both academic and non-academic; it will combine sophisticated statistical techniques natively with the possibility of exploiting the growing availability of massively parallelized hardware, which is clearly crucial for handling large quantities of data. Both these requirements point towards heavy reliance of the major reliable software under the form of Free and Libre Open Source Software.
I metodi tradizionali per le serie storiche multivariate si sono concentrati su modelli il cui scopo era quello di fornire la descrizione più generale e flessibile del processo di generazione dei dati. Se Nè il numero di serie, il numero di parametri è tipicamente O(Nh), dove h varia da 2 per i modelli VAR a 4 per i modelli GARCH multivariati e i modelli di covarianze realizzate. Questa strategia è appropriata quando Nè piccolo, ma in ambienti ricchi di dati, come quelli che sono diventati comuni negli ultimi anni, la cosiddetta "maledizione della dimensionalità" è impegnativa. Questo problema è diventato recentemente particolarmente acuto perché la pandemia di COVID e la crisi economica ad essa associata ha suscitato un rinnovato interesse per l'analisi del ciclo economico, che non può basarsi solo sugli strumenti tradizionali, con la ricchezza di dati oggi disponibili. In questo progetto si svilupperanno due principali linee di ricerca, sia dal punto di vista metodologico che empirico.
Queste due linee esploreranno i due temi principali della modellazione multivariata delle serie storiche, vale a dire (1) lo sviluppo di modelli da utilizzare per l'analisi strutturale e la previsione e (2) la stima di matrici di covarianza che catturano le proprietà di correlazione e volatilità dei dati, da utilizzare per l'inferenza del modello, la selezione del portafoglio, la gestione del rischio e l'asset pricing. Più nello specifico, le due linee principali del progetto possono essere così descritte:
1) nuovi metodi per la modellazione di grandi serie storiche. In particolare, ci occuperemo di:
(i) stabilire il numero di relazioni di cointegrazione in grandi set di dati;
(ii) esplorare le caratteristiche dei modelli MAI per ridurre la dimensione delle strutture VAR ed estenderli per considerare parametri variabili nel tempo, non stazionarietà e cointegrazione;
(iii) trattare le serie temporali su larga scala come un insieme di funzioni registrate nel tempo;
(iv) stima di Modelli Fattoriali Dinamici di grandi dimensioni.
2) Nuovi metodi per la previsione di matrici di covarianza di grandi dimensioni. In questo caso perseguiremo tre scopi:
(i) riduzione dimensionale utilizzando metodi di regolarizzazione e proponendo modelli di covarianza condizionale dinamica più flessibili e variabili nel tempo;
(ii) analisi degli effetti di ricaduta della volatilità;
(iii) sviluppo di nuovi modelli per catturare e stimare gli effetti delle variabili esogene sulle volatilità e sulle covarianze dei mercati finanziari.
Prevediamo due tipi di output, entrambi di altissimo standard qualitativo: articoli scientifici e codice informatico. I primi sono destinati alla pubblicazione su riviste di alto livello. Quest'ultimo avrà due caratteristiche principali: sarà accessibile e fruibile con il minimo costo e difficoltà dal maggior numero possibile di utenti, sia accademici che non; Combinerà in modo nativo sofisticate tecniche statistiche con la possibilità di sfruttare la crescente disponibilità di hardware massivamente parallelizzato, che è chiaramente cruciale per la gestione di grandi quantità di dati. Entrambi questi requisiti puntano a una forte dipendenza dal software più affidabile sotto forma di Free e Libre Open Source Software.
Parole chiave:
analysis, parallel and distributed computing financial econometrics high dimensional statistics and econometrics macroeconometrics multivariate analysis time series analysis