Uomo o macchina? La nuova frontiera della gestione degli investimenti

28/11/2018 Euromobiliare AM SGR

a cura di Paolo Biamino - Resp. Strategie, Third Parties & Business

 

La disputa degli antichi e dei moderni, ovvero l'eterna diatriba tra i sostenitori della tradizione e coloro i quali privilegiano tutto ciò che è nuovo e moderno ha riguardato nei secoli molti campi della conoscenza: letteratura, filosofia, arti visive. Mi era ignoto però che questa avesse coinvolto anche la matematica e la computer science fino a quando ho letto l'ultimo libro del matematico Paolo Zellini, “La dittatura del calcolo” (Adelphi, 2018).

Zellini ricorda che negli anni Ottanta l'eminente scienziato Clifford A. Truesdell pubblicò un'invettiva dal titolo evocativo, “The Computer: Ruin of Science and Threat to Mankind”. Secondo Truesdell, a causa della crescente capacità computazionale dei calcolatori, la scienza sarebbe stata stravolta fino a non essere più imperniata sulle leggi tradizionali dell'analisi e della fisica matematica, ma su “modelli fluttuanti”, non soggetti a legge alcuna, sottoposti principalmente alle verifiche di una vorace e indiscriminata sperimentazione numerica. Quest'ultima sarebbe stata demandata ad un computer, un oggetto misterioso che riduceva ogni problema a serie binarie, senza il minimo estro creativo.

Quando ho letto questo passaggio non ho potuto non pensare a quanto sta accadendo oggi nella finanza quantitativa. I vecchi modelli di pricing delle attività finanziarie, come ad esempio il Three Factor Model di Fama e French che abbiamo studiato all'Università, partivano da un numero limitato di variabili la cui relazione con il prezzo di un titolo aveva solide basi economiche ed era comunque dimostrata dall'esperienza empirica. Vista la limitatezza dei dati a disposizione e la difficoltà di trattarli computazionalmente non poteva che essere così. In altri termini si cercava la verità, ovvero il giusto prezzo di un titolo, studiando il comportamento di una serie di variabili che quella verità si ritenevano in grado di potere approssimare.

A questi modelli, generalmente ritenuti ancora validi e su cui si fonda l'ormai vastissimo ambito dei prodotti definiti “Smart Beta”, si contrappone una nuova branca di modelli resi possibili dalla crescita esponenziale della capacità di calcolo e dalla disponibilità di dati pressoché illimitata circa il comportamento delle aziende e dei loro “stakeholders”. A questi modelli ben si addice la definizione di “fluttuante” usata da Truesdell. E' infatti poco importante che la relazione tra una qualunque variabile ed il prezzo di una attività finanziaria sia spuria o non abbia un fondamento economico evidente: tutto ciò che conta è che sia funzionale nello spiegare ora il comportamento dell’attività sottostante. Se domani dovesse smettere di avere un valore predittivo poco importa: verrà prontamente sostituita da un'altra variabile tra le miriadi analizzate dal calcolatore. Perchè attendere l'ultimo report sulle vendite di Walmart quando si può analizzare in tempo reale il traffico attorno ai suoi centri commerciali ed intersecarlo con il numero di camion in uscita dai magazzini dei suoi fornitori? In questo caso non si parla più di approssimazione discreta della realtà ma di coglierla nel continuo.

L’eventuale diffusione di questo nuovo sviluppo della finanza quantitativa, che ha per ora applicazioni marginali nei fondi comuni di investimento, pone a mio avviso qualche domanda circa il futuro dell’industria del risparmio gestito. Gli investimenti in basi di dati e capacità di calcolo necessari rendono questi nuovi modelli appannaggio di pochi player di grandi (se non enormi) dimensioni. Essi rappresentano quindi una ulteriore spinta verso il consolidamento e le economie di scala già in atto nell’industria? E’ inoltre possibile immaginare che, grazie a questa tecnologia superiore, gli stessi soggetti si creino un vantaggio competitivo in termini di generazione di alpha. Oppure al contrario la diffusione su vasta scala di questa tecnologia potrebbe finalmente realizzare la forma di efficienza forte per cui tutta l’informazione si riflette immediatamente nei prezzi di mercato e non vi è più alcuna possibilità di generare un puro alpha.

Vi sono poi domande di ordine etico a cui, prima di abbracciare in maniera decisa questa tecnologia, l’industria dovrebbe sapere rispondere. Riprendendo l’esempio precedente, ci pare quantomeno discutibile il fatto che una istituzione privata sfrutti un set di dati raccolto senza un consenso esplicito al solo fine di elaborare una strategia di investimento. Gli stessi dati vengono già utilizzati per tutt’altri scopi ma, a fronte dell’invasione nella sfera personale che ciò comporta, deve almeno esserci un corrispettivo vantaggio per chi questi dati li ha più o meno inconsapevolmente prodotti e forniti.

Affidare scelte di investimento ad un algoritmo potrebbe condurre ad un risultato paradossale. Riprendendo una osservazione fatta da Henry Kissinger in un articolo apparso in “The Atlantic” sull’intelligenza artificiale ci sentiamo di dire che all’aumento esponenziale della quantità di informazioni su cui si basano le scelte di investimento effettuate da un algoritmo corrisponde una ridotta trasparenza dei metodi che hanno condotto a queste scelte e dell’intellegibilità delle stesse. Tra i pilastri dell’industria del risparmio gestito non possiamo non citare “The Prudent Man Rule” scritta dal giudice di Boston Samuel Putnam nel 1830. Essa introduce nella gestione finanziaria un principio di tipo “umanistico” ed è perciò figlia dell’Illuminismo, un movimento che pone al centro la ragione e la capacità dell’uomo di individuare le leggi che regolano fenomeni di natura precedentemente inspiegabili se non alla luce della fede. Nel caso della gestione del risparmio l’illuminismo introdotto da Samuel Putnam consiste nel definire regole di comportamento chiare e prendere scelte motivate. Del resto, lavorando su una materia incerta come i mercati finanziari, all’asset manager è stato fin qui chiesto di prendere una obbligazione di mezzi e non di risultato: va da sé che questi mezzi devono essere noti e spiegabili.

Siamo soltanto all’inizio di una disputa che terrà impegnati gli operatori del settore per gli anni a venire e che è con ogni probabilità destinata a risolversi a vantaggio dell’automazione di processi di investimento che sono ad oggi basati sulla discrezione del singolo individuo. Spingono infatti in questa direzione la pressione sui margini e la crescita dei risparmi che, da ogni parte del globo, confluiscono verso i principali asset manager; soltanto strategie di investimento di tipo quantitativo in cui l’intervento umano sia ridotto al minimo possono garantire la gestione di queste masse in modo efficiente. Nonostante le criticità evidenziate in precedenza auspico quindi che la disputa si risolva in modo non dissimile dalla computer science ove, nonostante le preoccupazioni di Truesdell, gli algoritmi continuano ad essere regolati dalle stesse leggi concepite dalla mente umana consentendo una capacità di calcolo altrimenti non raggiungibile.

Ultime news