L’entusiasmo per l’intelligenza artificiale di chi la vede come uno strumento facilitatore per il settore finanziario è un segnale di potenziale irresponsabilità che può tradursi in grandi perdite e manipolazioni.

Si moltiplicano infatti coloro che sostengono di poter svolgere facilmente la professione del consulente finanziario senza troppa fatica, grazie al fatto che è stata sviluppata la cosiddetta intelligenza artificiale.

Mi viene da liquidare sinteticamente questa tendenza con: A.I.? Ahi, ahi!!

L’intelligenza artificiale non è altro che un grande deposito di informazioni, prodotte dal genere umano, inserite pazientemente negli anni in un sistema di memoria totale e costantemente aggiornato. La tecnologia ormai consente di raggiungere ogni informazione (testi o immagini che siano) in un istante.

Ma quella che chiamiamo intelligenza artificiale non è altro che un software (un programma, un elenco di istruzioni collegate fra loro) progettato da umani, sofisticatissimo (che significa che è composto da moltissime opzioni), che “imita” le reazioni di un umano che si trovi ad avere a disposizione tutti quei contenuti con l’obiettivo di realizzare un nuovo contenuto… solo che lo fa velocemente. Ma con quale criterio?

Non certo con la consapevolezza di un umano. E neppure con la capacità (solo umana) di cogliere segnali di qualcosa che non sia stato già previsto. L’intelligenza artificiale è un imitatore molto bravo che non è però ciò che imita. Non potrà mai esserlo. Sul piano finanziario, per esempio, potrebbe forse azzeccare una previsione ed essere precisa qualche volta, ma solo per caso… come il “famoso” orologio rotto che pur essendo rotto segna l’ora esatta due volte al giorno.

Un oggetto programmato segue un programma che, per quanto vasto e apparentemente infinito, è limitato e non ha un’anima, quella cioè che produce azioni conseguenti ad un pensiero e a dei sentimenti collegati fra loro da … un’anima appunto. Certo è difficile definire il concetto di anima, ma credo che chi mi legge possa capire cosa intendo.

Un software, un robot… non pensano. Non possono, sebbene possa sembrare lo facciano. Al massimo gli umani possono progettarne che siano in grado di mettere insieme, anche fantasiosamente, i miliardi di informazioni che gli vengono messe a disposizione. Ma la scelta di una direzione da prendere o è prevista (dal programma realizzato da un umano) o è casuale. E se è casuale riguarda solo la creatività, che è qualunque espressione libera da condizionamenti, ma che non ha altro scopo che esprimere se stessa indipendentemente dal giudizio di chi la osserva.

Certo si sente parlare di finanza creativa, ma per quanto creativa la si voglia pensare non è mai azzardata. Quando lo fosse produrrebbe disastri.

La finanza gestita da un sistema di intelligenza artificiale può essere solo più veloce nel gestire le operazioni. Può cioè arrivare prima di un consulente “umano” a costruire un portafoglio che però deve essere sempre guidato da un umano, altrimenti che portafoglio risulterebbe? Sa forse l’A.I. chi sei, cosa provi e come reagisci alle informazioni?

C’è tuttavia un punto di contatto fra l’A.I. applicata alla finanza e un consulente controemozionale umano (uno a caso): l’A.I., davanti alle emozioni provocate dalla scelta di come impiegare il denaro, non considera le emozioni, esattamente come fa il consulente controemozionale.

Ma, mentre l’A.I. sceglie di costruire un portafoglio senza farsi influenzare dalle emozioni (perché non ne ha e “non sa” neppure cosa siano), il consulente controemozionale evita pure lui/lei di lasciarsi condizionare dalle emotività sue e del cliente… solo che sa riconoscere quali sono le possibili cause e l’origine di queste e può riconoscere e distinguere quali siano le opportunità e quali le potenziali strumentalizzazioni speculative che sono sempre generate dagli umani, con cui l’A.I. non ha alcun rapporto relazionale.

E poi, lasciatemi dire che l’A.I. non potrà mai mangiare una pizza insieme a voi per conoscervi meglio e darvi buoni consigli.

Sante