Econeuro

Econeuro 2013 (Biozoologica)Uno degli stimoli più decisivi in ecologia fu l’introduzione dei principi dell’economia e della gestione di impresa all’interpretazione delle relazioni tra le specie e tra le specie e l’ambiente. L’ecologia comportamentale ha offerto non solo una differente prospettiva, ma soprattutto ha promosso lo sviluppo di modelli quantitativi nello studio del comportamento. Adesso come sempre tra dire e fare c’è di mezzo la natura, la sua complessità, e la sua scarsa predisposizione a farsi tradurre con metodi e schemi logici. Un modello generico (con poche variabili) può funzionare relativamente bene, ma dà anche poche informazioni. Un modello molto specifico e complesso (con molte variabili), può essere davvero molto utile, ma in genere svirgola dopo poche iterazioni. In tutti gli approcci sistemistici c’è sempre una ricerca continua di ottimizzazione tra questi due estremi: modelli semplici, stabili, ma poco utili, e modelli complessi, dettagliati, ma incerti. Ogni caso studio richiede un bilancio tra questi due estremi, che non è mai facile da trovare e che comunque avrà i suoi pro e i suoi contro. Alla fine molti modelli servono più per capire il problema, analizzandolo e dissezionandolo nelle sue componenti, che non per trovare davvero lo schema segreto che unisce fattori e variabili. Non a caso spesso l’unica pragmatica utilità del modello è il suo stesso fallimento: si sviluppa un modello teorico, elegante e complicato, e poi si cercano di capire le ragioni del perché non ha funzionato. I nostri modelli possono essere, nel loro insuccesso, molto informativi, perché ci fanno notare componenti e relazioni che non avevamo considerato. Insomma, la strategia in genere è: creo una teoria logica, e poi ci metto dentro i dati per vedere se regge. Ma c’è anche una alternativa interessante: fare esattamente l’opposto. Algoritmi e reti neurali sono in grado di assimilare dati e auto-strutturare modelli che ne spieghino le relazioni. Questo secondo approccio (spesso integrato dal precedente) è ormai già ben oltre una prima fase di pionerismo incerto, e già conta con strumenti ben assestati come l’analisi di network per descrivere le interazioni comportamentali e le dinamiche degli ecosistemi, la path-analysis per costruire modelli causali a partire da correlazioni, o l’Akaike  Information Criterion che valuta il peso dell’informazione. In questo caso quindi il processo è inverso a quello classico: metto dentro i dati e genero un modello che li possa spiegare. Alla fine ho un modello del quale ignoro le cause e la logica, ma spiega perfettamente tutto e resiste a qualsiasi prova. In questo caso allora il passo successivo è cercare di capire il modello che si è autogenerato. In realtà in molti campi questo secondo passo non è fondamentale. Si pensi alla medicina, che cerca metodi di diagnosi e cura finalizzati a migliorare le condizioni di salute. In questo caso se un gigantesco frullato statistico scopre una combinazione speciale che ci rileva una patologia o il suo trattamento, il sapere come ha fatto è secondario, essendo più importante lo scopo medico (la cura del paziente o della popolazione) e non il meccanismo che c’è dietro. Nel caso dell’ecologia, sicuramente si può fare una analogia con la gestione e conservazione dell’ambiente, dove il risultato finale (la conservazione di un habitat o di una specie) è più importante del capire i meccanismi nascosti dietro la struttura ecologica. Risolto il problema senza sapere i dettagli del processo, c’è tutto il tempo poi di capire come ci si è riusciti, anche perché capirlo sicuramente migliorerà la comprensione del problema originario. Senza contare che, a problema risolto, la rete neurale cibernetica si può spegnere, ma quella cerebrale del ricercatore resta ancora accesa, probabilmente a occhi sbarrati, insoddisfatta di aver trovato una soluzione perfetta ma incomprensibile.

Emiliano Bruner

Annunci