Pensiero sistemico per i problemi complessi: quando le soluzioni ovvie peggiorano le cose

Tempo di lettura: 5 minuti

Pensiero sistemico per i problemi complessi: quando le soluzioni ovvie peggiorano le cose

Nel 1962 il governo degli Stati Uniti decise di combattere la povertà nelle riserve indiane costruendo case nuove. Le costruirono. Le persone si trasferirono. Dopo qualche anno, molte di quelle case erano in condizioni peggiori delle abitazioni originali che avevano sostituito.

Non era un problema di qualità costruttiva. Era un problema sistemico: le case erano state progettate secondo standard abitativi americani che non corrispondevano alle strutture familiari, alle pratiche culturali, e ai sistemi di manutenzione comunitaria delle popolazioni che avrebbero dovuto abitarle. La soluzione aveva ignorato il sistema in cui si inseriva. Il risultato era stato peggiore del problema originale.

Questo schema, soluzione ovvia applicata a un problema complesso che peggiora la situazione, non è un’anomalia storica. È uno dei pattern più ricorrenti che esistano, in qualsiasi dominio, dalle politiche pubbliche alla gestione aziendale alla vita personale.


La distinzione che cambia tutto: complicato vs complesso

Un motore a reazione è complicato. Ha migliaia di componenti, richiede ingegneri specializzati, ma funziona in modo prevedibile. Se capisci come funziona ogni parte e come si connettono, puoi prevedere il comportamento del sistema con precisione. I problemi complicati si risolvono con competenza tecnica e analisi approfondita.

Un’organizzazione è complessa. Ha componenti che si comportano in modo autonomo e adattivo, che cambiano in risposta all’ambiente, che hanno obiettivi propri non sempre allineati con quelli del sistema. Il comportamento emergente di un’organizzazione non può essere dedotto dalla somma delle sue parti. Puoi conoscere perfettamente ogni persona e ogni processo e non riuscire a prevedere come si comporterà il sistema nel suo insieme.

Questa distinzione non è accademica. Cambia radicalmente l’approccio. I problemi complicati si affrontano con analisi, scomposizione, expertise. I problemi complessi si affrontano con esplorazione, sperimentazione, adattamento. Chi usa il primo approccio sui secondi ottiene soluzioni che funzionano nel breve termine e peggiorano le cose nel lungo.

Perché le soluzioni intuitive falliscono nei sistemi complessi

Jay Forrester, il fondatore della dinamica dei sistemi, ha osservato che nei sistemi complessi le soluzioni intuitive spesso peggiorano il problema. Non è una provocazione. È un’osservazione empirica che si ripete con sorprendente regolarità.

Nel 1860 l’Australia introdusse conigli dall’Europa per la caccia sportiva. In assenza di predatori naturali, la popolazione esplose: entro il 1920 si stimavano dieci miliardi di conigli, che devastavano i pascoli. Le soluzioni successive si accumularono in un catalogo di effetti inattesi: recinzioni che alterarono i pattern migratori di altre specie, veleni che colpirono predatori nativi, virus che mutarono in varianti meno letali per selezione naturale. Ogni soluzione generava nuovi problemi che richiedevano nuove soluzioni.

Nelle organizzazioni il pattern è identico, solo più discreto. Si introduce un sistema di incentivi per aumentare la produttività, e le persone cominciano a ottimizzare per la metrica invece che per la performance reale. Si centralizza il controllo per ridurre gli errori, e si rallentano i processi e si soffoca l’iniziativa locale. Si aumentano le ore di lavoro per rispettare le scadenze, e si degrada la qualità e si aumenta il turnover. In tutti questi casi la soluzione sembrava ovvia, produceva anche effetti a breve termine che la confermavano, e poi i loop di feedback portavano conseguenze che nessuno aveva anticipato.

Gli archetipi: i pattern che si ripetono sempre

Peter Senge ha descritto un insieme di strutture ricorrenti nei sistemi complessi che producono sempre lo stesso tipo di problema. Conoscerle non risolve i problemi, ma ti aiuta a riconoscere dove sei prima di aver speso anni a combattere qualcosa che non capivi.

Il limite alla crescita è forse il più comune nel business. Un processo di crescita si scontra con un limite che rallenta e poi inverte la crescita. La risposta intuitiva è spingere di più sulla leva di crescita, assumere di più, investire di più in marketing, allungare le giornate lavorative. La risposta sistemica è identificare e rimuovere il limite. Il problema è che il limite è spesso meno visibile della leva, ed è più scomodo da affrontare. Un team di vendita che ha esaurito la capacità del sistema di delivery non si risolve assumendo altri commerciali. Si risolve rafforzando la delivery, che è una conversazione molto meno piacevole da fare con i founder.

Il trasferimento del problema avviene quando una soluzione sintomatica allevia il problema nell’immediato, riducendo la pressione a trovare una soluzione strutturale. Nel tempo, la capacità di risolvere il problema strutturalmente si atrofizza, e si diventa dipendenti dalla soluzione sintomatica. Il ricorso sistematico al debito per coprire perdite operative ne è un esempio classico: allevia il problema immediato, riduce la pressione a risolvere le cause delle perdite, e nel tempo peggiora la posizione finanziaria rendendo sempre più difficile uscire dal pattern.

L’escalation avviene quando due attori reagiscono ciascuno alle azioni dell’altro aumentando la propria risposta, in un loop che si autoalimenta. Le guerre di prezzo tra competitor ne sono l’esempio aziendale più ovvio. Ma lo stesso schema appare nei conflitti interpersonali, nelle negoziazioni, nelle dinamiche di team. La caratteristica dell’escalation è che chi è dentro al loop quasi sempre pensa di stare rispondendo all’altro, non di stare escalando. La soluzione non è vincere. È uscire dal loop, il che di solito richiede che una delle due parti faccia una mossa asimmetrica che interrompe il pattern.

Come si affronta un problema complesso

Non esiste un algoritmo. Esistono pratiche che migliorano le probabilità di capire cosa sta succedendo e di intervenire senza peggiorare le cose.

La prima è allungare l’orizzonte temporale. I problemi complessi si capiscono guardando il comportamento del sistema nel tempo, non lo stato attuale. Se hai dati sul comportamento di una variabile negli ultimi due o tre anni, usali. I pattern temporali rivelano loop e ritardi che un’istantanea non mostra. Un dato in crescita da sei mesi su dodici è molto diverso da un dato in crescita da sei mesi su tre anni.

La seconda è cercare i loop invece delle cause. Invece di chiederti cosa ha causato il problema, chiediti in quale circolo vive. Trova le variabili che si influenzano reciprocamente. Disegna le frecce. Cerca i loop di rinforzo. Spesso il disegno rivela connessioni che la descrizione verbale nasconde.

La terza, e più difficile, è sperimentare in piccolo prima di scalare. Nei sistemi complessi la certezza non è accessibile. Ma la riduzione dell’incertezza attraverso l’esperienza diretta lo è. Invece di implementare una soluzione completa su larga scala, testa una versione ridotta, misura gli effetti nel sistema reale, e usa quell’informazione per correggere prima di scalare. Questo rallenta l’azione nell’immediato e salva anni nel medio termine.

L’incertezza non si elimina, si progetta per lei

Uno degli adattamenti più difficili nel lavoro con sistemi complessi è accettare che la certezza non è disponibile. Non “non ancora”. Non disponibile in linea di principio, perché il sistema è troppo complesso per essere modellato con accuratezza sufficiente.

Questo non significa che le decisioni siano casuali. Significa che le buone decisioni nei sistemi complessi sono progettate per funzionare ragionevolmente bene in un ampio range di scenari possibili, non per essere ottimali nel singolo scenario previsto. E includono sempre un meccanismo di feedback che permette di correggere rapidamente quando le previsioni erano sbagliate.

Chi cerca la certezza prima di agire nei sistemi complessi quasi sempre aspetta troppo, accumula informazioni che non cambiano la decisione sostanziale, e perde il tempo utile per intervenire quando era ancora possibile farlo a costi bassi. Chi accetta l’incertezza e progetta per la reversibilità agisce più velocemente e commette errori più piccoli e più recuperabili.

La differenza tra chi naviga bene i problemi complessi e chi no non è la quantità di informazioni che possiede. È la qualità dei modelli mentali con cui interpreta quelle informazioni, e la disposizione a tenerli con una mano aperta, pronti ad aggiornarli quando la realtà dice qualcosa di diverso da quello che si aspettava.