mercoledì 30 ottobre 2013

La TOC in un tweet (quasi)

La Theory of Constraints (TOC) o Teoria dei Vincoli è una teoria di sistema che fornisce soluzioni e strumenti per generare valore attraverso la gestione ed il superamento dei fattori che limitano la crescita delle organizzazioni.
La TOC è stata divulgata al mondo da Eli Goldratt attraverso molti libri, il più famoso dei quali è “The Goal” (L’Obiettivo nella traduzione italiana), venduto in oltre quattro milioni di copie e tradotto in numerose lingue. Il libro diffonde in modo avvincente questa filosofia gestionale, completamente diversa da quanto mai studiato e proposto dalle organizzazioni industriali manifatturiere e dalle scuole di management.
L’impresa è concepita come un sistema complesso, composto da processi interdipendenti e correlati tra loro; il funzionamento dell’intero sistema è governato da pochi fattori, i constraint o vincoli, che ne determinano la prestazione. I constraint diventano le leve su cui agire per controllare il sistema e orientarlo al raggiungimento dell’obiettivo. All’inizio della storia la TOC non si chiamava così.
A metà degli anni ‘70 Eli Goldratt sviluppò su basi scientifiche un metodo (e un software a supporto) di sincronizzazione delle risorse produttive che rivoluzionò i correnti metodi di pianificazione della produzione. Diede inizio al Syncronous Manufacturing (SM) che, ancora oggi, è ritenuto universalmente la più potente e avanzata metodica di programmazione della produzione.  Per più di 10 anni le idee della futura TOC furono applicate da Goldratt e i suoi collaboratori quasi esclusivamente nell’ambito delle operations: produzione, logistica, ecc. Come sempre accade, a far terminare questa situazione fu la necessità. Il Syncronous Manufacturing faceva ottenere mirabolanti risultati solo se alla guida dell’azienda, seppure come consulenti, ci stavano Goldratt e i suoi. Lasciate a se stesse, le aziende non erano in grado di ottenere il meglio dal SM.
Per far crescere la sua azienda di consulenza e software, Goldratt si trovò obbligato a inventarsi un modo per trasferire la sua conoscenza, la sua capacità, il suo modo di pensare le imprese. D’altro canto, il segreto del SM non sta tanto negli algoritmi, che pur sono potenti, ma nel suo rivoluzionario modo di pensare i sistemi che è nascosto negli algoritmi (e quindi nel software) stessi. Per mostrare che ciò che proponeva era qualcosa di sostanzialmente nuovo, fu cambiato il nome e nacque la TOC.
Ci vollero 10 anni per mettere a punto gli strumenti (che oggi conosciamo con il nome di Thinking Processes tools della TOC) adeguati per pensare i sistemi nella stessa maniera in cui ci riuscivano Goldratt e i suoi. I TP tools (che in italiano vengono chiamati strumenti a supporto dei processi di pensiero) sono, allo stesso tempo, la sintesi più completa del pensiero sistemico TOC ed un set di strumenti per aiutare a pensare soluzioni per le nostre aziende. 
Nel 1994, anno che fa da spartiacque, è stato pubblicato il libro sui TP tools, “It’s not luck”, con lo stesso protagonista del primo libro, “The goal”, alle prese con problemi che andavano oltre la sua esperienza aziendale e che riesce a risolvere proprio grazie ai TP tools a cui è stata dedicata un’apposita appendice nella prima edizione di questo libro. Negli anni seguenti sono stati sviluppati soluzioni e approcci TOC per molti ambiti aziendali: project management, marketing e vendite, sistemi informativi.
Attualmente, l’interesse di Goldratt è rivolto a sistemi complessi e fondamentali quali quello educativo e sanitario. In questa seconda fase, la TOC non ha avuto, fino ad ora, il successo clamoroso che ha caratterizzato il periodo del SM. Si può spiegare questo fatto ricorrendo ad un’analogia che i fan di Guerre Stellari capiranno bene: il SM è come la spada laser impugnata dall’eroe, scintillante, potente, tangibile, i tools sono come la “forza”, difficile da afferrare, sfuggente, all’apparenza assurda.
Ma senza la “forza” la spada laser è sostanzialmente inutile.  La prestazione di un’azienda-sistema si misura con la capacità di raggiungere in tutto, in parte o per nulla gli obiettivi che ci si pone.

Guardando bene, ci si accorge che c’è sempre un qualcosa che impedisce di ottenere il massimo: che nessuna azienda, fatta eccezione forse per qualche gigante o per i monopolisti, è in grado di crescere o di migliorarsi senza limiti. In altre parole, l’esperienza ci suggerisce che le prestazioni di un sistema sono determinate da un fattore limitante, chiamato dalla TOC “constraint” o “vincolo”.

Poiché nelle aziende solitamente l’obiettivo è guadagnare dei soldi e la misura di questo è il denaro che si genera svolgendo l’attività propria dell’azienda, il constraint è l’elemento che determina il ritmo al quale l’azienda genera denaro attraverso la vendita di ciò che essa produce. Il valore così generato dal sistema viene chiamato dalla TOC “Throughput” (spesso abbreviato in Tput o T).
Il Tput è la quantità di denaro che l’azienda genera vendendo le cose che produce, detratti i soldi pagati ai fornitori. Un’ora di lavoro del constraint è un’ora di Tput e, di conseguenza, ogni minuto di mancato utilizzo del constraint è Tput perso.
Sebbene sia familiare il concetto che ci sia un limite alla crescita, non è altrettanto familiare pensare che in ogni azienda ci sia un solo fattore limitante o vincolo. Anzi, l’esperienza suggerisce che di vincoli ce ne sono sempre molti, che è difficile eliminarli tutti e che il problema sta proprio in questo.
Occorre prima di tutto sgomberare il campo dall’idea che avere un vincolo sia qualcosa di negativo. In realtà, l’esistenza di un vincolo è legata proprio al fatto che le aziende siano dei sistemi. Immaginate di dirigere una squadra di booling invece di un’orchestra; l’eccellenza di una squadra di booling è tipicamente la somma dei risultati dei singoli componenti. Una squadra di booling non è un sistema. In un sistema, le interazioni (interdipendenze) contano a volte più dei singoli nel determinare il risultato finale.
Se ci sono interdipendenze c’è un vincolo. 
La prima idea forte della TOC è di considerare il vincolo non come un fattore limitante, ma come un’opportunità per controllare meglio e far crescere l’azienda. Il ruolo vero del vincolo è di leva strategica, di fulcro sul quale agire per migliorare l’efficienza dell’azienda. Nella realtà di ogni giorno constatiamo che ci sono molti fattori che ci ostacolano, impedendoci di raggiungere in pieno i nostri obiettivi aziendali.
Quando pensiamo al miglioramento, pensiamo istintivamente ad una continua lotta senza fine con questi fattori limitanti e, di conseguenza, si tende ad associare alla parola vincolo un significato negativo. Ma questi vincoli sono una manifestazione palese di una sola causa, sfuggente e poco appariscente, che li origina tutti.
Eliminare sistematicamente i “colli di bottiglia” non migliora considerevolmente la situazione. Infatti, se dopo aver individuato un collo di bottiglia, lo eliminiamo, subito dopo se ne presenta un altro! Questa forma di rincorsa ai vincoli è una lotta senza fine e senza significato.

Per cambiare strutturalmente la situazione, è necessario eliminare le cause, risalire quindi alle radici dei problemi.  Il percorso generale per migliorare l’efficienza di un’azienda consiste nelle seguenti fasi:
1. scegliere strategicamente il vincolo di sistema;
2. organizzarsi per sfruttarlo al meglio (con un processo di pianificazione delle risorse);
3. introdurre le misure opportune (fondate sul concetto di Tput) per favorire il processo di subordinazione (termine con cui la TOC si riferisce all’adozione, in tutto il sistema, di comportamenti orientati all’efficienza dell’intero sistema e non solo all’efficienza locale);

4. individuare e superare tutti i vincoli cognitivi che ostacolano questo processo, compresi quelli che impediscono all’azienda di vendere di più e meglio.

Perché la TOC non è un divertimento

Nel corso delle conversazioni con i suoi collaboratori e anche in occasione di seminari o conferenze Eli Goldratt è solito dire che “TOC is not fun”.

Poiché per quelli che lo ascoltano in quel momento “TOC is fun”, è necessario cercare di capire meglio che cosa ci vuole dire Goldratt, il padre della teoria di management più innovativa degli ultimi decenni (ndr: così Business Week definisce Goldratt e la TOC).

Goldratt di sicuro non ci vuole convincere che transire da un paradigma manageriale ad un altro sia come passare una giornata a Gardaland. Per intuire quanto sia rilevante la transizione da compiere occorre spendere qualche parola sulla TOC.

La TOC è una teoria di management, una teoria che, in quanto tale, deve dare conto di una pluralità di fenomeni aziendali.

Questa teoria è un insieme di un approccio mentale diverso alla gestione aziendale e di una serie di tecniche specifiche per alcune aree funzionali; queste tecniche si chiamano DBR – drum buffer rope – per la produzione, Catena Critica per la gestione dei progetti, replenishment per la logistica e così via. Le tecniche per quanto potenti siano non portano a risultati duraturi se non si riesce ad acquisire il nuovo paradigma.

La diversità dell’approccio mentale si misura attraverso il concetto cardine della TOC: i risultati di un sistema dipendono dalla capacità di far fruttare al meglio la “risorsa scarsa”, e quindi in primis da quanto accettiamo l’idea che le risorse disponibili sono finite. In questo senso la TOC è una disciplina che ci permette di gestire al meglio risorse limitate.

La TOC è come il Gran Canyon, può essere esplorata a diversi livelli di profondità, il vero throughput (l’unità di misura del valore generato secondo la TOC) che si ottiene da queste esplorazioni, a qualunque profondità le conduciate, è l’acquisizione della consapevolezza di chi siamo e di chi vogliamo essere nel mercato [1], sia come individuo che come organizzazione. Acquisire lucidità nell’interpretazione della realtà non è sempre divertente, anzi in senso etimologico non lo è proprio!

I risultati economici, per i quali la TOC ha acquisito fama internazionale, seguono e sono la conseguenza di questa consapevolezza – per un saggio esaustivo su questo concetto si veda il libro di Goldratt “It’s not luck” North River Press - .

I tempi di comprensione della TOC sono lunghi, oltre che variabili da persona a persona, per due ordini di ragioni: i livelli di profondità a cui esplorare la TOC non sono pochi, la politica di subordinazione al constraint, che la chiave di volta per far funzionare la TOC, si può creare solo agendo sul consenso ed educando le persone e quindi lentamente.

Questa comprensione si manifesta con una crescente adesione ai 3 “ingredienti” principali della TOC:

q       Autodeterminazione: il successo o il non successo che conseguiamo dipendono in toto dalla nostra abilità nel decodificare correttamente la realtà e nel superare il constraint-conflitto che in ogni situazione ci impedisce di arrivare dove vogliamo; il mondo è “brutto, sporco e cattivo”, ma questa è la realtà, non la causa ultima di ogni non-successo.

q       Focalizzazione: per cambiare una situazione “brutta, sporca e cattiva”, occorre una dose rilevante di concentrazione sul fattore che in quel momento ci sta limitando, il constraint, e sulle azioni che ci permettono di superarlo; questa azioni devono essere tutte coordinate tra di loro con un meccanismo di

q       Subordinazione: di attenzione costante non tanto a come stiamo eseguendo il compito, ma a quanto il compito che stiamo eseguendo ha rilevanza sul constraint.

Tutto questo non è “divertimento”, anzi è il suo contrario.




[1]  Per un approfondimento del concetto di mercato si veda Nilton Bonder – Teoria della felicità economica – Sperling & Kupfer editori

sabato 26 ottobre 2013

UN SISTEMA DI CONOSCENZA PROFONDA - parte 2 - INTRODUZIONE


Deming tenta di elaborare in poche pagine un riassunto del pensiero centrale dal quale è stata sviluppata tutta la sua filosofia di Management durante gli ultimi 60 e più anni, chiama questa rielaborazione un Sistema della Conoscenza Profonda.

 INTRODUZIONE

Il Sistema di Conoscenza Profonda appare qui in quattro parti, tra loro correlate:

A.   Valutazione di un sistema
B.   Nozioni di teoria della variabilità (teoria statistica)
C.   Teoria della conoscenza
D.  Nozioni di psicologia

Non è necessario eccellere in qualche parte della Conoscenza Profonda per comprenderla come un sistema e applicarla. I 14 Punti per il Management dell’industria, istruzione, e governo seguono naturalmente come applicazione del Sistema di Conoscenza Profonda, per la trasformazione dal sistema di management prevalente a uno di ottimizzazione.

I vari anelli del Sistema di Conoscenza Profonda non possono essere separati. Essi interagiscono tra loro. Quindi, la conoscenza della psicologia è incompleta senza la conoscenza della variabilità. Se gli psicologi avessero compreso la variabilità, come imparato nell’Esperimento delle Palline Rosse (L’Esperimento delle palline Rosse, che è un “numero” fisso nei seminari di 4 giorni di Deming, è descritto in Out of the Crisis, e nel Capitolo 6 di The Deming Dimension. L’esperimento dimostra come differenze apparenti osservate tra le prestazioni delle persone possono essere dovute solo ai capricci del sistema all’interno del quale lavorano. Sarà quindi più fruttuoso provare a migliorare le performance migliorando il sistema, piuttosto che tentare di analizzare ciò che probabilmente è per la maggior parte variabilità casuale)  non avrebbero potuto continuare a partecipare al continuo perfezionamento di strumenti per la valutazione delle persone.

Un manager, nel suo ruolo di leader, deve possedere conoscenze in materia di variabilità e di psicologia.

Dirigere un sistema è un’azione basata sulla previsione. Una previsione razionale richiede un apprendimento sistematico (- cioè apprendimento attraverso il Ciclo PDSA (Plan-Do-Study-Act); vd. Capitolo 9 di The Deming Dimension) e il confronto tra le previsioni di breve e lungo termine risultanti da possibili corsi di azione alternativi.

La teoria della variabilità può giocare un ruolo vitale nell’ottimizzazione di un sistema. La teoria statistica è utile per comprendere le differenze tra le persone e i sistemi nei quali lavorano (L’ottimizzazione di un sistema comporta l’eliminazione della variabilità inutile e indesiderabile. Quindi l’incapacità di distinguere tra variabilità causata dal sistema e quella dovuta alle persone che vi lavorano ostacola l’ottimizzazione: in realtà, potrebbe anche peggiorare le cose.)

L’assistenza nell’apprendimento sistematico è una specialità dello studioso di statistica. Gli statistici che comprendono un sistema e da ciò l’ottimizzazione, insieme a un po’ di teoria della conoscenza e qualcosa di psicologia, potrebbero applicare la loro conoscenza specialistica di variabilità nella direzione del miglioramento continuo dei metodi per una miglior previsione, e quindi per una miglior direzione. Potrebbero aiutare le persone a conservare la propria intrinseca motivazione all’apprendimento. Statistici che capiscano che il loro unico ruolo non sarà più quello di insegnare test di importanza, test di ipotesi, quadrati cinesi. (Queste tecniche sono appropriate per studi quantitativi. Quale capacità hanno di prevedere, di aiutare il miglioramento? )


La teoria statistica, usata con cautela, con la teoria della conoscenza, possono essere utili nell’interpretazione dei risultati di test ed esperimenti, per capire le relazioni di causa-effetto. L’interpretazione dei risultati di test ed esperimenti è per un uso futuro: la previsione.

Se gli economisti capissero la teoria di un sistema, e il ruolo della cooperazione nell’ottimizzazione, non insegnerebbero e predicherebbero più la salvezza attraverso la competizione. Ci condurrebbero invece verso l’ottimizzazione, nella quale tutti avanzerebbero, inclusi i concorrenti.

In realtà, se due o più aziende o istituzioni unissero le proprie volontà per uniformare i prezzi, sarebbero sciocchi a fissare un prezzo più alto di quello che ottimizzerebbe l’intero sistema – loro stessi, i loro clienti, i fornitori, i dipendenti, e le comunità nelle quali lavora la loro gente.

La teoria della conoscenza ci aiuta a capire che dirigere, in qualsiasi forma, significa prevedere. Il piano più semplice – Come potrò tornare a casa stasera? – richiede la previsione che la mia automobile si accenderà e partirà, o che l’autobus o il treno arriveranno. La direzione agisce su un sistema causale, e sui cambiamenti nelle cause.


sabato 19 ottobre 2013

UN SISTEMA DI CONOSCENZA PROFONDA - parte 1


Inizia con questo post la pubblicazione in 6 parti di una sintesi dell’approccio Deming chiamato da lui medesimo, nel corso degli ultimi anni della sua vita, un sistema di conoscenza profonda (SPK – system of profound knowledge).

Deming fa una sintesi di più 60 anni di studio e pratica di gestione e miglioramento dei sistemi. Un contributo meraviglioso la cui portata non abbiamo ancora compreso del tutto.



Parte 1 – premessa e quadro di riferimento



PREMESSA



Nel momento in cui entra nella decima decade della sua straordinaria vita, Deming si presenta a se stesso e a noi con ciò che è, se possibile, la sua sfida più grande. Tenta di elaborare in poche pagine un riassunto del pensiero centrale dal quale è stata sviluppata tutta la sua filosofia di Management durante gli ultimi 60 e più anni. Il fatto che ora consideri questo “Sistema di Conoscenza Profonda” come la base del suo lavoro più noto, come gli illustri 14 Punti per il Management, è chiaramente dimostrato sin dalla terza frase della sua Introduzione:



“I 14 Punti … seguono naturalmente come applicazione del Sistema di Conoscenza Profonda…”



Questo documento non è per i timidi! Accanto alle ben note sfide di Deming riguardanti selezione, valutazione e classificazione, Management by Objectives, incentivi, metodi statistici tradizionali, interferimenti col sistema e leadership, più recentemente dà risalto a cooperazione piuttosto che competizione, negoziazione, comitati, esperienza ed esempi, stipendi, “nessun valore vero”, “niente come fatto”, gioia nel lavoro, e motivazione intrinseca invece che estrinseca. Alcune recenti indicazioni sulla leadership sono incluse in Appendice.

La lettura del Sistema della Conoscenza Profonda può portar via solo pochi minuti. Ma è stato necessario un tempo piuttosto lungo per produrlo. Quanto tempo sarà necessario perché sia compreso, adottato, e applicato e perchè si realizzino i suoi elevati benefici potenziali?



QUADRO DI RIFERIMENTO



Il “Sistema di Conoscenza Profonda” è generalmente un tratto principale del primo giorno nei seminari di 4 giorni di Deming, come base per ciò che segue. In genere, è anche ciò su cui si concentra principalmente, quando tiene presentazioni più brevi.



Se il lettore ha qualche dubbio sul fatto che il pensiero di Deming continui ancora a svilupparsi in modo costante, vale la pena di sottolineare che lo stesso termine “Conoscenza Profonda” ancora non appariva nel suo famoso libro del 1986 “Out of the Crisis”. Cominciò ad utilizzare questo termine nel 1987, principalmente in coincidenza con la comprensione della variabilità: cause comuni e speciali, tampering, le Regole dell’Imbuto, etc…, includendo in particolare la loro applicazione non solo ai processi manifatturieri ma tutti i tipi di processi, specialmente quando influiscono sulle persone. Durante l’estate del 1988 incluse temi come ad esempio le definizioni operative, l’interazione delle forze, e la psicologia. Gradualmente, nei 12 mesi successivi, la lista crebbe sia nel numero che nel dettaglio. Nell’autunno del 1989, vi fu uno sviluppo particolarmente significativo: Deming cominciò a parlare di un Sistema di Conoscenza Profonda, indicando la natura concatenante e interdipendente dei temi e dei concetti inclusi. Il suo primo documento comprensivo di tali temi (che porta lo stesso titolo di questo opuscolo) era datato 3 gennaio 1990, e ne fu prodotta una versione sostanzialmente aggiornata l’11 maggio 1990.


L’edizione di maggio è riportata nella sua interezza in questo opuscolo, immodificata a parte alcune parole, ma con molte note e riferimenti di chiarimento. Il documento contiene un misto di stili. L’Introduzione e la Parte A sono scritte come testo normale, le Parti B e C contengono liste di temi, e la Parte D è una combinazione di questi due formati.


Il pensiero di Deming sul Sistema di Conoscenza Profonda è soggetto a revisione continua. Le versioni utilizzate nei seminari correnti contengono ancora ulteriori modifiche. (Comunque, insistere perchè questo opuscolo sia completamente aggiornato al tempo della sua pubblicazione quasi certamente ne rimanderebbe la pubblicazione per tutta la vita di Deming!) Parte del documento è già ben sviluppato, ma alcune parti sembrano più una bozza esplorativa.

Indubbiamente, parte dell’intenzione di Deming (come sempre) è incoraggiare le persone a riflettere e a discutere, e perciò ad approfondire la loro comprensione e quella degli altri. E’ in questa logica che la BDA (British Deming Association) sta tentando di chiarire e di sviluppare ulteriormente il materiale del documento, in particolare le parti che sono ancora in bozza. Conversazioni con Deming durante il weekend successivo al suo seminario nel luglio 1990 furono particolarmente utili a questo riguardo. Inoltre, la BDA’s Alliance di consulenti ha intrapreso un prolungato e sostanziale periodo di studio sul Sistema di Conoscenza Profonda, che si spera condurrà alla fine alla produzione di altro materiale formativo.


Un precedente opuscolo della BDA, intitolato Conoscenza Profonda, fu pubblicato all’inizio del 1990. Era basato principalmente su una presentazione fatta da Deming a Versailles nel luglio del 1989 e quindi viene prima del Sistema di Conoscenza Profonda. Comunque il lettore potrebbe ancora trovarlo interessante dal momento che in quell’occasione Deming fornì una disamina e un’elaborazione maggiore che non è inclusa in questo documento. Il Capitolo 18 del libro, The Deming Dimension (Neave, 1990), unisce il materiale della presentazione in Francia con (ad ora) le versioni di Gennaio e Marzo del Sistema di Conoscenza Profonda. Un altro opuscolo della BDA, Deming speaks to European Executives, è adattato da una presentazione che fece nel Luglio 1990 a un incontro organizzato in collaborazione dalla BDA e l’EFQM (European Federation for Quality Management); quell’opuscolo fa numerosi riferimenti al presente documento.


Ma, prima di iniziare, chiediamoci: perché “Profonda”? I dizionari interpretano la parola con termini quali: onnicomprensiva, di grande portata, che si addentra oltre ciò che è superficiale e ovvio, assoluta, categorica, che proviene da una grande profondità, o anche “che proviene dalle profondità dell’essere di una persona”. In un’occasione, quando gli fu posta questa stessa domanda, Deming rispose semplicemente: “Forse perché è così rara.”

sabato 12 ottobre 2013

SPEZZATO IL TRADE OFF TRA AFFIDABILITA’ E PERFORMANCE DI IMPIANTO E COSTO GRAZIE A UNA TECNOLOGIA RIVOLUZIONARIA


In impianti complessi come raffinerie, impianti chimici o di produzione di energia lo shut-down improvviso e inaspettato di apparati “critici” a volte è l’unico rimedio per prevenire danni maggiori all’intero impianto.

Questi shut-down sono comunque il male minore e hanno grosse ripercussioni negative sia in termini economici che di affidabilità impiantistica.

Per evitare shut-down improvvisi e inaspettati si possono costruire sofisticati modelli e sistemi di controllo (fault detection, isolation and diagnosis – FDID) che però hanno un costo elevato e sono efficaci se “costruiti su misura” dell’apparato e dell’impianto al cui interno l’apparato è inserito. Tanto più sono efficaci, tanto più sono fragili, perché una qualsiasi variazione nel sistema obbliga a rivedere il modello/il sistema di controllo.

Ecco il trade off tra affidabilità/performance e costo di modellazione.

Le raffinerie, così come le aziende chimiche o di produzione di energia, fanno di solito di necessità virtù e concentrano gli sforzi su pochi apparati “super critici”, incrociando le dita e sperando che i cigni neri siano solo una brillante trovata “pubblicitaria”.

ADESSO  non è più necessario affidarsi solo alla “buona sorte”. E’ possibile estendere, a costi contenuti, i sistemi di FDID a tutti gli apparati critici. COME? Seguendo l’esempio della raffineria di Ancona. Continua a leggere tutta la storia per capire in che modo l’inserimento dei nostri tools (OntoSpace e OntoBench) nel sistema FDID vi consente di “salvare capra e cavoli”!!

LA STORIA COMPLETA

Negli ultimi anni, in seguito alla crescente richiesta di efficienza e qualità nei prodotti e all’esigenza di accrescere la sicurezza nel lavoro, i moduli di Fault Diagnosis e Fault Detection stanno acquistando un ruolo molto importante nel campo della supervisione.
L’insorgere di guasti ad un’apparecchiatura critica  inserita in un processo e il loro non tempestivo rilevamento, può causare seri problemi di sicurezza e comportare gravi perdite di efficienza e redditività di impianto.
I sistemi tradizionali prevedono il monitoraggio delle variabili di processo più critiche e la generazione di un segnale di allarme, con successivo blocco del processo, qualora una di queste superi un limite assegnato.
I nuovi metodi per rilevare o diagnosticare un guasto messi a punto nell’ultimo decennio consentono di realizzare avanzati moduli di diagnostica che permettono innanzitutto di identificare prontamente un eventuale malfunzionamento e, successivamente, di intraprendere le azioni necessarie per preservare l’integrità e la funzionalità del processo mantenendolo in condizioni di sicurezza senza ricorrere ad eventuali blocchi.
L’inserimento di un modulo di Fault Detection and Diagnosis (FDD) conferisce al sistema complessivo più elevati livelli di affidabilità.
Un modulo di FDID costa molto, se ne sviluppano pochi e con ritmo lento.

Qualche mese fa in raffineria è stato condotto un esperimento utilizzando OntoSpace a fronte dell’ennesimo evento inaspettato. Ontospace è una soluzione innovativa che consentono di misurare e di gestire la complessità.

Il concetto è semplice: lo stato di salute di un dato SISTEMA è proporzionale alla differenza fra la sua complessità critica ed il valore attuale di complessità. In prossimità della soglia di criticità il sistema diventa fragile e quindi vulnerabile.
 Il punto è, quindi, la capacità di poter misurare sia la complessità così come il corrispondente limite critico. Ontonix ha sviluppato delle misure “naturali” per entrambi, utilizzando i dati grezzi rappresentanti un SISTEMA ed  estraendo regole e relazioni tra i parametri utilizzando delle tecniche di trattamento d’immagine appositamente sviluppate.

Con queste premesse possiamo stabilire che un sistema entra in uno stato di pre-crisi quando si avvicina alla propria soglia di complessità critica.
La misurazione dell’andamento della distanza di un sistema dalla relativa complessità critica fornisce direttamente una misura della sua vulnerabilità.
Variazioni nascoste di complessità che preludono alla crisi sono evidenziate da segnali precisi (precursori della crisi) .

IL CASUS BELLI

L’evento che ha dato inizio al progetto è il comportamento inaspettato (fermata per riparazione) di una delle pompe nonostante che i valori rilevati e le osservazioni sulle vibrazioni (che vengono fatte solo quando i parametri rilevati fanno sospettare qualcosa di anomalo) non avessero prodotto nessun pre-allarme. Le pompe sostengono una parte chiave dell’impianto produttivo, sono 2 in backup reciproco, in caso di fermata dell’unica pompa funzionante occorrerebbe fermare l’intero impianto. Tempi di ripristino della pompa ca. 3 settimane standard, 1-2 in emergenza.

Su questo caso è stata utilizzata la tecnologia OntoSpace.

Il progetto pilota si è articolato in 2 fasi. La prima utilizzando dati storici (medie giornaliere dei parametri rilevati dal sistema di controllo attualmente in uso); la prima fase ha anche evidenziato la necessità di lavorare su dati non mediati ma puntuali; la seconda fase ha utilizzato (per gli stessi parametri utilizzati nella prima fase) dati campionati ogni 30 secondi che coprivano un periodo di 9 giorni. La seconda fase è stata condotta in modalità “cieca” (non è stato comunicato quando il problema o i problemi si sono verificati).

Sia nella prima che nella seconda fase, OntoSpace™ ha dimostrato di riuscire a individuare segnali di pre-allarme con:
·       qualche ora quando si lavora su medie giornaliere (prima fase);
·       8-16 ore di anticipo rispetto al verificarsi dell’evento nel caso in cui si è impiegata una campionatura dei dati ogni 30 secondi (seconda fase).
 
I tecnici, che in API si occupano di fault detection, di fault analysis e di sistemi per il repair, hanno convenuto che OntoSpace™ ha una capacità di fault detection maggiori dei tool finora conosciuti. OntoSpace è model-free, quindi funziona (senza necessità di sviluppi ad hoc nè di personalizzazioni)  su tutti gli apparati, il che implica che il costo dei sistemi di FDID può essere enormemente abbattuto.

E’ in corso un progetto più ampio che comprende altre apparecchiature critiche (compressori, ecc.) per valutare in maniera precisa la integrabilità con I moduli FDID esistenti in raffineria.

Benefici qualitativi a cascata

Impatto positivo sulle politiche di conduzione/manutenzione degli impianti/macchine.

Prima della fermata fare analisi per avere segnalazioni su eventuali macchine da fermare – usarlo in affiancamento / al posto della RBI oggi fatta da manutenzione.

Individuazione i single point (punti critici) su nuovi impianti

Sulla base dell’esperienza pregressa e del progetto si stima una riduzione dei tempi del 50-70 %  il  che significa, prendendo a riferimento l’IGCC nella sua interezza una riduzione da 2-3 anni a 6-9 mesi.

Questo risultato è possibile grazie alle capacità del software di estrarre velocemente conoscenza (quali sono le variabili più connesse, quali sono le variabili che influenzano di più la stabilità del sistema, quali sono i modi di funzionamento più ricorrenti e da quali variabili sono determinati,…) da enormi masse di dati senza dover predisporre modelli di simulazione dell’impianto.

Aumento efficienza/ottimizzazione impianto via monitoraggio olistico

Sulla base dell’esperienza pregressa e del micro caso Forno F1001  si stima un incremento in termini di ottimizzazione pari al 0,5-1%  sul totale con un impegno di 6-9 mesi /uomo di lavoro.

Questo risultato è possibile grazie alle capacità del software di estrarre velocemente conoscenza (quali sono le variabili più connesse, quali sono le variabili che influenzano di più la stabilità del sistema, quali sono i modi di funzionamento più ricorrenti e da quali variabili sono determinati,…) da enormi masse di dati senza dover predisporre modelli di simulazione dell’impianto. 

venerdì 4 ottobre 2013

Ridurre la variabilità per guidare le organizzazioni verso il miglioramento continuo


Gestire un’organizzazione significa prevedere: le abilità di previsione hanno a che fare con la comprensione dei processi e della variabilità da cui sono affetti. Una gestione efficace dei processi aziendali passa attraverso la continua riduzione di tale variabilità. Quali sono le cause di variabilità all’interno di un’organizzazione? Quali sono gli strumenti per affrontarle? quali sono le difficoltà organizzative da affrontare in un percorso di miglioramento delle prestazioni?


La variabilità è intrinseca a tutte le attività  nelle organizzazioni. Un ammontare eccessivo di variabilità spesso è indice di:
  • procedure poco consistenti con l’obiettivo del sistema
  • assunzioni errate circa i ruoli ed i compiti di coloro che lavorano all’interno dell’organizzazione

Oltre alle carte di controllo, i Thinking Processes Tools ( strumenti a supporto dei processi di pensiero), sviluppati dal fisico israeliano Eli Goldratt, risultano essere molto efficaci per la stabilizzazione del sistema e la creazione dei presupposti per il miglioramento delle prestazioni. Questi strumenti logici si rivelano essere particolarmente efficaci per definire procedure di lavoro: l’utilizzo dell’Albero della Transizione consente di disegnare i processi come una sequenza di passi che portano all’obiettivo definito secondo una logica di sufficienza, ed il diagramma logico noto come Nuvola di Disallineamento si rivela molto utile per il corretto riallineamento tra autorità e responsabilità.
L’importanza di queste fasi ha un fortissimo impatto anche sul meccanismo di schedulazione delle attività di produzione. La standardizzazione delle attività gioca infatti un ruolo essenziale nel processo di pianificazione: innanzitutto la riduzione della variabilità facilita la stima di durata delle singole attività, ed in secondo luogo il fatto che lo svolgimento del lavoro non dipenda direttamente dalla singola persona, riduce drasticamente il problema della contesa di risorse tanto sentito nella produzione a commessa.
Cerchiamo di capire un po’ meglio la logica di questi strumenti e come essi possano diventare un utile strumento gestionale per far fronte ai problemi quotidiani di ogni organizzazione.
Che cosa ostacola il successo dell’empowerment (l’azione di dare alle persone il potere di agire in autonomia) nelle organizzazioni?
Il nostro obiettivo è, naturalmente, gestire in modo efficace. Per raggiungere questo obiettivo dobbiamo soddisfare due condizioni necessarie:
  • per gestire in modo efficace dobbiamo assicurarci che il lavoro sia sempre portato a termine

  • d’altra parte, per gestire in modo efficace, dobbiamo mettere le persone dello staff in condizione di portare avanti il lavoro.
  •  
Questo ci porta ad un conflitto: per dare empowerment alle persone non dobbiamo interferire con il loro lavoro.
Allo stesso tempo, in alcuni casi, per garantire l’esecuzione del lavoro, dobbiamo interferire.
Quali sono gli assunti sottesi a questa seconda connessione logica?
In altre parole, perché crediamo di dover interferire?
Perché le persone non sono in grado di portare avanti il lavoro da sole. Quindi, l’unico modo per garantire un empowerment efficace è assicurarsi che le persone siano in grado di svolgere il proprio lavoro in completa autonomia.
A questo punto la domanda che ci dobbiamo porre è la seguente: perché le persone non possono svolgere il lavoro da sole?
Ci sono due risposte valide a questa domanda.


Prima risposta. Le persone non hanno tutta l’autorità richiesta per portare a termine i compiti di cui sono responsabili. In altre parole esiste un disallineamento tra  responsabilità ed autorità legate allo svolgimento del lavoro.
Lo strumento che ci consente di riallineare autorità e responsabilità è chiamato Nuvola di Disallineamento. Si tratta di uno strumento logico che ci guida nell’identificazione e nella rappresentazione oggettiva di un conflitto d’autorità. In genere tale conflitto esiste tra il  compito che la persona deve svolgere e la regola del sistema che le impedisce di farlo.
Per risolvere questo conflitto è necessario eliminare il gap esistente tra autorità e responsabilità.
Come possiamo eliminare la necessità per i managers di intervenire continuamente per risolvere i problemi che bloccano il lavoro delle persone? Come possiamo sviluppare sistematicamente una nuova autorità che lo consenta? Come possiamo far accettare alle persone questa nuova autorità e metterle in condizione di agire in accordo con essa?
Scrivendo la Nuvola di Disallineamento, siamo in grado di rispondere a queste domande e di identificare la causa del disallineamento tra autorità e responsabilità. Vediamo più in dettaglio. I passi da fare prevedono la risposta alcune domande per definire meglio la situazione:
  1. qual è la necessità del sistema che viene messa in pericolo dal problema?
  2. quale regola del sistema impedisce alla persona di risolvere il problema?
  3. quale azione deve essere intrapresa per portare avanti il lavoro? Questa azione rompe la regola del sistema. Può la necessità del sistema che è messa in pericolo dal problema essere protetta e soddisfatta in questo modo?
  4. quale necessità del sistema la regola sta proteggendo?
  5. qual è, al livello più basso, l’obiettivo comune che entrambe le necessità cercano di soddisfare?

Rispondendo a queste domande, possiamo definire in modo chiaro il disallineamento che si è verificato. Un disallineamento tra autorità e responsabilità non è ingenerato dalla negligenza delle persone o dalla riluttanza dei managers a delegare autorità, bensì deriva  direttamente da un conflitto radicato nell’organizzazione. L’obiettivo comune del sistema e delle persone che ci lavorano è legittimo, le due necessità sono reali, e quindi, logicamente, questo è il conflitto che nasce.
Ogni volta che si presenta un conflitto di disallineamento, poniamoci le cinque domande che consentono di rappresentare la nuvola. In seguito potremo affrontare la situazione con tutti, spiegando le ragioni per cui esiste la regola del sistema che impedisce  di portare avanti il lavoro.
Questo aiuterà tutti  a vedere le cose da un altro punto di vista, ognuno avrà lo strumento
concettuale per trovare una soluzione che protegga le necessità del sistema.

Seconda risposta. La risposta alla domanda “perché le persone non possono svolgere il lavoro in autonomia ?” è che non  siamo in grado di dare istruzioni chiare. Non siamo in grado di comunicare in modo adeguato la conoscenza necessaria richiesta per lo svolgimento del compito assegnato.
Deming insisteva particolarmente su questo punto. Egli definì in questo modo come dovrebbe essere un istruzione operativa.
“ Una definizione operativa dà un significato comunicabile ad un concetto. Una definizione operativa è quella con cui le persone possono svolgere l’attività. Una definizione operativa di sicuro, completo, affidabile dev’essere comunicabile, con lo stesso significato, a chi vende, chi acquista e chi produce. Lo stesso significato, ieri e oggi.”
Perché le definizioni operative sono così importanti per l’empowerment delle persone?
Perché le interazioni forti richiedono una via di comunicazione più precisa ed efficace? Che cosa rende la comunicazione efficace?
L’utilizzo di parole precise? Assolutamente no!!
Quando comunichiamo qualcosa scegliamo parole ed espressioni che hanno un significato preciso per noi, ma non è detto che lo sia anche  per gli altri.
Fornire empowerment alle persone significa dare loro il potere di agire. Dare a qualcuno una lista dettagliata delle cose da fare è l’esatto opposto, perché:

  • elimina il possesso dell’azione, impedendo così alla persona di “inventare” il proprio modo di svolgerla.
  • preclude il sollevamento di implicazioni negative che rischiano così di rimanere irrisolte
  • richiede un’interpretazione, per cui la persona indirizzerà gli sforzi in una direzione che gli causerà frustrazione e mancanza di risultati

Se vogliamo dare istruzioni chiare, che davvero diano empowerment alle persone dobbiamo:
  1. specificare la necessità che stiamo cercando di soddisfare (perché vogliamo che essi intraprendano l’azione)
  2. definire l’azione che, se intrapresa, soddisferà la necessità
  3. esplicitare la logica (perché crediamo che l’azione soddisferà la necessità)

Lo strumento logico che consente di fare questo è l’Albero della Transizione. Esso mostra la logica dettagliata di come muoversi dal presente verso il futuro auspicato. Alla base dell’albero è descritto lo stato attuale di realtà. La punta dell’albero è rappresentata dall’obiettivo – il cambiamento di realtà che ci prefiggiamo di ottenere con il conseguimento delle azioni definite. L’albero della Transizione contiene i seguenti elementi:
            la necessità dell’azione
            l’azione stessa
            la spiegazione del perché l’azione soddisferà la necessità
            il risultato dell’azione
            perché il passo successivo si rende necessario

Quando forniamo un’istruzione chiara conseguiamo quattro risultati importanti:

  1. riduciamo drasticamente la possibilità di malintesi
  2. diamo all’ascoltatore la possibilità di seguire la logica completa della nostra richiesta
  3. forniamo all’ascoltatore la possibilità di soddisfare la nostra necessità con un’azione differente, aumentando così il suo senso di possesso della soluzione
  4. diamo all’ascoltatore la possibilità di verificare eventuali “buchi logici” nel nostro processo di pensiero, o semplicemente gli diamo una chance di sollevare implicazioni negative, il che ci porterà ad una soluzione più completa e soddisfacente.

La Teoria dei Vincoli e la Teoria della Conoscenza Profonda sono teorie di sistema. Il loro obiettivo è di fornire una struttura concettuale per analizzare e migliorare il sistema di cui siamo parte.
I sistemi evolvono sotto lo stimolo di forze in modi che non sono semplici da comprendere. Tale evoluzione è detta non-lineare, ad indicare che sistemi molto simili, in circostanze molto simili, possono evolvere, ovvero cambiare stato, in modi completamente diversi.
Probabilmente, l’utilizzo più potente dell’Albero della Transizione consiste nel disegnare la sequenza di azioni desiderata, in quanto che essa tiene conto dell’intrinseca non linearità del sistema. Mentre ci sforziamo di dare sempre una spiegazione alla logica che ispira le diverse azioni che vogliamo intraprendere per modificare lo stato del sistema, l’Albero della Transizione accresce la nostra abilità di considerare tutte le possibili implicazioni di queste azioni. In questo modo esso ci mette in condizione di “predire” con ragionevole precisione come il sistema evolverà ed anticipare le eventuali implicazioni negative. In qualche modo l’Albero della Transizione svolge un ruolo simile a quello della carte di controllo: esso facilita la focalizzazione aiutandoci a capire ed anticipare eventi futuri.
La Nuvola di Disallineamento e l’Albero della Transizione riducono drasticamente lo spreco di tempo che affligge molte organizzazioni, e forniscono alle persone una motivazione intrinseca nello svolgimento del proprio lavoro.
La sequenza in cui la carta di controllo, la Nuvola di Disallineamento, e l’Albero della Transizione, dovrebbero essere utilizzati dipende dalle caratteristiche del sistema. In ogni caso tutti e tre agiscono in modo effettivo per la riduzione della variabilità.
Un sistema è un insieme di processi che lavorano insieme per il raggiungimento di un obiettivo comune. Gestire un sistema significa gestire le interdipendenze tra i suoi processi, e poiché tutti i processi mostrano variabilità, gestire un sistema significa gestire la variabilità ad esso intrinseca.
Quali sono le difficoltà organizzative che deve affrontare chi gestisce un’organizzazione in ottica di miglioramento continuo?
Le azioni di cui si è trattato finora: riallineare autorità e responsabilità e definire procedure di lavoro, generalmente, trovano molte resistenze all’interno dell’organizzazione.
Un percorso di miglioramento delle prestazioni per un’organizzazione deve far fronte alle naturali resistenze al cambiamento da parte delle persone coinvolte. Tre domande forniscono le linee guida per un processo di cambiamento: che cosa cambiare, in che cosa cambiare, come attuare il cambiamento.
Un percorso che provveda a dar risposta  a questo ciclo di domande consente di affrontare ogni problema ed ogni passo è necessario affinché l’insieme dei tre costituisca condizione sufficiente per il miglioramento.
Qualsiasi soluzione si voglia implementare è necessario ottenere la collaborazione di tutte le persone coinvolte.
L’introduzione di un’idea innovativa in un’azienda porta inevitabilmente a fare i conti con le resistenze al cambiamento da parte delle persone coinvolte.

Goldratt ha classificato queste resistenze secondo 6 livelli. 

  1. Disaccordo sul problema ( non è un mio problema); l’essenza della Teoria dei vincoli consiste nell’idea che tutti gli effetti indesiderati presenti in una realtà possono essere ricondotti ad un'unica causa di fondo (il problema centrale) che li genera tutti. Il motivo che spinge le persone ad essere in disaccordo con il problema centrale è spesso la scarsa conoscenza che esse hanno della realtà in cui operano. L’individuazione del problema centrale è il primo passo verso il miglioramento.
  2. Disaccordo sulla direzione della soluzione; l’individuazione del problema centrale crea la necessità di trovare una strada da seguire per superarlo. L’ “injection” che elimina il problema centrale invalidando gli assunti a supporto della logica seguita, provvede una direzione da seguire per giungere alla soluzione. Si tratta di un’idea, di qualcosa che ancora non esiste, ma che , se ci fosse, porterebbe alla  soluzione.
  3. Disaccordo sul fatto che la soluzione risolva il problema. Una volta identificata la direzione da seguire è necessario verificare che effettivamente essa porterà i benefici auspicati, eliminando tutti gli effetti indesiderati.
  4. Convinzione che la soluzione porterà effetti negativi. Accade spesso che di fronte ad una buona intuizione la tendenza delle persone sia di evidenziare gli effetti negativi legati alla sua realizzazione.
  5. Ostacoli all’implementazione della soluzione.A questo punto si tratta di implementare la soluzione ormai chiara e condivisa da tutti. Le resistenze sono ora legate a problemi pratici quali mancanza di denaro, di risorse, di tempo, è il momento di sviluppare il piano del progetto di miglioramento.
  6. Paura non verbalizzata

Dopo avere superato il livello di resistenza precedente, non esistono ragioni valide per abbandonare l’idea del cambiamento.
Si tratta soltanto di decidere come agire a partire dal giorno dopo: è necessario un piano d’azione che fornisca istruzioni chiare a tutte le persone coinvolte nel progetto.

Gli strumenti logici offerti dalla TOC supportano i processi di pensiero nel superamento graduale di tutti i livelli di resistenza
Il  continuo superamento di questi sei livelli permette di rendere operativo il ciclo di miglioramento continuo, riassunto da Deming come PDCA (Plan – Do – Check – Act)