24.12.2015
Le
prossime tappe del Sistema Nazionale di Valutazione: i nodi e i pettini.
di Franco De Anna
Dialogo immaginario (ma non troppo..) tra un autorevole valutatore e un vecchio ispettore
Valutatore:
…..Poi, sa, le scuole hanno compilato il Rapporto di Autovalutazione non
sempre in modo corretto … circa il 20% hanno scaricato sulla piattaforma un
RAV insoddisfacente…
Vecchio ispettore: …????
Valutatore:… per esempio, una scuola che sta facendo un progetto
interessantissimo, che coinvolge il Ministero, una grande impresa e
l’apprendistato (lo so perché lo sto seguendo io.. e le assicuro che è
proprio un bel progetto)… ohh!! Sa che non l’ha neppure messo nel rapporto
di autovalutazione… sicchè…
Vecchio ispettore : (tentando di assumere un’aria ingenua…) e…
chi ha ragione in questo caso?
Valutatore: ???
Vecchio ispettore: (come proseguendo il discorso) si.. voglio
dire: ha ragione lei a pensare che la scuola sia stata trascurata nel
compilare il RAV… o ha ragione la scuola a considerare quel progetto come
ininfluente e non importante rispetto al suo operare, al suo rapporto con la
comunità locale, con le problematiche formative che affront6a
quotidianamente?
Valutatore: ..(tra il meravigliato e il risentito..) Ma se le
dico che è un progetto importantissimo!!
Vecchio ispettore: (cercando sempre un tono ragionativo) capisco,
ma forse è importante per lei…
Valutatore: (brusco, alza anche un poco la voce) Ma le dico che è
un progetto che coinvolge il Ministero e una grandissima impresa…
Vecchio ispettore: (un poco spazientito) ma scusi stiamo
valutando la scuola, anzi “come quella scuola si autovaluta” o il progetto
in questione?
Valutatore: ??? (sembra sorpreso della domanda)
Vecchio ispettore: (approfitta della sorpresa proseguendo il
ragionamento senza interruzioni e affondando l’argomento)… vede è un
classico errore di osservazione di cui chi si occupa di valutazione deve
tenere conto “clinicamente” Tecnicamente si chiama “effetto proiezione”:
l’osservatore estende su altri una scala di valori propria e valuta in base
alla loro coerenza con essi. In questo caso il progetto è importante “per
lei” e lei ritiene che tale importanza dovrebbe essere condivisa… non è in
sé un male… solamente lo diventa se in base a ciò lei esercita la sua
funzione di valutatore …occorre clinica… clinica e supervisione…
Valutatore: (sempre più sorpreso) in che senso supervisione!?
Vecchio ispettore: (assumendo un’aria tra il paziente e il
professorale) beh, vede, fare il valutatore, e soprattutto quando si
valutino le persone, è mestiere rischioso per derive psicologiche che devono
essere tenute sotto controllo e allora…
Valutatore (interrompe..) ma scusi quali derive psicologiche?…
abbiamo un protocollo, una piattaforma, degli indicatori…Anzi: tanti
indicatori….
Vecchio ispettore: (imperterrito prosegue) …per esempio una
deriva sadica è sempre in agguato nella valutazione, ma anche quella
pigmalionica… si sa… per tacere della deriva “risarcitoria” …sa? quello che
“ho dovuto faticare per arrivare fin qui… adesso tocca a te…”. Una specie di
nonnismo valutativo. Inutile negare. Bisogna saperlo e provvedere in termini
di clinica e supervisione…
Valutatore: (spazientito e tutto di un fiato, come per chiudere)
si…però così non andiamo da nessuna parte… abbiamo il modello di
autovalutazione dell’INVALSi… abbiamo i dati “oggettivi” distribuiti alle
scuole… abbiamo i repertori e le scale di valutazione definiti… abbiamo una
piattaforma informatica potentissima, senza confronti anche a livello
europeo… abbiamo tutto per poter capire se le scuole hanno fatto il RAV per
bene o no… e lei mi parla di clinica.!!.
Vecchio ispettore: (dopo un attimo di riflessione) ha ragione…
non avevo realizzato che il “giudizio” non è rielaborato da lei… insomma dai
valutatori con i possibili difetti di osservazione, ma dall’algoritmo della
piattaforma…. E dalle corrispondenze con le tabelle di indicatori elaborate
dall’INVALSI Ritiro tutto quanto detto prima… Solo….(si trattiene)
Valutatore (incalzando): solo??!! Dica su!!..
Vecchio ispettore (sommessamente): beh..sa… basta intendersi su cosa significhi autovalutazione e valutazione esterna e che rapporto le connetta…
Il valore dei modelli
Ho sostenuto fin
dall’inizio la necessità e opportunità di lavorare dentro il modello di
valutazione disegnato dal SNV e che assume la elaborazione dell’INVALSI
traducendola in un modello di autovalutazione che costituisce la prima fase
di innesco della costruzione più estesa e complessa del Sistema Nazionale di
Valutazione, con la quale si connettono in progress la valutazione
delle organizzazioni (auto e etero) e la valutazione delle persone (a
partire dai Dirigenti).
Una necessità e opportunità cui rispondere positivamente anche in presenza
di difetti e manchevolezze dei modelli adottati, sia per ragioni “politiche”
(per sintetizzare: se aspettiamo di avere il modello perfetto di valutazione
non cominciamo mai, e il nostro sistema di istruzione, su questo è in
ritardo di almeno trent’anni..) sia per ragioni “scientifiche”: la
valutazione ha sempre un “versante” di ricerca da esplorare permanentemente.
Non c’è mai un “modello esaustivo”.
Anche perché, a rigore, i “modelli” non sono mai esaustivi.
Un “modello” è sempre una ricostruzione approssimata della realtà: per
formularlo si opera sempre una selezione delle variabili che operano e si
relazionano nel determinarla, se ne assumono alcune e se ne trascurano altre
secondo un “apprezzamento” del loro grado di influenza.
I modelli sono sempre “approssimati”. Ciò costituisce l’avvertenza primaria
da parte di chi fa ricerca e non deve mai essere lasciata cadere.
A maggior ragione se la ricerca di cui parliamo è ricerca sociale e su sotto
sistemi sociali; dunque con possibili effetti di ricaduta pratica sulla vita
delle persone. Alcune “approssimazioni scientifiche” dei modelli contengono,
in tale caso alcuni elementi di moral hazard…
Al contrario, mantenere desta l’attenzione critica e la soglia analitica sui
limiti dei modelli costituisce una possibilità di correggere, migliorare,
impedire generalizzazioni indebite, e in definitiva rendere più efficaci i
modelli stessi.
Se poi l’oggetto è la valutazione (delle organizzazioni e delle persone) è
del tutto evidente sia il rischio di moral hazard connesso ad
approssimazioni dei modelli, sia il rischio che opposizioni esplicite o
opportunismi occulti mandino fuori bersaglio la valutazione stessa e le sue
funzioni..
Nello specifico: fin
dall’inizio, sulla base di quella scelta ho partecipato direttamente alla
sperimentazione del modello (VALES, VALSIS, Valutazione e Miglioramento..)
e alla sua implementazione in SNV (formazione di dirigenti e Nuclei,
assistenza alle scuole nella compilazione RAV ecc..), e ho spesso
sottolineato che un elemento critico del modello (da tenere dunque sotto
osservazione clinica) era proprio il carattere della autovalutazione che,
come scelta strategica, è stata posta come “innesco” del processo
valutativo.
Per esperienze e prove sul campo ritengo che l’impegno auto valutativo e in
particolare quello autoanalitico che è alla base di modelli autentici di
autovalutazione, costituisca, per una organizzazione, una sorta di
“indicatore” della propensione al miglioramento.
Tanto più è elevato, “originale” e costante l’impegno autoanalitico, tanto
più elevato è il valore dell’indicatore “propensione al miglioramento”.
Sicchè, se stiamo ai criteri di fondo del modello del Sistema Nazionale di
Valutazione, saremmo di fronte ad una scelta coerente di porre
l’autovalutazione come primo passo (se l’obiettivo è il miglioramento). Solo
che…. Occorre ricordarci sempre che stiamo sperimentando una sorta di
“autovalutazione indotta” (lascio ai lettori approfondire il significato
della contraddizione di termini..). Almeno in due sensi: prima di tutto il
modello autovalutativo è eterodefinito (lo ha elaborato l’INVALSI, sia pure
tenendo conto di modelli ed esperienze diffuse) e non il frutto dell’impegno
autonomo di una scuola o di una rete di scuole (come nelle esperienze
consolidate di questi anni). In secondo luogo, e proprio per questo, l’input
autoanalitico è molto contenuto… Alla scuola vengono forniti dati
eterodeterminati, viene fornito un set di indicatori distribuiti su aree e
processi da valutare definiti nel modello… vengono dati alcuni strumenti
rilevativi (questionari,,,) e vengono “restituite” elaborazioni comparative
dei dati così ricavati.
Come più volte ribadito, nulla da eccepire proprio se consideriamo le
condizioni per innescare la costruzione del sistema nazionale di
valutazione: ci saranno scuole che già si sono misurate con autovalutazione
e autoanalisi, anche su modelli diversi, e ci saranno scuole per le quali
questa è l’occasione per provarcisi… evidentemente il modello dovrebbe,
sensatamente, tenere conto che si tratta di compensare esperienze e
prospettive diverse. E ciò si fa sia lasciando alcuni margini di
autodefinizione di parti del “modello” (così è: la definizione di alcuni
indicatori è a carico della scuola stessa) sia curando criticamente di
impedire ogni deriva riduzionistica-deterministica che dimentichi che questo
è “un” modello (vedi considerazioni precedenti) e non “il” modello, e tanto
meno la “realtà” che si vorrebbe conoscere.
La tentazione è sempre
in agguato: il “modello” ha ovviamente prodotto repertori (indicatori,
tabelle, valori..); su tale base si operano confronti, statistiche,
rappresentazioni complessive che includono la singola scuola valutata come
“una delle schede” o come “una serie” di valori e di rapporti.
Naturalmente tutto ciò ha grande e decisivo significato, in particolare per
il “sistema” e i suoi decisori politici e amministrativi.
Ma la singola organizzazione in valutazione pur apprezzando tale
significato, non può essere ricondotta, nella sua realtà di insieme di
lavoro vivo, significati, valori, impegno, comunicazione, storia… al
repertorio di tabelle e classificazioni.
Un buon valutatore, anzi, dovrebbe saper ricondurre i dati e le informazioni
a sintomi e diagnosi sul “singolo e specifico” caso. Nell’esempio usato per
il piccolo colloquio strumentalmente rappresentato in apertura, la
valutazione dovrebbe poter risalire al motivo per il quale “quella”
organizzazione non riconosce valore rilevante a “quel” progetto.
Siamo invece di fronte al rischio che il riduzionismo deterministico, sempre
in agguato in ogni operazione di modellizzazione (riduzione della
complessità della realtà) venga rinforzato e supportato proprio dalla
“potenza” dell’apparato di report, schede, comparazioni, in particolare
quando trasferito sul supporto di una piattaforma informatica che rielabora
sulla base di propri algoritmi, giudizi di conformità o di non adeguatezza.
In questo caso, dunque, sommeremmo due pericoli: quello connesso ad una
“autovalutazione etero determinata” (inevitabile per cominciare, ma i cui
rischi vanno tenuti sotto controllo) e quello di una “autovalutazione” la
cui conformità viene validata da uno strumento informatico che, ovviamente,
collega report e tabelle, ma non è in grado di rielaborare diagnosi e
clinica.
Insomma ci si troverebbe a “valutare l’autovalutazione” dimenticandosi di
“valutare l’organizzazione” che l’ha prodotta (meglio: la cultura
organizzativa che si esprime in quella organizzazione), i suoi criteri di
elaborazione del giudizio, il suo approccio “fisiologicamente” olistico, lo
sforzo di diagnosi specifica dal quale è scaturito il RAV: non solo,
ovviamente la coerenza di repertori di indicatori con gli esiti delle
comparazioni, ma anche (soprattutto direi) il confronto tra essi e la
consapevolezza autoanalitica, senza la quale non vi è autovalutazione
autentica.
Matite rosse e occhio clinico
Personalmente considero
sbagliato, prima di tutto sotto il profilo scientifico, avere dato rilevanza
di “errore segnalato” (le matite) che accompagna il RAV on line e che
segnano le difformità tra le espressioni di giudizio formulate dalle scuole
su se stesse e lo “schema retrostante” al “modello di autovalutazione”,
considerato come il “modello giusto” di autovalutazione (!!!??).
La cui “appropriatezza” è per altro fondata (almeno per la maggior parte
degli indicatori) su tabelle e report di comparazione dei dati, rilevati
sia dalla scuola stessa attraverso il questionario, sia dalle rilevazioni
esterne (dati di contesto, esiti delle rilevazioni dei livelli di
apprendimento, ecc..).
Le comparazioni
statistiche sono ovviamente preziose per consentire assennati
“posizionamenti”, per ovviare a tentazioni autoreferenziali sempre presenti
in tutti i processi auto valutativi.
Ma è improprio ricondurre e ridurre semplicemente a tali comparazioni due
concetti fondamentali usati (abusati..) come quello di standard o (ancora di
più..) di benchmark…
Un “dato” rilevato statisticamente e “confortato” da tutte le analisi
statistiche più raffinate, può diventare benchmark solamente se declinato
entro una “ipotesi di qualità”. A meno di ridurre quest’ultima alla
considerazione del “così fan tutti..”.
A volte quando importiamo concetti e paradigmi da altre culture, come quella
dei impresa rischiamo di essere ancora più “funzionalisti e riduttivi” delle
elaborazioni originarie.
E’ certo che l’impresa ha, nel mercato e dunque nella maggiore diffusione o
nel successo di un bene un prezioso indicatore; ma, si badi, neppure in quel
caso la statistica è esaustiva nel definire un benchmark, o uno standard.
Ackerloff, Stiglitz, Spence vinsero un premio Nobel per l’economia per gli
studi sul ruolo della simmetria informativa sul funzionamento del mercato.
In assenza di tale simmetria (tra domanda e offerta..) “vincono i bidoni”
come sosteneva Ackerloff. E del resto che la diffusione quantitativa non sia
criterio esaustivo lo si sapeva, in economia, fin dalla legge del Saw… “la
moneta cattiva scaccia quella buona..” se non vi sono altre misure e altra
politica o altra consapevolezza di qualità.
Il riduzionismo statistico è spesso in agguato, quando si tentino
“valutazioni di sistema”. Si pensi ad una questione cruciale come quella dei
“costi standard” come riferimento per il governo della spesa pubblica
segnatamente per i sistemi di welfare…Una questione cruciale che diventa
“tormentone politico” quando si tenti di ridurla alla definizione di “costi
medi” : un riduzionismo “comodo” (politicamente) che esime da valutazioni e
definizioni di qualità (inquietanti politicamente) ma che rimanda in
continuazione a misure di “taglio”… Come dico sempre: si taglia con la
medesima indifferenza e ignoranza alla qualità con la quale si spende…
Ma all’errore
scientifico delle “matite” restituite dalla piattaforma (potentissima quanto
si vuole, ma che raffronta una “elaborazione del giudizio” con una
“misurazione statistica” di indicatori) alle scuole che hanno formulato il
loro Rapporto di Auto Valutazione, si affianca anche un errore “politico”.
Ridurre la formulazione del giudizio alla lettura e raffronto di report e
tabelle è particolarmente rischioso in un mondo culturalmente e
intellettualmente avvertito come la scuola. Passato il primo tornante del
sistema, prese le misure degli strumenti, non sarà certo difficile per
nessuna scuola produrre e far produrre dall’algoritmo della piattaforma,
report e tabelle confacenti al proprio giudizio… Suvvia.. chi meglio di un
gruppo di docenti “sa quale è la risposta giusta da dare”… Nelle valutazioni
di sistema nulla come il “riduzionismo funzionalista” incentiva
“l’adattamento opportunistico”. Ricordo sempre che, anni fa, circolava nelle
scuole inglesi, una sorta di “manuale” di consigli utili per “ridimensionare
il pericolo” delle ispezioni dell’OFSTED e contenere gli effetti della
attività dei “terribili” ispettori di sua Maestà…
Dovremmo essere avvertiti della delicatezza politico culturale che
accompagna la costruzione del SNV e porre il maggior impegno possibile sia
per superare le ostilità pregiudiziali, sia impedire la cosmesi
opportunista. Il problema di “fidelizzare” le scuole ad una cultura
valutativa diffusa è ancora più rilevante di quello di avere una
“piattaforma efficiente”.
Naturalmente è in prima
battuta più semplice rielaborare report e tabelle (lo fa l’algoritmo…) che
organizzare un sistema di “elaborazione del giudizio” che si raffronti
direttamente con le organizzazioni (e le persone) da valutare.. In questo
caso infatti non è superabile il vincolo del “rapporto diretto” tra valutato
e valutatore. (la cosiddetta “valutazione esterna”).
Ma è ad essa che spetterebbe considerare la qualità, le caratteristiche, la
completezza o le difformità del Rapporto di Auto Valutazione di una scuola
come sintomi per una diagnosi valutativa capace di misurarsi con la cultura
organizzativa che lo ha prodotto, e non (o non solo) con la conformità di
tabelle e report.
Ma qui, si apre la riflessione relativa ad una fase cruciale della
costruzione del SNV che è quella della valutazione esterna. Chi sono i
valutatori, che qualità e tipologia professionale devono padroneggiare, che
formazione e omogeneità di modelli professionali devono agire, quale
supervisione viene messa in campo a contenere e correggere i difetti
inevitabili dell’osservazione, quale rapporto tra tale lavoro di valutazione
che ha “funzione istruttoria” e responsabilità del decisore politico e
amministrativo…Una riflessione complessa, ma la sua trama la trovate, a ben
guardare, nel piccolo dialogo proposto in apertura.