24.01.2014
Note a
margine dell’intervento di Mariangela
Bastico
Franco De Anna
La pratica della valutazione, su qualunque
oggetto/soggetto si eserciti, mette sempre capo ad una relazione
asimmetrica. E’ una verità elementare che non può essere rimossa da alcuna
affermazione, anche apprezzabile nelle sue intenzioni, circa la necessità,
l’opportunità, la “bontà” della valutazione stessa.
E’ una verità che si declina sia sul piano psicologico (la conosciamo e
misuriamo lungo tutta la nostra vita: siamo sempre valutati e sempre ne
rielaboriamo variamente e più o meno saggiamente l’inquietudine) sia su
quello collettivo e professionale; da cui scaturiscono molti atteggiamenti e
comportamenti collettivi, sindacali, politici e/o “corporativi”.
Ha dunque ragione Bastico a sottolineare le condizioni e le cautele per una
“buona applicazione” delle istanze della “valutazione di sistema”. Ed ha
ragione a indicare in alcune “approssimazioni” politiche errori fondamentali
che in parte scontiamo oggi.
Per esempio il riduzionismo meccanicistico tra valutazione degli
apprendimenti ( prerogativa e funzione fondamentale dei docenti) e
“rilevazione dei livelli di apprendimento” effettuata dall’INVALSI a livello
“di sistema” che individua alcuni “indicatori” di risultato.
Per esempio, ancora, il riduzionismo funzionalista che cortocircuita
risultati di apprendimento, misurati attraverso quegli indicatori e
valutazione sia delle organizzazioni (le scuole) sia delle persone (docenti
e Dirigenti Scolastici). E ancora il collegamento meccanico tra valutazione
così condotta, miglioramento da essa suggerito, e premialità economica.
Su tutti questi aspetti sono più volte intervento su queste pagine (vedi
questa rubrica) e mi limito a questo richiamo.
Vorrei però, nel merito delle affermazioni di Mariangela Bastico, mettere in
rilievo alcune questioni che interrogano direttamente la dimensione della
“politica pubblica” e che l’interlocutrice, per il ruolo che ha e che ha
avuto, richiama inevitabilmente.
Sono convinto che la singola scuola, il singolo docente possono mettere in
valore gli esiti delle rilevazioni dell’INVALSI proprio come possibili
“indicatori”, segnali cioè, dei risultati raggiunti, dei limiti del proprio
lavoro, dei suoi successi; e dunque un buon materiale sul quale effettuare
processi di rispecchiamento, di autovalutazione, di eventuale miglioramento.
Ma per utilizzare quei risultati in tale funzione “diagnostica” è necessario
abbandonare l’attenzione alle “medie”, e dedicarsi all’analisi differenziata
dei dati; guardare piuttosto alle varianze; privilegiare proprio
l’attenzione ai livelli di “equità” raggiunti dalla attività della scuola e
dei docenti, piuttosto che al conforto della comparata dei valori medi
assoluti, o delle “graduatorie” sia tra scuole che tra docenti che
rappresentano una deriva disdicevole sotto il profilo etico e delle esigenze
di equità (il “nessuno escluso” che Bastico rammenta) ma che non hanno
neppure fondamento scientifico.
Qualche segnale “culturale” in questa direzione da parte
dell’Amministrazione sarebbe più che prezioso. Magari attraverso una
“smentita scientifica” più ancora che politica, di certe ipotesi e progetti
recenti (Valutazione e merito, legame tra valutazione e finanziamenti
ecc..)
Su questo possibile e necessario approccio è fondamentale l’indicazione di
Bastico di guardare al “valore aggiunto”, cioè al risultato che si raggiunge
al netto della considerazione dell’influenza fondamentale dei diversi
contesti socio economico culturali nei quali operano la scuola e i docenti.
Ciò rappresenta, tra l’altro, una condizione per rielaborare sensatamente
almeno una parte delle “patologie” che l’asimmetria delle relazione
valutativa porta inevitabilmente con sé.
Ma c’è un secondo livello del
significato della valutazione di sistema che mi pare sia non evidenziato
nell’intervento di Bastico.
La valutazione di sistema è (anche) uno strumento fondamentale per aumentare
e validare la “razionalità decisoria” del decisore sia politico che
amministrativo. E’ cioè uno strumento fondamentale per qualificare ogni
“politica pubblica”.
In tale prospettiva l’attività valutativa si espande lungo una catena, o
meglio una matrice di livelli ed oggetti diversi ma tra loro collegati.
Se ne possono individuare cinque.
Caratteristica fondamentale di tale “catena valutativa” è che le “ragioni e i significati” delle risultanze valutative di ciascun livello trovano “spiegazione” (diagnosi approfondita) in riferimento al livello gerarchicamente immediatamente superiore. I “dati” di ciascun livello hanno ovviamente una loro “autonomia” (e dunque un trattamento ed una analisi specifica) ma la “spiegazione” e gli “effetti” si comprendono appieno solo interrogando il livello superiore.
Il “Regolamento del Sistema
Nazionale di Valutazione” si esercita sul quarto e quinto livello
individuando come oggetti della valutazione i risultati e gli effetti a
livello delle “unità operative e produttive” del servizio scolastico (le
Istituzioni scolastiche autonome).
Dunque investendo della attività valutativa strutture organizzative, lavoro,
professionalità che, nella loro combinazione specifica, e in rapporto con
diversi contesti socioeconomico culturali, “interpretano” la politica
pubblica dell’istruzione in diretto rapporto con i cittadini e con i
“portatori di diritti” (e di interessi).
Dal terzo livello in su la catena valutativa si interrompe.
Vorrei fare un esempio tratto dal lavoro sul campo.
Nel fare il mio lavoro di “valutatore” nel progetto VALES che cerca di
sperimentare il regolamento di Valutazione, mi sono imbattuto in due scuole,
una nel profondo Nord ed una al Sud, con contesti socio economici assai
diversi, ma entrambe con risultati di apprendimento collocati in fascia
superiore alle medie sia locali che nazionali (ma su livelli lontani tra
loro e in linea con le differenze geografiche che continuiamo a sottolineare
sia nelle rilevazioni INVALSI sia nelle comparazioni internazionali)
Le risorse economiche disponibili alle due scuole sono confrontabili per i
valori assoluti. Ma tale condizione è il risultato di un investimento
significativo che nel primo caso (profondo Nord) è effettuato dalla Regione;
nel secondo (Sud) è dovuto ai fondi europei, i PON.
Le due fonti di finanziamento hanno ovviamente modalità di utilizzo e
gestione del tutto differenti, mettendo in valore in modo assolutamente
diverso l’autonomia delle specifiche istituzioni scolastiche.
I rilevi ambientali (strutture, accoglienza, disponibilità di
strumentazioni, ambienti didattici, contesti spazio temporali, ecc..)
presentano differenze più che evidenti. Nel primo caso l’effetto di un
impegno della comunità locale che sente la scuola come proprio “capitale
sociale”. Nel secondo i fondi europei dovrebbero fare ( e non lo possono)
ciò che la comunità locale non fa e non sente (spazi poco accoglienti e
curati, strumentazioni didattiche rudimentali, ambiente di apprendimento con
caratteristiche critiche, ecc..).
E’ chiaro che, a prescindere da impegno dei docenti, qualità del dirigente,
risorse economiche a disposizione, la valutazione delle due organizzazioni
produce esiti diversi. Ma questo è semplicemente un dato, un “fatto”.
Se la catena valutativa si interrompe a tale livello, non è in grado di
“dire nulla” alla politica pubblica dell’istruzione e ovviamente accentua
tutte le possibili riserve, psicologiche e non, strumentali e non, sulla
utilità e necessità dell’impegno valutativo.
Alimenta anche, e si tratta di notazione dura ma necessaria, una “deriva”
opportunista che fa risalire ogni risultato insoddisfacente a elementi non
controllabili da parte della scuola, come le risorse, il contesto
ambientale, i “superiori” disattenti.
Per comprendere a fondo tali differenze e per trarne conseguenze operative
dovremmo interrogare il terzo livello della catena valutativa, quello dei
programmi e dei processi implementati in base alla “politica pubblica” e non
dalle singole unità operative.
Un altro esempio. Tutte le
rilevazioni nazionali e la comparata internazionale mostrano l’andamento
contraddittorio dei risultati di apprendimento nel passaggio tra la primaria
e la secondaria.
Continuiamo a commentare, di rilevazione in rilevazione, tale problematica.
La descriviamo variamente, per esempio con le parole (imprecise) della
Fondazione Agnelli per le quali la “scuola Media è l’anello debole del
sistema”.
E di nuovo accontentandosi dei valori medi, non andiamo oltre nel
discriminare i motivi di tale “fallimento” specifico nel passaggio alla
secondarietà dell’apprendimento, alle cesure, alle discontinuità, alle
declaratorie disciplinari e alla classificazione del lavoro docente, ai
diversi modelli organizzativi ecc…
Ma soprattutto non espandiamo la portata valutativa sui livelli superiori
dal terzo al primo
Se lo facessimo coerentemente dovremmo investire di tale valutazione la
politica pubblica che si esercita sulle strutture degli ordinamenti (che
diremmo delle “nuove indicazioni” in tale caso? Potremmo limitarci ad
auspicare “curricoli verticali”, qualunque cosa ciò significhi?); ma anche e
sopratutto sui modelli organizzativi, sulla stratificazione e
classificazione del lavoro, sui modelli professionali.
Mi permetto tali sottolineature perché dal terzo livello in su della catena
valutativa sono le azioni dei decisori politici e amministrativi ad essere
investite dal processo valutativo e non solo quelle di studenti, docenti e
dirigenti scolastici, ed è a tale livello che si colloca Mariangela Bastico.
Le cautele che lei indica come necessarie nello sviluppo del sistema di
valutazione sono dunque sensate e condivisibili. Ma la vera condizione per
dare “accettabilità sociale” piena all’attività valutativa sarebbe quelle di
scorgerne gli effetti sull’intera catena e su tutti i livelli.
E questa è una responsabilità politica che va ben oltre le “cautele” e i
richiami alla condivisione (o le “cordate”..).
Ancora due osservazioni.
La prima riguarda l’enfasi
giustamente posta sulla necessità di non fermarsi ai valori assoluti, ma di
guardare al “valore aggiunto”, cioè al contributo che la singola unità
operativa fornisce al netto dei condizionamenti socio economico culturali
del contesto operativo.
Ma ciò riguarda appunto il quarto e quinto livello.
Su quelli superiori i valori assoluti contano eccome. E’ da essi e con essi
che si misura una politica pubblica la cui strategia sia ispirata a valori
di equità e di eguaglianza.
Una strategia di politica dell’istruzione che si accontentasse dei “valori
aggiunti” troverebbe comodi alibi rassicuranti a rischio di opportunismo
implicito di convalida delle disequità (prima di ttto di quelle
territoriali).
Aggiungo, provocatoriamente, che un giovane che si presenta ad un colloquio
di lavoro sarà misurato per ciò che sa e sa fare, non per il “valore
aggiunto” del suo percorso scolastico. E’ crudele, ma è la realtà con la
quale chiunque lavori nella scuola deve misurarsi.
La seconda osservazione riguarda la
“politica di sistema” che dovrebbe consentire un effettivo sviluppo della
valutazione di sistema.
Gli Istituti sui quali dovrebbe fondarsi il Sistema di Valutazione (INVALSI,
INDIRE, Ispettori) sono da un quindicennio coinvolti in una transizione
incompiuta (e si tratta di un eufemismo verbale) segnata da gestioni
provvisorie, strutture lasciate decadere, e nel caso degli ispettori incuria
assoluta nel rinnovarne gli organici e le competenze.
Responsabilità politiche che coprono un arco vasto e plurimo di
responsabilità, di maggioranze di minoranze che si sono alternate.
Ancora oggi, con processi in corso che faticosamente tentano di costruire
sistema (dalle rilevazioni che si vanno consolidando alla sperimentazione di
VALES) l’assetto del sistema della Ricerca Educativa si mantiene incompiuto
e fragile, e non appare all’ordine del giorno del decisore politico, anzi. E
non compare nella discussione della politica dell’istruzione.
Ed è così lasciato in balia di ogni tensione e contraddizione (e cordata…)
che provengono sia dalle insufficienze della sua organizzazione (che dire
del fatto che i ricercatori che vi operano hanno ancora largamente rapporti
di lavoro precari? Un istituto di ricerca deve avere un programma “almeno”
decennale. Del resto così prescrive lo stesso Statuto degli enti, per legge)
sia dalle fisiologiche fatiche e pene, e reazioni più o meno razionali, che
la relazione valutativa comporta nella sua asimmetria.
Infine, Mariangela Bastico risponde
al suo interlocutore che la interroga in proposito, che lei pensa al sistema
di valutazione come “istituto” di carattere nazionale. Sono d’accordo. Ma
“nazionale” non significa “ministeriale”.
Le ripropongo una ipotesi di struttura del sistema della ricerca educativa
(anche a prescindere dalla mia opinione personale sulla necessità di
riunificate INVALSI e INDIRE) con i caratteri della “tecnostruttura” di
servizio all’intera governance del sistema di istruzione e dei suoi
soggetti di competenza (Stato, Regioni, istituzioni scolastiche autonome).
Superando così anche la stretta dipendenza tra essi e il Ministero, che
rende opaca la loro necessaria “terzietà” di organismi di ricerca.
Potremmo “copiare” da quanto avviene nel sistema sanitario nazionale tra
Ministero, Regioni, Istituto Superiore , AGENAS, agenzia del farmaco…
Sono convinto che occorra superare una dimensione “soffocante” del confronto
sulla valutazione, anche delineando una politica vera ed estesa sull’intera
matrice valutativa e non scorciatoie e riduzionismi che finiscono, questo
sì, per rappresentarsi come fatica e pena aggiuntiva per chi nella scuola
opera ogni giorno.