(05.10.2016)
Le linee e il fronte. Ancora sulla valutazione dei dirigenti
scolastici
di Franco De Anna
Ancora sulla valutazione del Dirigente Scolastico
C’è un isomorfismo di fondo tra il modello di valutazione
delle scuole (RAV, Piano di Miglioramento, Valutazione Nuclei Esterni) e il
modello delineato nelle linee guida per la Valutazione dei Dirigenti Scolastici.
Innanzi tutto Si tratta di modelli che coniugano autovalutazione e valutazione
esterna.
A tale carattere comune di fondo si connette anche un “grappolo” sia di elementi
ed oggetti della valutazione, sia di strumenti e metodologie.
Nei paragrafi che seguono tento di organizzare le argomentazioni circa gli
elementi critici che ritengo siano da affrontare e correggere nel modello
delineato di valutazione dei dirigenti scolastici
Lo specchio senza Narciso.
Così
intitolavo un mio contributo relativo al nesso auto-etero valutazione nel caso
delle organizzazioni scolastiche. Rimando per una analisi a quel contributo[1],
ma il titolo sintetizza efficacemente: l’autovalutazione è sempre un processo di
“rispecchiamento”, il che non costituisce in sé un difetto (speculum…speculare…analizzare…
guardare con attenzione…). Il rischio è ovviamente l’autoreferenzialità
(Narciso). Ma, nei modelli di autovalutazione di organizzazione è un rischio
attenuabile attraverso strumentazione opportuna: intanto si tratta di “imprese
collettive” e dunque costitutivamente a “sguardo plurimo”. E in oltre, in quasi
tutti i modelli autovalutativi è prevista la presenza di quello che si usa
chiamare “amico critico”. Una funzione non valutativa ma che restituisce e
ripropone l’immagine dell’oggetto valutato “ da un altro punto di vista”.
Come si comprende nel caso in cui l’oggetto della valutazione è “una persona”,
sia pure “in una organizzazione”, i rischi di autoreferenzialità hanno ben altro
spessore e vi è una intrinseca debolezza validativa e difficoltà di individuare
correttivi. Quello dell’autoreferenzialità confina direttamente con il rischio
opportunistico e mistificatorio, anche a livello di latenze, soprattutto quando
la valutazione sia connessa con la possibilità di vantaggi economici o
professionali personali.
Come sappiamo il modello autovalutativo delle organizzazioni scolastiche ha
trovato una sua definizione standard attraverso il RAV. Nelle linee guida per la
valutazione dei DS si indicano modelli standard di “Portfolio delle competenze”
e di “Auto valutazione” condotta secondo il modello degli obiettivi di
miglioramento definiti sulla base dello stesso RAV per l’organizzazione di cui
il Dirigente è responsabile, nel quale il dirigente, annualmente dovrebbe
riportare il trend di avvicinamento/acquisizione del set di obiettivi definiti
(vedi linee guida, cap. 3 “Gli strumenti di valutazione”)
Tra nomotetico e idiografico
Ho altrove
ripreso tale distinzione
[2].
Il tentativo di correzione strutturale del “narciso” nel caso
dell’autovalutazione delle scuole (RAV) fu quello di strutturare un “modello”
sul quale le scuole hanno condotto l’impegno di autoanalisi e autovalutazione.
Un modello il cui fondamento, anche non esplicitamente dichiarato, era una
ipotesi di cosa avrebbe dovuto essere una “scuola che funziona”. Una sorta di “idealtipo”
di organizzazione scolastica cui rapportare l’apprezzamento valutativo delle
singole specifiche realtà.
Come noto tale modello è quello rappresentato nello schema del RAV (vedi di
seguito)
Come ovvio la prima colonna è dedicata a variabili che non sono oggetto di
valutazione ma rappresentano dati caratterizzanti la scuola e oggetto di
interessanti elementi di comparazione (ancorchè in alcuni casi di scarsa
significatività e possibilità di approfondimento).
Nel RAV non c’è dunque “l’identità” della singola scuola, (come potrebbe essere
in un impegno autenticamente autoanalitico) ma solo “il quanto” di quella scuola
rientra nel modello descrivibile in modo standard. Tale limite va tenuto
presente, ovviamente; ma è altrettanto ovviamente connesso con le priorità del
modello che sono di “carattere sistemico”, non “clinico”
Coerentemente, nella definizione dei progetti di miglioramento individuati sulla
base di tale modello di autovalutazione, si segue uno “schema funzionale”
altrettanto standardizzato, che è il seguente
Dove i
“processi” sono pre definiti: 1) Curricolo, progettazione, valutazione; 2)
Ambiente di apprendimento; 3) Inclusione e differenziazione; 4) Continuità e
orientamento; 5) Orientamento strategico e organizzazione della scuola; 6)
Sviluppo e valorizzazione delle risorse umane; 7) Integrazione con il territorio
e rapporto con le famiglie.
Dunque vi è un legame strutturale tra gli interventi definiti sui processi e i
risultati del miglioramento che devono essere traguardati agli esiti degli
studenti. Tale legame funzionale è “vincolante” e “validante” nella stessa
logica del modello RAV. Altrettanto legato alla preoccupazione “standard” è il
“modello” di Piano di Miglioramento elaborato da INDIRE.
Il limite “nomotetico” (la realtà della singola organizzazione colta solamente
in quanto riducibile al modello) è, o dovrebbe essere corretto dalla
“valutazione esterna”. La ricostruzione “idiografica” della singola
organizzazione sarebbe affidata alla osservazione diretta ed allo sguardo del
Nucleo Esterno di Valutazione. Ma nella realtà non né così. E lo affermo per
esperienza diretta di valutatore esterno e membro di un paio di NEV.
Anche i valutatori esterni compilano griglie e schede e rispondono a domande e
crocettature che scavalcano una visione sintomatica specifica dell’oggetto di
osservazione (“quella” organizzazione scolastica). E spesso le “griglie”
annullano del tutto la rilevazione della individualità della scuola valutata. Si
comprendono i motivi di fondo di tale prevalenza della “mappatura” rispetto alla
“ricostruzione clinica” della valutazione: si privilegia infatti il “ritorno
sistemico”, la necessità di alimentare una banca dati che operi raffronti e
classifichi “categorie” (E’ ciò che interessa “il sistema”). La singola scuola
riceverà un “responso valutativo” sulla base delle comparazioni e della
definizione di standard (che tali in realtà non sono ma semplicemente dei
posizionamenti statistici. Lo Standard vero avrebbe necessità di declinare
statistiche e indicatori di qualità, che per ora non possediamo). La scuola avrà
sempre un “altro di sé” da raccontare. Basti saperlo.
Per la verità nel modello vi è uno spazio di affermazione della autonomia della
scuola; ciascuna scuola può infatti aggiungere indicatori ed elementi
autoanalitici “propri” al repertorio determinato. E ciò vale anche per i modelli
di miglioramento. E’ quello che abbiamo tentato per esempio nella mia Regione
nella rete AUMIRE (160 scuole) che si occupa da anni di tali problematiche[3],
ma rispetto al sistema si tratta di eccezioni.
Siamo comunque di fronte ad un “limite di modello” di cui occorrerebbe essere
consapevoli per migliorarlo (anche se i limiti hanno giustificazioni, non per
questo sono da ignorare)
Mi sono dilungato nella descrizione perché nel modello di valutazione dei
dirigenti non solo si segue il medesimo schema autovalutazione/valutazione
esterna; ma perché i prodotti del modello RAV (RAV, Piano di Miglioramento)
vengono assunti come base per la definizione del modello di “Dirigente
Scolastico” da utilizzare nella valutazione. E con esso i medesimi limiti
intrinseci e schemi funzionali connessi, che, riferendosi in questo caso ad una
persona, e comportando conseguenze soggettive (e non di descrizione sistemica)
hanno effetti distorcenti assai più marcati.
La definizione degli obiettivi
del Dirigente: sconnessioni
Nella
parte introduttiva delle “Linee guida” si afferma
“…la
valutazione non può essere fondata esclusivamente sul raggiungimento degli
obiettivi, ma deve considerare innanzitutto lo specifico dell’azione
dirigenziale finalizzata al loro raggiungimento…”.
Il modello obiettivi-risultati dunque non è considerato “esauriente”, ma deve
estendersi alla considerazione di comportamenti organizzativi, competenze,
azioni dirette allo scopo. E’ una affermazione più che condivisibile (si vedano
contributi in nota precedente). Ad essa danno conforti i riferimenti normativi e
strategici utilizzati nelle linee guida (il DLGS 165/2001 e le priorità di
sistema). Ne emergono elementi di indirizzo nella “classificazione” degli
obiettivi del DS. In sintesi
·
Contributo al miglioramento
del successo formativo e scolastico degli studenti
·
La direzione unitaria della scuola (partecipazione, collaborazione componenti,
programmazione comune)
·
Il funzionamento generale dell’istituzione scolastica (gestione delle risorse
materiali, umane, organizzative)
·
L’autonomia didattica e organizzativa (ricerca, innovazione, sperimentazione e
sviluppo,)
·
Cultura e la pratica della valutazione come strumento di miglioramento della
scuola.
·
Competenze gestionali ed organizzative
finalizzate al raggiungimento dei risultati,
·
Valorizzazione dell’impegno e dei meriti professionali del personale
·
Apprezzamento dell’operato
all’interno della comunità professionale e sociale
Si tratta di “direttrici” generali, cui vanno rapportati gli obiettivi specifici
assegnati al singolo Dirigente.
Ma tale definizione spetta al Direttore
Generale Regionale (che è il contro firmatario del “contratto” con il DS…)
che consulterà i dati on line riferiti ai RAV e ai Piani di Miglioramento delle
scuole interessate, e da essi estrapolerà gli obiettivi specifici coniugandoli
con quelli da lui stesso elaborati rispetto alla realtà regionale/territoriale.
A parte ogni considerazione circa la appropriatezza del compito assegnato ai
Direttori degli USR (anche per loro la valutazione del personale è un inedito: i
vecchi Provveditori valutavano i Presidi, ma credo non ne sia rimasto in
servizio alcuno… ed inoltre, con tutto il rispetto, adempiere a tale incombenza
nel Molise è cosa assai diversa che farlo per la Lombardia) qui si prospetta un
cortocircuito e/o una sconnessione.
Si confronti infatti il repertorio precedente con quello su cui è costruito il
RAV (l’elenco citato dei processi) e a cui è vincolato il Piano di
Miglioramento. Risulta evidente che, in termini di effettiva “padronanza” degli
obiettivi del DS, vi è sovrapposizione e coerenza solo per tre di essi:
Orientamento strategico e organizzazione della scuola;
Sviluppo e valorizzazione delle risorse umane; Integrazione con il territorio e
rapporto con le famiglie. Per tutti gli altri valgono espressioni come
“favorisce”, “promuove” ecc…
Si consideri inoltre che proprio sulle variabili e gli indicatori relativi alla
gestione delle risorse (umane e materiali: il
core del DS ) nel modello RAV vi sono
elementi di comprovata debolezza (confrontare la struttura del RAV e le modalità
di rilevazione delle variabili e degli indicatori relativi)[4]
Ma accanto a tali non corrispondenze vi è altra
considerazione da aggiungere. Avendo analizzato, proprio per il lavoro di
valutatore, e per la collaborazione con la rete regionale AUMI, molti RAV reali
e molti conseguenti Piani di Miglioramento, mi sento di affermare che il lavoro
di estrapolazione da essi degli obiettivi “specifici” di padronanza effettiva
del DS, attraverso la consultazione on line delle relative banche dati, sia non
tanto impossibile (qualche scheda si può sempre estrapolare). Quanto di esigua
significanza, a forte rischio di “conformizzazione” e di evidente “parzialità”
rispetto alle intenzioni dichiarate.
Ma ciò è coerente con quanto osservato in precedenza: un modello elaborato dando
priorità alle rilevanze sistemiche non può essere utilizzato organicamente come
strumento “sintomatico” rispetto alla valutazione del personale.
Il rapporto tra auto e etero valutazione.
Come sottolineato in precedenza il riequilibrio tra un modello valutativo
fortemente “conformizzato” su schede e griglie standard e le esigenze,
prioritarie nella valutazione del personale, di un approccio clinico-sintomatico,
specifico della specifica “posizione”, potrebbe essere realizzato attraverso la
valorizzazione del ruolo della valutazione esterna e dunque delle capacità
analitiche e cliniche dei valutatori, nonché degli strumenti da loro utilizzati
e padroneggiati.
Le scelte compiute dalle linee guida sembrano condurre altrove almeno per
diverse ragioni.
La prima è lo
spostamento dal valutatore sul valutato
di una serie di oneri documentari e “dimostrativi”. In sostanza il
valutato dovrà redigere un portfolio di competenze (rigorosamente riversato,
almeno in parte, nella documentazione on line); elaborare su tale base e in
connessione con gli obbiettivi assegnati dal Direttore Regionale, un report di
autovalutazione; compilare anche un report di “punteggi” assegnati a ciascun
obiettivo o al processo di avvicinamento a ciascun obiettivo.
La seconda è il contraddittorio ruolo assegnato al team di valutazione esterna.
Le visite degli osservatori esterni sono assicurate almeno una volta nel
triennio, ma la valutazione è annuale. Dunque il team lavorerà
prevalentemente sullo studio e l’analisi della documentazione. Dunque “a
distanza” e sui prodotti il cui livello di significatività è quello ridotto
ricordato più sopra.
Occorre anche aggiungere che nelle linee guida non vi è
indicazione (probabilmente sarà compito successivo) del “protocollo” osservativo
e analitico che i Nuclei di Valutazione dovranno seguire anche nella analisi
documentaria. Quali strumenti analitici, quali strumenti di elaborazione del
giudizio, quali pesi assegnare ai diversi documenti analizzati e valutati (e
l’elenco è poderoso, va dal RAV al PTOF, alla documentazione diretta del lavoro
del DS come e relazioni al Bilancio, la elaborazione di linee guida per il PTOF,
ecc..)?
Problematica, in rapporto a tali considerazioni, anche
la gestione della parte di modello che si fonda sulla rilevazione del livello
reputazionale del Dirigente. Sia per quanto attiene alla limitazione di
tale rilevazione ai soli Docenti (!? Come si raccorda con la complessità delle
direttrici di definizione degli obiettivi del DS?). Sia per quanto attiene alla
gestione materiale di tale rilevazione, visti i limiti delle “visite” dei team
di valutazione. Non vorrei che, anche in tale caso alla “clinica” della
interazione con gli interlocutori si sostituisse il “travaso” in automatico su
una banca dati.
Probabilmente vi sarà una definizione successiva, ma vale la pena di
sottolineare che, invece, si ha la cura di definire “particolari” che lasciano
interdetti: si dice per esempio che il team di valutazione che avesse bisogno di
chiarimenti ed approfondimenti sulla documentazione disponibile può (puo?!)
chiedere un colloquio con il DS, la cui effettuazione, il contenuto, le
modalità, gli esiti vanno rigorosamente registrati on line. Non so se la cosa
corrisponda ad una esplicita e deliberata intenzione, ma certo manda un segnale
di dubbia e scarsa considerazione “cautelativa” del lavoro e del ruolo dei
valutatori esterni.
Le assenze segnalate contribuiscono tutte a indicare un ruolo minore assegnato
alla valutazione esterna. In particolare l’assenza di indicazioni di protocolli
osservativi e di interazione valutato/valutatore. Certo vi si potrà porre
rimedio in successione con apposito intervento, ma intanto, rispetto a queste
parzialità delle linee guida risaltano alcuni elementi di opacità connessi.
La definizione e composizione dei team di valutazione esterna. Come noto
il capo team può essere un Ispettore, o un Dirigente amministrativo, o un
Dirigente Scolastico in pensione… Altri due componenti sono “esperti esterni”.
Tutti individuati per “avviso pubblico”. Ma vale la condizione che almeno un
membro debba essere un Dirigente Scolastico (!? Bisognerà comporre sensatamente
tali indicazioni). Non vengono esplicitati criteri di scelta e di priorità.
Soprattutto nelle nomine regionali non vi è riferimento a elementi sui quali
radicare una necessaria omogeneità del “corpo” (e soprattutto dell’anima) dei
valutatori esterni.
I processi di “validazione”
del corpo dei valutatori:
selezione e formazione comune ricorrente su cui cominciare a costruire la
padronanza dei protocolli e la omogeneità degli atteggiamenti e della cura
dell’osservazione sia dei dati che, soprattutto, delle persone.
Alla formazione ricorrente aggiungerei anche ciò che nella “valutazione
dei valutatori” è fondamentale: procedure di “supervisione” e di “retroazione”
dall’esercizio del lavoro valutativo.
Nell’intero impianto del
modello non viene indicato alcun ruolo all’INVALSI e all’INDIRE,
cioè dell’Istituto che ha la valutazione nella sua “ragione sociale” e di quello
cui sono affidati compiti relativi alla “formazione” ed alla documentazione dei
processi (compreso, nel caso, la elaborazione dei modelli di Piani di
Miglioramento). Tale assenza non costituisce un mero rilievo formale, anche se
nella architettura del Sistema Nazionale di Valutazione è più che esplicitato
tale ruolo anche sottolineandone le funzioni di ”soggetti terzi”.
Ciò che mi preoccupa è, attraverso tale silenzio, l’assenza della dimensione “di
ricerca” che nella elaborazione di modelli e protocolli di valutazione è
essenziale. Per tali definizioni l’Amministrazione, in quanto tale, non può
collocarsi come “autosufficiente”.
Ma ciò vale, soprattutto in relazione agli spunti critici che ho mosso ai
modelli RAV e Piano di Miglioramento: i due Istituti sono i “soggetti” di tali
protocolli, e non a caso fanno parte, insieme al rappresentante degli Ispettori,
della “Conferenza nazionale” del SNV. Non possono non intervenire nel
contribuire a superare tali limiti quando si debba affrontare il problema di
come classificare gli obbiettivi dei Dirigenti Scolastici in valutazione, e come
definire i protocolli valutativi.
[1]
Si veda Franco De Anna “Lo specchio senza
Narciso” in
http://www.pavonerisorse.it/riforma/valutazione/specchio_senza_narciso.htm
[2]
Si veda Franco De Anna “La
valutazione dei Dirigenti Scolastici: in attesa
delle linee guida e del modello operativo” in
http://www.pavonerisorse.it/buonascuola/valutazione_ds.htm
[3]
Vedi il sito
http://www.aumi.it/
[4]
Si vedano solo per
esempio i quadri 3.5.b e 3.5.c del RAV