Sulla valutazione delle scuole

Sulla valutazione delle scuole

di Franco De Anna

 

La premessa

La “direttiva” di un Ministro è un documento di estrema importanza: la nostra Costituzione afferma che i “Ministri sono responsabili collegialmente degli atti del Consiglio dei Ministri, e individualmente degli atti dei loro dicasteri” (art. 95).

Dunque il Ministro declina congiuntamente la dimensione della politica e quella dell’amministrazione che guida. Sicché una sua “direttiva” è da un lato “traduzione” che investe un oggetto specifico (nel caso il sistema di Valutazione) delle scelte politiche del Governo. Dall’altro è impegnativa circa l’operatività concreta della amministrazione, a partire dai suoi dirigenti e dal lavoro degli uffici che da loro dipendono.

Su entrambe si misura la sua responsabilità. Di tale estensione dovr-(à)-(ebbe) dare conto agli elettori e ai cittadini. Invecchiando, mi trovo sempre più sensibile ai particolari (il vecchio saggio e il vecchio stolto sono entrambi topoi abilitati in letteratura), e leggendo il documento in questione mi chiedevo (per l’ennesima volta) che senso avesse il fatto che una “direttiva” (con il valore ricordato più sopra) sia preceduta da tre pagine di premesse “visto…visto…visto…” che non possono che essere sconosciute e indifferenti al lettore “cittadino” e che, per altro, sembrano far dipendere la volontà del Ministro da “altro e altrove deciso, e in altro tempo”. Quasi a suggerire una sorta di allontanamento dalla responsabilità diretta.

Naturalmente si tratta di una domanda retorica… proprio la citata età mi da(rebbe) modo di inanellare risposte e analisi.

Mi basta qui ricordare come tutto ciò sia il segno di una questione che dovremmo tutti porre come permanentemente all’ordine del giorno e che riguarda il ruolo e il funzionamento della Pubblica Amministrazione.

Mi si dirà: un atto amministrativo “perfetto” non può che essere corredato da tutti quei “visto…”. Bisogna rassegnarsi… Come si impara studiando i diversi sistemi organizzativi, vi sono inefficienze dovute a regole di legge, che non sono aggirabili economicamente; mentre ve ne sono altre dovute a procedure ripetute nell’uso e consolidate come “regole”. Su queste si può e si deve agire e cambiare, in attesa che cambino le leggi, ovviamente con altri strumenti e protagonisti.

Suggerisco: se un Ministro si presentasse a cittadini, elettori e apparato di cui è responsabile finale con una “dichiarazione programmatica” estesa e esauriente, e ne ricavasse, per esempio a cadenza annuale, una altrettanto esauriente “Determinazione” (stiamo all’interno del Diritto Amministrativo, non fuori), gli atti conseguenti a quella “determina” potrebbero agevolmente semplificare la pagine di “visto…visto..” e recare un solo riferimento alla “determina” stessa. Cittadini, utenti, dipendenti ai quali si affidano le realizzazioni, avrebbero più chiare non solo le idee, ma i quadri di responsabilità… (..ma forse proprio questo è il problema..).

Potrebbe essere una sensata “mediazione” tra una comunicazione squisitamente politica che ha tardivamente e disinvoltamente scoperto PowerPoint, e una comunicazione amministrativa, in teoria impegnativa del “fare” coerente alla prima, ma che continua a proporsi con questa fatica di lettura.

 

Le conferme

La struttura del Sistema Nazionale di Valutazione è sostanzialmente confermata in questa direttiva (né potrebbe essere altrimenti, con tutti quei “visto”). I punti fermi sono in sintesi:

  • Autovalutazione delle scuole che compilano un proprio rapporto;
  • Finalizzazione della valutazione al miglioramento con obiettivi/progetti individuati attraverso l’autovalutazione;
  • Valutazione esterna da parte di nuclei di valutazione coordinati dagli Ispettori;
  • Valutazione dei dirigenti scolastici connessa al processo di valutazione delle scuole in particolare gli impegni e realizzazioni del miglioramento;
  • Rilevazioni nazionali su base censuaria dei livelli di apprendimento, con restituzione dei rapporti alle singole scuole e al “sistema”.

I soggetti del sistema, insieme al Ministro, sono i due Istituti Nazionali (INVALSI e INDIRE) in funzione tecnico-scientifica (protocolli di valutazione, assistenza e consulenza alle scuole per il miglioramento, per la formazione e la documentazione) e una Conferenza di coordinamento per il Sistema Nazionale di Valutazione in funzione di governance.

 

La tempistica e gli impegni

La direttiva indica gli impegni che coinvolgono i protagonisti.

A partire da Ottobre 2014 INVALSI predispone il format omogeneo del rapporto di valutazione che dovrà essere compilato dalle scuole. Su tale base le scuole avvieranno il processo di autovalutazione.

In parallelo il MIUR avvierà attività di formazione per gli operatori delle scuole coinvolti (a partire dai Dirigenti Scolastici e dei referenti per la valutazione).

Dicembre 2014 – INVALSI definisce gli indicatori per la valutazione dei Dirigenti Scolastici, che saranno oggetto di confronto in sede di relazioni sindacali e con associazioni.

Gennaio/Giugno 2015 – apertura di una piattaforma nazionale curata dal sistema informativo del MIUR, e disponibilità dei dati per il confronto e la comparabilità dei rapporti di autovalutazione.

Luglio 2015 – pubblicazione dei rapporti di autovalutazione sul sito delle scuole e su “scuola in chiaro”.

Ottobre 2015 – INVALSI compilerà un “rapporto sul sistema scolastico italiano” che avrà poi cadenza annuale, tenendo conto e collegando l’insieme delle attività di valutazione (dalle rilevazioni degli apprendimenti all’autovalutazione e valutazione esterna delle scuole, nonché della valutazione dei Dirigenti Scolastici, quando a regime). Impegno interessante e positivo.

Nel frattempo… INVALSI provvederà a definire i nuclei di valutazione esterna delle scuole (ispettori, valutatori), a selezionarli e formarli

Anno scolastico 2015/2016 – le scuole implementeranno i piani di miglioramento definiti nei rapporti di autovalutazione.

Anno scolastico 2015/16 – avvio della attività di valutazione esterna della scuole affidata ai nuclei di valutazione coordinati dagli Ispettori.

Termine anno scolastico 2016/2017 – le scuole formuleranno il primo rapporto di rendicontazione sociale con gli esiti dei piani di miglioramento.

Lungo il Triennio considerato, l’INVALSI proseguirà con la rilevazione dei livelli di apprendimento e avrà cura di migliorare gli strumenti di restituzione dei risultati alle singole scuole e supporterà l’analisi differenziata dei propri dati da parte delle stesse.

Naturalmente si tenga conto che il circuito “valutare-decidere-governare” è circolare e va percorso e ripercorso ad anello, perché la valutazione abbia senso progressivo.

 

Le conferme problematiche

Come risulta chiaro da quanto precede, la conferma sostanziale della architettura del SNV, con l’indicazione della tempistica degli impegni per il triennio, lasciano però aperto il campo a molti degli interrogativi che hanno animato il dibattito politico e scientifico in questi mesi.

Ne indico di seguito alcuni.

 

Strumenti e protocolli. La Direttiva fa riferimento alla predisposizione, in particolare da parte dell’INVALSI, degli strumenti tecnico-scientifici necessari per affrontare i compiti indicati. Ma non anticipa criteri o orientamenti.

In particolare sono di grande problematicità tecnica e di delicatezza politica:

– la definizione del format per l‘autovalutazione e, ovviamente, della batteria degli indicatori che saranno definiti per la costruzione del rapporto stesso;

– la definizione del set di indicatori per la valutazione dei dirigenti scolastici (e il vincolo normativo e contrattuale che comunque dovrà essere esplorato.

 

Autovalutazione delle scuole. Personalmente ritengo che l’autovalutazione, come impegno che sfida l’autonomia della singola organizzazione costituisca una sorta di indicatore della propensione al miglioramento. (si veda un mio contributo sul sito “Lo specchio senza Narciso”). Ma per assumere tale valore, deve corrispondere a un impegno che si radica, sia pure progressivamente, entro la cultura organizzativa delle singole scuole e entro il lavoro concreto dei docenti, del dirigente, di tutti gli operatori.

Questa è la storia di molte delle sperimentazioni di modelli “autocostruiti” (vedere per tutti www.aumi.it) che in questi anni si sono sviluppati. Il grande impegno di fondo è quello di reperire e assemblare i dati necessari al calcolo ed all’apprezzamento degli indicatori individuati per “misurare” la qualità del servizio offerto e dunque di “autovalutarsi”.

Si comprende che, dando vita alla dimensione di “sistema”, occorra “standardizzare” modelli, indicatori, scale di valutazione, in modo che i criteri e gli esiti valutativi siano confrontabili e consentano di ricostruire una panoramica sistemica.

Occorre però tenere in debito conto il fatto che la standardizzazione dei modelli, pure necessaria, non può sostituire quell’impegno a reperire dati e a connetterli in indicatori “di sé”. L’autovalutazione non può ridursi alla “compilazione di un report”, pena il rischio di “conformizzare” (più o meno opportunisticamente) un adempimento. Il medesimo rischio corre la definizione dei progetti di miglioramento, quando siano slegati dall’impegno effettivo di autoanalisi.

A rinforzare tale rischio, contribuisce anche la “centralizzazione” relativa delle fonti di dati. (“Scuole in chiaro” per esempio). Occorre distinguere tra l’agevolare la definizione di indicatori (di efficacia, di efficienza, di input, di contesto..) e fornire alle scuole il dato già determinato, esentando proprio dall’impegno autoanalitico. Tanto più che la gran parte dei dati, su cui lavora “Scuola in chiaro” e che ripropone spesso con problematica significatività (si vedano per esempio le analisi dei bilanci), provengono, in definitiva, dalla “fonte scuola”.

Direi dunque: definiamo la batteria degli indicatori. Diamo alla scuola l’impegno di calcolarli con i dati (i suoi) prelevati sul campo. Il valore dell’autoanalisi, prima ancora dei suoi esiti, sta proprio in quell’impegno. Forniamo i dati di sistema per il confronto e il benchmark, ma non sostituiamo l’impegno autoanalitico.

Essere consapevoli di tali rischi significa adottare le misure opportune, per esempio, nei dispositivi di “controllo della coerenza interna” che possono essere inseriti nei modelli di report; oppure l’attenzione posta nella formazione dei Dirigenti Scolastici e dei referenti per la valutazione.

 

Indicatori per la valutazione dei dirigenti. L’INVALSI dovrà definirli tenendo conto di un doppio riferimento: i risultati raggiunti nei progetti di miglioramento definiti con l’autovalutazione e la loro parametrizzazione rispetto alle “aree” di responsabilità organizzativa e gestionale riconducibili ai compiti specifici del Dirigente Scolastico come indicate nel Decreto Legislativo 165/2001 (e modificazioni). Ricordo che tali aree sono così definite: 1) promozione della qualità dei processi formativi, 2) Direzione, coordinamento e valorizzazione delle risorse umane, 3) Relazioni esterne e collaborazioni con le risorse culturali, professionali, sociali ed economiche del territorio, 4) Organizzazione e gestione delle risorse finanziarie e strumentali e controllo di gestione.

Del resto, a partire dal dettato del decreto legislativo 165 sono state a suo tempo (lontano) definite disposizioni di tipo contrattuale.

La delicatezza “politica” del compito di definire tali indicatori è evidente; ma anche dal punto di vista scientifico vi sono avvertenze fondamentali. La valutazione obiettivi/risultati, così semplice dal punto di vista concettuale e per la definizione di strumenti (mai perfetti comunque), è coerente con una organizzazione (e con figure professionali) definite sulla base di modelli MBO (Management By Objective). Organizzazioni (e profili di ruolo) costruiti sul paradigma obiettivi-risultati e dunque valutabili attraverso quel modello. Ma la Pubblica Amministrazione, il Diritto Amministrativo, e la Scuola che è tributaria di entrambi i modelli, non sono riconducibili a gestione per obiettivi. Nella PA (e nella scuola) il peso delle “procedure” rispetto agli obiettivi è (ancora?!) determinante.

Occorrono modelli valutativi più complessi se si vuole controllare il rischio di rendere il modello nulla di più di una cosmesi e di una ”conformizzazione” più o meno opportunistica. Si veda il funzionamento concreto dei modelli di valutazione obiettivi-risultati applicati alla dirigenza amministrativa.

Per approfondire più di quanto si possa fare qui la problematica del diverso modello di valutazione tra organizzazioni a parametri variabili (obiettivi risultati) e organizzazioni a parametri costanti (procedure) posso autocitarmi (Franco De Anna, “Valutare i Dirigenti della scuola, strumenti, metodologie, sfide culturali”, Casa Editrice Spaggiari).

 

La rendicontazione sociale che nella direttiva dovrebbe (come da regolamento) “coronare” l’impegno valutativo (autovalutazione, miglioramento, valutazione esterna) in realtà è la semplice citazione di un impegno collocato a fine triennio. Nulla si dice né dei modelli possibili di rendicontazione sociale né chi e come procederà a consolidarli con preoccupazioni comparative analoghe a quelle che suggeriscono la standardizzazione del format di autovalutazione.

L’affermazione che il rapporto di rendicontazione sociale sarà pubblicato su “Scuola in Chiaro” alla fine del triennio e terrà conto dei progetti di miglioramento e del loro risultati, fa pensare ad una concezione di “rendicontazione sociale” di portata assai ridotta.

Il Bilancio Sociale è prima di tutto una “filosofia” e poi un “modello di report”. Ma è filosofia così lontana da quella della PA, che si comprende la limitatezza del riferimento. (anche qui mi autocito. Franco De Anna, ”Autonomia scolastica e rendicontazione sociale”, Franco Angeli Editore).

 

Il già fatto e il da farsi. E’ difficile rielaborare una valutazione complessiva di una direttiva con tali caratteristiche di conferma di architetture e di rimando a impegni temporali serrati, ma con silenzi importanti circa criteri e direttive per la costruzione degli strumenti operativi.

Costruire un Sistema Nazionale di Valutazione è una impresa scientifica e politica complessa. Necessita di impegno temporale, pazienza, attenzione falsificante, disponibilità a verificare sempre strumenti e criteri, e modificarli quando la esperienza sul campo lo richieda.

Da scongiurarsi due atteggiamenti: che si possa “partire” solo quando gli strumenti siano “quelli giusti” (in realtà la dimensione della “ricerca” è ineliminabile: l’attesa della perfezione dei prodotti è semplicemente incentivo all’immobilità); e che si debba “ricominciare daccapo” ad ogni svolta politica o mutamento di responsabilità amministrativa e/o di Governo.

Personalmente ho partecipato “sul campo”, come valutatore, a tutti i progetti di valutazione delle scuole che si sono sviluppati in questi anni. Dalle valutazioni legate ai progetti PON europei, alle esperienze di VALES e Valutazione e Miglioramento. Con qualche puntata a Valutazione e Merito. Per tacere della valutazione dei Dirigenti che ho seguito in tutti i tentativi di sperimentazione (SIVADIS) a partire dalla istituzione dell’autonomia.

Per ciascuna esperienza ho presente il quadro critico di miglioramenti possibili, di modificazione di protocolli e strumenti, di problematiche relative all’osservazione sul campo e ai caratteri professionali degli “osservatori”. Considero il “ricominciare daccapo” un vero e proprio spreco di risorse umane, culturali, economiche, sacrificate sull’altare dell’immagine “veramente innovativa” che ogni nuovo decisore politico vuole proporre.

Per stare all’oggi: si è chiusa la sperimentazione VALES e Valutazione Miglioramento: vi sarebbe da procedere al riesame critico serrato e approfondito su almeno due aspetti: i protocolli, gli strumenti, gli indicatori, che necessitano di razionalizzazione, approfondimento da un lato e probabile semplificazione dall’altro.

Il secondo aspetto è quello legato agli osservatori/valutatori e del loro lavoro sul campo. Occorre approfondire reclutamento, selezione, formazione, per un lavoro che ha un contenuto di forte professionalità. Per inciso: a partire proprio dagli ispettori. La qualifica ispettiva è tutt’altro che automaticamente legata a competenze di assessor. Se ragioni totalmente “amministrative” pongono come inevitabile tale presenza sulla base di un astratto “profilo di ruolo”, sarà tanto più necessario l’impegno a costruire realmente il contenuto professionale necessario di chi assume ruolo di coordinamento dei nuclei di valutazione.

Finora tutto ciò è stato fatto in fretta e pure ha dato modo di rilevare elementi di interesse, come per esempio quelli legati alla composizione mista dei nuclei di valutazione: giovani ricercatori “nuovi” di scuola e esperti e provati professionisti della scuola stessa.

Occorrerebbe che tale impegno critico dell’esperienza condotta fosse “cosa pubblica”. Un modo anche per “disattivare” le pregiudiziali negative, le distanze e le asimmetrie che ogni “valutazione” comporta, e dunque per esplorare il dialogo necessario per la continuità e la “legittimazione” sociale.

Nulla di tutto ciò, di tale necessario impegno di revisione critica della sperimentazione condotta compare nella direttiva (non c’è neppure nei “visto…visto…” iniziali). Ciò non significa che non si faccia: ma che non se ne parli preoccupa. Come preoccupa il fatto che la valutazione esterna, che si lega a tali esperienze appena condotte (VALES e Valutazione Miglioramento) sia di fatto rinviata al 2015/16, con un anno di intervallo rispetto alla possibile continuità nei confronti della sperimentazione stessa.

Ultime osservazioni: la valutazione del sistema di istruzione e formazione professionale è riportata, nella direttiva, al confronto con la Conferenza Unificata e con il Ministero del Lavoro. Ovvio, viste le competenze delle Regioni nella Formazione Professionale.

Ma “il sistema educativo di educazione” e la sua valutazione, con le priorità che sono positivamente elencate nella Direttiva (lotta alla dispersione scolastica, riduzione delle differenze geografiche e tra scuole; valorizzazione degli esiti degli studenti con attenzione all’Università e al lavoro) non “incrociano” il ruolo della governance della Conferenza Unificata”? La “valutazione del sistema” è una partita che si gioca tra Ministero, scuole, INVALSI e INDIRE? E gli Istituti della ricerca educativa (e la loro affermata autonomia tecnico-scientifica) non troverebbero presidio rinforzante proprio superando la stretta dipendenza dal Ministero e dilatando la loro prospettiva come “tecnostrutture” del sistema misto di governance? C’è un pezzo di Costituzione coinvolto (sia pure bisognoso di modifiche come il Titolo I).

E a proposito di valore costituzionale: le scuole autonome portatrici di un valore costituzionale, sono solamente soggetti passivi nella governance del sistema di valutazione nazionale? Che forme dare ad una loro eventuale rappresentanza?