Introduzione - Il programma - Sintesi dell'indagine PISA - Le competenze scolastiche dei quindicenni - Grafici indagine PISA
biografia di Norberto Bottani

Il programma per la valutazione internazionale degli studenti

(Programma PISA dell’OCSE)

Norberto Bottani
Direttore SRED, Dipartimento della pubblica istruzione,
Cantone Ginevra (Svizzera)

LE CARATTERISTICHE DEL PISA

Nella primavera del 2000, 265.000 studenti quindicenni di 32 paesi hanno partecipato ad un’indagine internazionale, PISA, organizzata dall’Organizzazione di cooperazione e sviluppo economici sulle competenze in lettura, matematica e scienze. I risultati di quest’indagine sono stati resi noti nel dicembre 2001, mentre una nuova indagine dello stesso tipo è in cantiere per la primavera del 2003.

Questo ambizioso programma mira ad accertare il livello di competenza nella comprensione di testi scritti e nell’uso di concetti matematici e scientifici alla fine della scuola dell’obbligo. Nel 2000, l’accento è stato posto prevalentemente sulla lettura; nel 2003 sarà sulla matematica e nel 2006 sulla cultura scientifica. Questo vuol dire che in due ore e più di test, ogni volta si riserva la maggior parte delle domande ad uno di questi settori. Le prove mirano ad appurare non tanto quel che si è imparato a scuola, ma come si utilizzano le conoscenze e le competenze apprese a scuola per affrontare, nella vita quotidiana, problemi di natura non scolastica.

L’indagine è molto più complicata di questa descrizione sommaria, ma questo basta per dire che il PISA è senza ombra di dubbio l’operazione scientifica più importante in corso oggigiorno nel settore delle scienze dell’educazione sul piano internazionale. Essa è stata resa possibile grazie all’accordo intercorso tra i paesi dell’OCSE che hanno fornito i fondi necessari per concepire, pianificare, sperimentare, elaborare e condurre una prova su vasta scala, con l’ambizione di raccogliere dati tra loro comparabili.
Questa realizzazione presuppone la creazione di un’infrastruttura efficiente per la raccolta e la verifica dei dati nonché di centri di calcolo potenti per trattarli. Essa soprattutto coinvolge  centinaia di esperti e di ricercatori per la messa a punto dei test e dei questionari e poi per interpretare i dati e scriverne le analisi. I pedagogisti non costituiscono il nucleo prevalente degli specialisti coinvolti in questo lavoro, se al termine “pedagogisti”  assegniamo l’accezione in voga in Italia. Ai lavori partecipano specialisti di varie discipline: economisti, sociologi, psicologi, specialisti di didattica, di statistica, di psicometria, di psicologia sociale, di didattica delle discipline.

A scanso di equivoci, bisogna ribadire che il PISA non è uno sfizio di alcuni comparativisti ma un progetto di ricerca internazionale, comparabile soltanto, per l’ampiezza dei mezzi e per l’ambizione che lo guida, per esempio  ai grandi progetti di ricerca internazionale organizzati nel settore dell’epidemiologia, della sanità, della farmaceutica, della biogenetica.La caratteristica principale del PISA, che lo contraddistingue rispetto ad altre operazioni intraprese negli anni precedenti in questo campo,  é il finanziamento pubblico: il PISA è stato voluto e deciso dai ministeri della pubblica istruzione (uso questa denominazione per convenienza, pur sapendo che le etichette cambiano da un paese all’altro), è finanziato esclusivamente con mezzi pubblici ed è condotto da un gruppo i cui membri sono stati designati dai ministeri. Mai, in precedenza, i ministeri della pubblica istruzione avevano ipotizzato ed accettato di cooperare tra loro nel campo della ricerca pedagogica, poiché tutti ritenevano che i i sistemi scolastici nazionali fossero per natura unici e quindi incomparabili tra loro.

I PRECEDENTI INTERNAZIONALI

       Il progetto INES

Il PISA è un prodotto del progetto dell’OCSE sugli indicatori internazionali dell’istruzione, di cui si celebra quest’anno il decennale. Nell’autunno del 1992, l’OCSE pubblicò il primo insieme d’indicatori internazionali dell’istruzione. La produzione di questo documento fu ostacolata in tutti i modi dai pedagogisti ma conobbe subito un grandissimo successo  e divenne un best seller della pubblicistica internazionale sulla scuola. Per la prima volta fu possibile comparare alcune variabili chiave della scuola nei vari Paesi misurate con criteri comuni.  Questo colpo di mano ( è proprio il caso di utilizzare questa espressione, talmente forte era la coalizione degli interessi che voleva impedire una realizzazione del genere) sfatò il mito della superiorità della scuola di ogni Paese rispetto a quella degli altri e vanificò qualsiasi sentimento di disprezzo e diffidenza nei confronti delle scuole degli altri. Quella pubblicazione decretò la fine dell’isolazionismo scolastico. Questo era appunto il risultato che molti ministeri volevano evitare a tutti i costi per impedire di essere tacciati, presto o tardi, d’incompetenza, di inefficienza o superficialità da chi conosce questi dati. Non è quindi un caso se in taluni Paesi, dopo la pubblicazione di queste informazioni, si faccia di  tutto per  ignorarli.

Quando nel 1992 fu prodotto il primo insieme d’indicatori internazionali del celebre progetto INES dell’OCSE, fu immediatamente denunciata l’assenza d’indicatori sui risultati, in particolare sulle conoscenze e competenze che si insegnano e che si dovrebbero imparare a scuola, a norma di programmi. Gli indicatori davano informazioni sul numero dei diplomati, dei laureati, degli occupati o dei disoccupati in funzione dei titoli di studio, ma non comprendevano nessun riferimento a quel che gli studenti imparavano. Sul piano internazionale non esistevano cioè fonti d’informazione in grado di fornire con regolarità dati attendibili sugli output della scuola. Si sapeva che le intenzioni non corrispondevano alle realizzazioni, che il curricolo ufficiale non era che una pallida copia non solo del curricolo realmente realizzato ma anche e soprattutto di quello appreso, ma non esistevano modalità d’accertamento sistematiche di questi iatus.

Le indagini dell’ IEA

Dagli inizi degli anni Sessanta, l’IEA, l’associazione internazionale per la valutazione dei risultati scolastici (International Association for the Evaluation of Educational Achievement) costituita da una rete di ricercatori che si occupavano del rendimento dei sistemi scolastici, aveva messo in evidenza questo problema e tentava di identificare il sistema scolastico che garantisse un innalzamento dei livelli d’istruzione di tutti gli studenti e una minore disparitàdei risultati tra scuole e tra ceti sociali. L’IEA riuscì a realizzare notevolissime indagini internazionali a tappeto : per esempio, la prima indagine sulle conoscenze in matematica del 1964 coinvolse 130.000 studenti di tredici anni ripartiti in 5.000 scuole di 12 paesi. Purtroppo, i risultati di questi lavori restavano confidenziali e circolavano solo in un cerchia ristretta di persone. I responsabili politici, i docenti, l’opinione pubblica ne ignoravano completamente gli esiti. Occorre anche dire che i ricercatori avanzavano con grande cautela in un campo minato, del tutto nuovo per la ricerca scientifica, e che mancavano le attrezzature tecniche necessarie per trattare in modo rapido la massa di dati raccolta. Ci volevano anni prima di giungere alla pubblicazione dei risultati. Le indagini dell’IEA rimasero quindi un prodotto per addetti ai lavori, ma permisero anche di mettere a punto metodi d’indagine e  tecniche statistiche di trattamento dei dati che divennero d'uso corrente solo più tardi.

Le indagini dell’IAEP

Alla fine degli anni Ottanta, quando ormai ovunque nel mondo si parlava di crisi della qualità dell’istruzione, le difficoltà  dell’IEA  a produrre in modo tempestivo informazioni sugli apprendimenti scolastici indussero il governo americano, che non riusciva a controllare l’IEA, a promuovere un programma concorrenziale in grado di comparare senza ritardi il livello d’istruzione degli studenti americani con quello di altri paesi.

Con un forte finanziamento americano, l’ETS (Educational Testing Service) di Princeton, un’agenzia senza fini di lucro specializzata nella fabbricazione di test, realizzò nel 1989 e nel 1991 due indagini internazionali sulle competenze degli studenti, l’IAEP (International Assessment of Educational Progress), allo scopo di dimostrare che era possibile condurre valutazioni comparate con tecniche meno pesanti di quelle adottate dall’IEA, ma ugualmente rispettose dei  criteri riconosciuti scientificamente validi a livello internazionale.  

La regione Emilia-Romagna  partecipò a quell’indagine e chi  voglia ora avere un’idea del livello al quale si collocavano dieci anni fa gli studenti di questa  regione italiana rispetto a quelli di altri Paesi può consultare quei risultati.

L’esperienza dell’IAEP non fu però totalmente convincente soprattutto perché molti items dei test provenivano da prove strutturate americane e non erano stati convalidati in altri paesi e in altre culture scolastiche.  Agli inizi degli anni Novanta, né l’IEA né l’ETS erano dunque in grado di fornire con tempestività dati sicuri e tra loro comparabili sul profitto degli studenti. Questi due organismi non possedevano l’infrastruttura e l’organizzazione necessarie per gestire operazioni di questo tipo, ma il problema non era tanto di ordine tecnico quanto di natura pedagogica: mancava infatti un forte  consenso su quanto si dovesse misurare e sulle conseguenze, a media e lunga scadenza, di simili valutazioni sui docenti, sui programmi d’insegnamento, sulle politiche scolastiche. Queste erano incognite serie a cui nessuno sapeva rispondere e alle quali non si sa per altro dare una risposta nemmeno ora.

IL FRANGENTE  IN CUI È NATO IL PISA

Il PISA è nato nel frangente sopra descritto,  caratterizzato da :

  • malumore e insoddisfazione nei confronti delle indagini dell’IEA e dell’IAEP
  • timore di non valutare gli obiettivi delle scuole
  • inquietudine rispetto alle conseguenze imprevedibili di queste indagini
  • rischi connessi alla focalizzazione sui saperi scolastici e non sulle competenze fondamentali per inserirsi nella vita attiva oppure per riuscire tout court nella vita (queste erano le espressioni in voga)
  • difficoltà di conciliare rigore scientifico e rapidità dell’informazione
  • forti esigenze d’informazione dell’opinione pubblica sui risultati delle scuoleGli anni Novanta sono stati fertilissimi di dibattiti, ricerche, sperimentazioni (non all’italiana, va da sé) in questo campo.

Gli Stati Uniti non rinunciarono al loro progetto egemonico e si pagarono l’IEA, con un finanziamento straordinario dell’indagine sulle conoscenze in matematica e nelle scienze di tre gruppi d’età diversi (9 anni [terzo e quarto anno di scolarità], 13 anni [settimo e ottavo anno di scolarità], e ultimo anno delle superiori), allo scopo di dimostrare che nell’anno 2000 gli studenti americani sarebbero stati  i migliori al mondo in matematica.

Il progetto TIMSS (Third International Mathematics and Science Study) al quale parteciparono 42 paesi confermò il persistente ritardo degli studenti americani, ma suscitò una serie di indagini satelliti stupende per cercare di capire le ragioni di questo ritardo (per esempio la ricerca sui manuali e sui programmi di matematica dell’Università del Michigan) oppure la ricerca video sull’insegnamento della matematica in classe ( per una analisi dei risultati italiani si veda l’articolo di Angela Martini nel numero speciale degli Annali dell’istruzione pubblicato in occasione degli stati generali dell’istruzione nel dicembre 2001).Il programma PISA deciso e finanziato dai governi degli stati membri dell’ OCSE fu concepito per dare una base solida e almeno in parte neutra a queste valutazioni.
A metà degli anni Novanta, grazie all’IEA e all’IAEP, il terreno era ormai pronto per compiere questo passo e per attingere con regolarità ad una fonte di dati  sulle competenze degli studenti. Nel corso dei lavori preparatori i vari gruppi d’esperti s’imbatterono beninteso negli analoghi problemi e nelle stesse difficoltà incontrati dagli specialisti di psicometria alla testa dell'IEA. La decisione di puntare non più su un’indagine imperniata sulla verifica degli apprendimenti scolastici ma sulla misura della “literacy”, ovverosia sui livelli di competenza nell’uso degli strumenti essenziali della cultura alfa-numerica e scientifica, fu salvifica poiché ha permesso d'inoltrarsi  su nuovi binari, andando però incontro ad un nuovo tipo di problemi mentre se ne evitavano degli altri.     

LE PRIME INDICAZIONI CHE EMERGONO dal PISA

I risultati prodotti dal PISA sono talmente abbondanti che ogni Paese dovrebbe fare la sua propria analisi, in funzione del contesto politico-amministrativo che costituisce l’humus  particolare del suo sistema scolastico. Qui ci limitiamo a mettere in evidenza alcune osservazioni o constatazioni che si possono formulare ad una lettura trasversale dei dati,  attenta a reperire  quei fenomeni comuni che a prima vista si scorgono nei risultati di tutti i Paesi. Prima di giungere a conclusioni definitive, occorrerà però verificare, con analisi dettagliate - per ora non ancora messe in cantiere- la validità e la solidità delle constatazioni rilevate, tra cui:

Una media elevata dei punteggi di un Paese può coesistere con una debole disparità dei risultati. Questo vuol dire che si possono conseguire risultati buoni o eccellenti con tutti, e non solo con i migliori studenti. In altri termini, la selezione non è la sola via per conseguire risultati eccellenti ed inversamente, la non selezione non penalizza l’eccellenza. E’ la prima volta che si riesce a dimostrare la validità di questa asserzione. Se ciò fosse vero, se cioè si riuscirà a comprovare con altre verifiche, altri dati in altri contesti, la giustezza di questa osservazione, allora si dovranno modificare tutte le politiche scolastiche e i metodi di valutazioni che pretendono di selezionare i migliori studenti e di scartare quelli deboli. Per altro, il calcolo delle variazioni dei risultati in funzione del gradiente socio-economico mostra che a gradiente socio-economico uguale i risultati variano da un paese all’altro e da una scuola all’altra, smentendo dunque quella che era ritenuta una legge ferrea del rendimento scolastico, ossia la stretta correlazione tra risultati scolastici eccellenti, selezione scolastica e categoria socio-economica. Il PISA fornisce dati strabilianti in merito che obbligano a riesaminare le teorie sociologiche sulla disuguaglianza scolastica.

Nei Paesi con i risultati migliori, le politiche scolastiche e le scuole presentano le seguenti caratteristiche:

  • valorizzazione sociale e politica dell’eccellenza scolastica
  • consenso nell’esigere dagli studenti risultati scolastici elevati
  • accordo sull’importanza di un clima sereno e positivo all’interno delle scuole
  • presenza di rapporti calorosi e di rispetto reciproco tra insegnanti e studenti; gli studenti hanno l’impressione d’essere capiti, aiutati e stimolati dai loro docenti;
  • integrazione della valutazione degli studenti nella politica della scuola e nell’insegnamento : i risultati della valutazione sono utilizzati  dalle scuole per impostare un insegnamento su misura, adattato ai punti forti e deboli di ogni studente
  • alto grado d’autonomia delle scuole (questa conclusione è però contestata perché dedotta da informazioni poco attendibili raccolte presso i presidi con il questionario sulle scuole)

All’interno di uno stesso Paese coesistono  grandi divari tra le scuole.
Quest’informazione, che conferma osservazioni analoghe fatte in altre indagini internazionali dello stesso tipo, è preoccupante perché dimostra l’incapacità dei sistemi scolastici di fornire un’istruzione equivalente su tutto il territorio di propria competenza. Meritevole d’attenzione è poi il fatto che le variazioni tra Paesi sono meno forti di quelle constatate all’interno dei singoli Paesi. Questo significa, per esempio, che è più grave il divario che esiste tra le scuole esistenti in Italia che non tra la media dei risultati degli studenti italiani e quella degli studenti degli altri Paesi.

LE RISPOSTE CHE PISA NON FORNISCE

Per completare il quadro, bisogna anche ribadire che il PISA non fornisce risposte a tutta una serie di domande di natura politica sullo statuto, l’organizzazione, le finalità della scuola.
Per esempio, non si possono usare i dati del PISA per  trattare i temi seguenti :

  • il confronto fra  scuola privata e quella statale;
  • il confronto fra sistemi scolastici centralizzati e sistemi decentralizzati;
  • le relazioni tra spese correnti e profitto scolastico (è vero per esempio che chi più spende ottiene risultati migliori?);
  • la relazione tra numero di studenti per classe e profitto scolastico;
  • l’influsso dell’educazione prescolastica sui risultati ai test a quindici anni;
  • le relazioni tra livello di competenze e di preparazione dei docenti e risultati nei test;
  • le relazioni tra lo statuto sociale dei docenti (misurato per esempio in base allo stipendio) e risultati degli alunni;
  • le relazioni tra l’aggiornamento professionale dei docenti e i risultati;
  • le relazioni tra risultati nei test e l’orientamento precoce degli studenti: con i dati raccolti non si può sostenere che i sistemi che ritardano l’orientamento e la selezione degli studenti per indirizzi di studio diversi o tipi di formazione con esigenze diverse siano migliori di quelli che invece prevedono una selezione precoce e orientano gli studenti verso indirizzi di studio diversi a partire dalla fine della scuola elementare;
  • la relazione tra risultati nei test e organizzazione interna di una scuola : certe scuole prevedono classi per livelli di competenza omogenea; altre invece funzionano con classi a livelli eterogenei.Il PISA non fornisce elementi per dirimere questa questione.

Questa non è che una lista molto limitata di questioni centrali per le politiche scolastiche alle quali il PISA non fornisce nessuna risposta. Bisogna anche dire che il PISA non è stato concepito per questo scopo, ma solo per raccogliere dati su quel che gli studenti sanno o non sanno alla fine della scuola d’obbligo. Questo obiettivo di per sé è già molto complicato da conseguire.

Non si può pretendere dal PISA  quel che non può dare.  E’ comprensibile che i fautori del PISA siano tentati di valorizzare al massimo l’indagine  e di sfruttarne i dati per dimostrarne le potenzialità, ma da un punto di vista scientifico si corre il rischio di commettere gravi errori quando dai dati raccolti per un certo scopo si estrapolano conclusioni che riguardano problemi di tutt’altra natura.

Come è stato utilizzato il PISA IN ITALIA E IN ALTRI PAESI

La pubblicazione dei risultati del PISA all’inizio di dicembre del 2001 ha suscitato un grande interesse nei ministeri della pubblica istruzione e nella stampa. In molti Paesi, i ministri dell’istruzione hanno tenuto delle conferenze stampa per commentare i risultati nazionali. A questa prima reazione a caldo è seguita nei mesi successivi  tutta una serie di analisi dettagliate pubblicate sotto forma di rapporti nazionali o di studi particolareggiati sulle varie componenti dell’indagine.

·         Il caso Italia
In Italia non è successo nulla di tutto ciò: ad un anno di distanza dalla pubblicazione dei risultati del PISA non è stato pubblicato nessun rapporto sui risultati italiani.
In Svizzera, Germania, Inghilterra, Francia, Stati Uniti si moltiplicano i seminari e i colloqui sui risultati del PISA. In Italia è stata  una fondazione privata, la Treellle, ad organizzare la sola giornata sul PISA, peraltro non una giornata di studio ma un happening promozionale.

 La responsabilità della partecipazione italiana al PISA  era stata affidata al Servizio nazionale di valutazione dell’istruzione, ora INVALSI, diretto dal Prof. Benedetto Vertecchi. La direzione del PISA in Italia era stata assunta dalla Prof.ssa Emma Nardi. Al momento della ricezione dei risultati, nel giugno del 2001, in Italia è cambiata la maggioranza politica : da un governo di centro sinistra si è passati ad uno di centro destra, con un nuovo ministro, Letizia Moratti, che scopre nel corso dell’estate i risultati italiani, mentre “dimissiona” il prof. Vertecchi  dalla direzione del centro di Frascati.

Mancanza di coordinamento, comunicazione insufficiente, conflitti d’interesse,  pregiudizi e prevenzioni di ogni genere, sia a destra che a sinistra,  hanno ostacolato lo sfruttamento del PISA .
Per l’ennesima volta, non è la prima volta che capita in Italia,  la connessione tra ricerca e politica viene meno, proprio nel momento in cui si sarebbero dovuti interpretare i risultati, sfruttarli al meglio, suscitare un dibattito nazionale, allarmare l’opinione pubblica, lavorare con le associazioni dei docenti per capire la mediocrità della prestazione degli studenti italiani.

I dirigenti della scuola italiana manifestamente non erano stati avvertiti del cambiamento di rotta rappresentato dall’indagine PISA. Prevale l’impressione che l’amministrazione centrale abbia lasciato le mani libere al  servizio di valutazione, come si era fatto in precedenza con tutte le indagini IEA alla quale l’Italia aveva partecipato.

·         I casi di Germania, Svizzera, Canada e Spagna
Orbene, con il PISA le indagini internazionali sul rendimento delle scuole non sono più un appannaggio esclusivo dei ricercatori ma sono operazioni di natura politica che mirano ad informare i responsabili della scuola sullo stato dell’istruzione del Paese. 

Il PISA esige dunque una strategia di pilotaggio del tutto diversa da quella  che era  in auge all’epoca delle indagini IEA.
Vorremmo qui soffermarci su quattro casi diversi che ci consentono di capire gli effetti del sisma pedagogico-politico che è stato il PISA .
I Paesi avevano dovuto decidere se partecipare al PISA o meno nel 1998, quando era stato loro richiesto di sottoscrivere l’impegno finanziario derivante dall’organizzazione dell’indagine. In molti Paesi questa è stata l’occasione per cogliere due piccioni con una fava: in primo luogo, sfruttare l’ operazione scientifica per acquisire o sviluppare il “know how” psicometrico necessario per svolgere indagini su vasta scala sul rendimento degli studenti; in secondo luogo, andare oltre le esigenze imposte dal programma minimo internazionale, estendere il piano di raccolta di dati e beneficiare dell’infrastruttura internazionale del programma per trattarli.
Queste decisioni dovettero essere prese nel 1997-98, prima che si pianificassero tutte le fasi dell’indagine. Mancano le informazioni su quanto è successo a Roma: non si sa  cioè se tra l’ex-CEDE e il ministero (il ministro d’allora era Luigi Berlinguer) ci siano state discussioni sulle modalità della partecipazione italiana.

L’Italia  per finire ha comperato solo il pacchetto di base del PISA, mentre invece la Germania, la Svizzera, il Canada hanno preso un’opzione più ambiziosa e quindi necessariamente più costosa. La Germania chiese di testare non solo un campionamento rappresentativo dei quindicenni del Paese, ma anche un campionamento per ognuno dei sedici Länder. Va notato che mai in Germania si era prima d’allora proceduto ad uno studio comparato di quest’ampiezza tra i sedici Länder, inclusi quindi anche quelli che appartenevano al territorio dell’ex Germania dell’est. 

Stessa cosa, in Svizzera : qui il dibattito fu più virulento, perché i cantoni tedeschi rifiutarono la raccolta di dati rappresentativi per Cantoni. Non fu il caso invece nella Svizzera francese dove i ministri della scuola dei sette cantoni romandi decisero di finanziare l’estensione del campionamento per avere un campione rappresentativo per ogni cantone. La stessa scelta fu fatta dal cantone elvetico di lingua italiana, il Ticino, e da tre cantoni tedeschi : Zurigo, Berna e San Gallo. Gli Svizzeri si complicarono poi l’esistenza perché furono i soli, con i Giapponesi, a sdoppiare il campionamento, ossia a testare non solo i quindicenni, indipendentemente dalle classi frequentate (ci sono quindicenni in prima e seconda media, in prima liceo oppure nelle prime degli istituti tecnici), ma anche tutta la popolazione che frequentava l’ultimo anno della scuola dell’obbligo, indipendentemente dall’età. Il caso elvetico dimostra che il PISA non è un programma a scatola chiusa, da prendere o lasciare in toto, ma un programma flessibile, che permette ai Paesi d’impostare una partecipazione, in un certo senso, su misura, una volta rispettate le condizioni minime richieste dal programma a tutti i partecipanti. Dopo tutto, il programma è finanziato dai Paesi: senza i soldi dei governi, il PISA non si sarebbe potuto fare.

Il caso del Canada è analogo a quello della Germania, con un campionamento nazionale, che corrisponde ai criteri minimi di partecipazione al PISA, e con campionamenti per ognuna delle province. In questo modo i Canadesi possono per la prima volta verificare le perfomances delle scuole delle varie province, ed  in particolare comparare i risultati del Quebec francofono con quelli delle province anglofone. 

In Spagna, il servizio nazionale per la valutazione della qualità della scuola non è stato invece autorizzato a raccogliere dati comparabili per ognuna delle comunità autonome (o a pubblicarli: le nostre informazioni sono imprecise su questo punto). Questa è stata una decisione politica imposta ai ricercatori; tuttavia, altra decisione politica, la Catalogna fu autorizzata a partecipare al PISA per cui ora, alla resa dei risultati, i catalani possono comparare le prestazioni del proprio sistema scolastico con quelli del resto della Spagna.  Nel 2003, il Paese basco seguirà l’esempio della Catalogna e raccoglierà dati sulla propria popolazione scolastica di quindicenni.

·         Un nuovo approccio in Italia? Il possibile coinvolgimento delle regioni
In Italia sembra che l’approccio al PISA stia cambiando: secondo notizie di quest’estate, le regioni sono state informate della possibilità di raccogliere dati rappresentativi per ogni regione.
Sappiamo che il Piemonte si è già mosso in questa direzione e che la Lombardia probabilmente si aggregherà al Piemonte.

Si compirebbe un passo avanti rilevante se si giungesse a coinvolgere più regioni in occasione del prossimo round di PISA, ancorché le infrastrutture universitarie e scientifiche per sfruttare l’operazione non siano in Italia ideali, ma sarebbe proprio auspicabile costruire entro il 2006 una collaborazione regione-INVALSI in grado di trattare e analizzare i dati nazionali ripartiti per regioni, come lo si è fatto in Germania con i 16 Länder.

·         L’effetto in Germania della scomposizione per Länder dei dati PISA
Il 26 giugno di quest’anno, sei mesi dopo la presentazione dei risultati del PISA a livello internazionale, sono stati pubblicati in Germania, in una conferenza stampa apposita,  i risultati dettagliati del PISA per ognuno dei Länder: lo stupore è stato ancora più grande della sorpresa provocata dai dati internazionali che piazzavano la Germania al ventunesimo rango in lettura e al ventesimo in matematica. Questi dati hanno aperto, in piena campagna elettorale, uno scontro durissimo tra maggioranza e opposizione, sui mali della scuola tedesca. Scontro per nulla previsto dalla maggioranza di centro sinistra.   Il sud cattolico, con Länder a maggioranza conservatrice, declassa il nord protestante dominato da maggioranze socialdemocratiche, dove si sono sperimentate tutte le innovazioni scolastiche da più di un trentennio, mentre le scuole del sud sono rimaste piuttosto restie alle novità. Campione in tutte le categorie, la Baviera, che batte la Svizzera e rivalizza con la Svezia, ma è battuta dalla Finlandia, dall’Australia, dalla Gran Bretagna e dal Giappone. Alla sua altezza si situa il Bade-Wurtemberg e la Saxe (il migliore Land dei territori dell’est). Questi tre stati sono guidati da tempo da maggioranze conservatrici (democristiane). In coda ai Länder tedeschi, arriva la città anseatica di Brema e il Brandeburgo (altro stato dell’est) che non fanno meglio del Messico. Brema, che passa per un centro d’avanguardia in educazione, è un bastione della sinistra progressista tedesca. A detta di tutti è a Brema che l’educazione progressiva è stata applicata con maggiore impegno in Germania.

I risultati del PISA, a prima vista, sembrano essere una smentita tremenda della bontà delle innovazioni pedagogiche dell’ultimo ventennio. Va anche però  detto che queste sono battaglie di campanile, perché in generale i risultati di tutti i Länder sono mediocri, come ricorda giustamente il Zeit, un quotidiano di indirizzo liberale. Questa polemica sulla scuola è comunque una prova dell’interesse di queste indagini, che hanno un senso solo se generano ricerche e verifiche dettagliate di quanto si constata, cosa che  implica la presenza di centri di ricerca attrezzati e di laboratori universitari competitivi.

Infatti, di fronte a questi risultati occorre chiedersi:

  • cosa ha in realtà misurato il PISA ?
  • Qual è il quadro riferimento del PISA?
  • E' lo stesso di quello delle scuole progressive?

La risposta a queste domande è cruciale per evitare interpretazioni  mistificanti e pericolose per il futuro della scuola.

Il PISA e gli insegnanti

Il programma internazionale di ricerca sulle competenze e gli apprendimenti acquisiti alla fine della scuola dell’obbligo è un’operazione di vertice, che riguarda essenzialmente i ministri, gli altri funzionari della scuola e pochi centri privilegiati di ricerca.

La base della scuola è assente dal dibattito, come pure dall’elaborazione delle prove. Presidi e insegnanti non sono nient’altro che esecutori invitati a collaborare alla realizzazione dell’indagine. In certi Paesi, presidi e docenti marciano al passo, non si pongono troppe domande ed eseguono coscienziosamente le istruzioni che arrivano dall’alto. In questo caso non c’è bisogno di spiegare il PISA e di chiedere a presidi e insegnanti di collaborare all’indagine.

In altri Paesi invece, dove vige una tradizione pedagogica imperniata sulla professionalità dei docenti oppure dove si pratica su larga scala una pedagogia progressiva nella quale si  contesta la validità e l’utilità delle  valutazioni imposte dall’esterno che non rispettano i ritmi di crescita degli studenti, la realizzazione del PISA  nelle scuole ha incontrato opposizioni e resistenze di ogni genere. In taluni casi, la somministrazione dei test è stata anche boicottata. Da qui la necessità di spiegare a fondo il programma d’indagine per convincere la base della sua utilità e ottenere quindi le condizioni migliori d’attuazione delle prove.

Poiché il PISA è un’indagine campionaria, il numero di insegnanti e di scuole che vi partecipano non è che una piccola frazione del totale, ma questo non è un argomento accettabile per rinunciare a spiegare agli insegnanti e alle loro organizzazioni l’indagine, i suoi scopi, l’uso che se ne può fare, tanto più che le conclusioni si applicano a tutta la scuola e producono apprezzamenti estesi all'intero sistema scolastico.
Tre fattori militano a favore di un forte coinvolgimento dei docenti :

  • l’utilità pedagogico-didattica delle prove;
  • la produzione di analisi convincenti e d’interpretazioni corrette dei risultati;
  • le condizioni d’esecuzione dell’indagine.

L’ultimo punto è ovvio: senza il consenso e il sostegno delle scuole, le prove non potrebbero svolgersi in buone condizioni, gli studenti non sarebbero motivati a parteciparvi e i risultati ne risentirebbero. Quindi, almeno per una semplice ragione pratica è indispensabile spiegare agli insegnanti le ragioni e le finalità delle prove.

Il secondo punto è nell’interesse delle autorità scolastiche che devono spiegare all’opinione pubblica o ai parlamenti i risultati. Sono molteplici i parametri che influenzano le risposte degli studenti ai test e, di conseguenza, la media dei risultati e la disparità fra i risultati : per esempio, la composizione delle classi, il grado di selezione, il numero di ore d’insegnamento, le qualifiche dei docenti, la loro esperienza professionale, l’organizzazione delle scuole, e via dicendo. L’identificazione delle cause probabili che spiegano per esempio l’alta percentuale di studenti con un basso livello di competenza in lettura oppure la verifica delle probabili correlazioni esistenti tra un fattore o l’altro esigono l’intervento di specialisti che conoscono benissimo il terreno, ossia la scuola dall’interno. Questo lavoro non può essere fatto dagli esperti internazionali che spesso prendono cantonate solenni, vuoi per presunzione vuoi per mancanza di prudenza nella lettura dei dati. Spesso non può nemmeno essere fatto dai centri nazionali che pilotano l’indagine in un Paese.

Per capire per esempio la percentuale elevata di assenteismo constatata a Ginevra, che è un minuscolo stato dove tutti pensano di conoscere tutto di tutti, si sono dovuti interrogare i presidi delle scuole nelle quali si sono svolte le prove. Certi misteri nei risultati --per esempio la percentuale elevata di errori negli items  semplici e invece la buona percentuale di risposte esatte negli items difficili -- non si possono capire senza la collaborazione dei docenti.

Infine, il primo punto: il PISA può rappresentare uno strumento straordinario d’aggiornamento degli insegnanti. Gli items delle prove standardizzate provengono da tutte le parti del mondo, sono stati pensati ed elaborati da specialisti all’avanguardia nella ricerca, riproducono elaborazioni concettuali raffinate e per finire sono stati convalidati statisticamente nei pre-test. Essi sono però anche il frutto di compromessi aspramente combattuti e possono rappresentare scelte poco innovative o coraggiose. Gli insegnanti potrebbero ispirarsi a queste prove per rinnovare l’insegnamento, per riflettere sul proprio lavoro, ma anche per esaminare criticamente i test, discuterli, contestarne la pertinenza, segnalare ai ricercatori i rischi di devianze nascosti nelle formulazioni, che i costruttori delle prove non possono vedere ma che invece gli insegnanti  riescono a reperire perché sono vicini agli studenti che passano le prove.

Purtroppo, si sa ben poco di quel che  i Paesi hanno fatto per spiegare il PISA ai docenti.
L’OCSE si è limitata ad organizzare quest’anno in maggio un incontro con i sindacati dei docenti che a  detta di un partecipante anglosassone da noi interpellato è stato piuttosto banale. Non siamo riusciti a sapere se c’è stata una presenza italiana.
A detta di molti, il lavoro con la base è il punto debole del PISA. In Inghilterra , le TU ( ossia i sindacati dei docenti britannici) sono stati invitati ad un incontro con il ministero per discutere i risultati del PISA, ma la riunione è stata un flop.
E’ andata un po’ meglio nella Svizzera Romanda dove il massimo sindacato dei docenti, il SER, è stato subito informato della decisione di costruire un campione per ogni cantone ed ha ricevuto tutta la documentazione sull’indagine. I contatti tra il servizio di ricerca ed il sindacato non sono mai stati interrotti nel corso della preparazione, dello svolgimento e della presentazione dei risultati. Il sindacato ha così organizzato per proprio conto un seminario interno di formazione sul PISA prima della pubblicazione dei risultati. Quando questi sono stati disponibili, il sindacato è stato invitato a commentarli ed ha potuto presentare il proprio punto di vista nel corso della conferenza stampa organizzata dai sette ministri cantonali dell’istruzione.
La “carta sulla trasparenza” ha permesso di attenuare la diffidenza e l’ostilità di una parte del corpo insegnante nei confronti del PISA. Inizialmente l’indagine fu percepita come l’avvio di un’operazione voluta da un’istituzione, l’OCSE, ligia agli interessi delle forze neoliberali, sostenitrice dell’economia di mercato, per  squalificare la scuola pubblica e prepararne la privatizzazione. Il lavoro del sindacato è stato da questo punto di vista esemplare: ha accettato la sfida, è entrato in una logica d’aggiornamento e formazione ed ha infine concorso a spiegare agli aderenti il senso e i limiti dell’indagine, neutralizzando le tentazioni di una lettura settaria e stereotipata del programma.

GLI APPUNTAMENTI DEL 2003 E DEL 2006

Nell'aprile del 2003 campioni di alunni di quindici anni parteciperanno al secondo ciclo del programma PISA che, come abbiamo detto in apertura, verterà principalmente sulla matematica. Il pretest che è servito per mettere a punto gli items è stato condotto nella primavera di quest'anno. Alcune regioni italiane si sono mosse per partecipare al PISA con campioni rappresentativi propri. E' quel che occorre fare nel quadro della ridistribuzione delle competenze tra Stato e regioni, imposta dalle norme costituzionali, nonché dalla decantata legge sull'autonomia.

Questo però non basta.
Sono infatti già in corso i lavori preparatori del terzo ciclo che si terrà nel 2006 e che  verteràsulla cultura scientifica, un tema molto scottante, delicato, sensibile dal punto di vista politico. La battaglia sulla costruzione dei test è già iniziata.

Gli indirizzi generali per la costruzione delle prove saranno fissati tra poco. Non abbiamo proprio nulla da dire in merito?