Il programma
per la valutazione internazionale degli studenti
|
(Programma PISA dell’OCSE)
Norberto Bottani
Direttore SRED, Dipartimento della pubblica istruzione,
Cantone Ginevra (Svizzera)
LE CARATTERISTICHE DEL PISA
Nella
primavera del 2000, 265.000 studenti quindicenni di 32 paesi hanno partecipato
ad un’indagine internazionale, PISA, organizzata dall’Organizzazione di
cooperazione e sviluppo economici sulle competenze in lettura, matematica
e scienze. I risultati di quest’indagine sono stati resi noti nel dicembre
2001, mentre una nuova indagine dello stesso tipo è in cantiere per la
primavera del 2003.
Questo ambizioso programma mira
ad accertare il livello di competenza nella comprensione di testi scritti
e nell’uso di concetti matematici e scientifici alla fine della scuola dell’obbligo.
Nel 2000, l’accento è stato posto prevalentemente sulla lettura; nel 2003
sarà sulla matematica e nel 2006 sulla cultura scientifica. Questo vuol
dire che in due ore e più di test, ogni volta si riserva la maggior parte
delle domande ad uno di questi settori. Le prove mirano ad appurare non
tanto quel che si è imparato a scuola, ma come si utilizzano le conoscenze
e le competenze apprese a scuola per affrontare, nella vita quotidiana,
problemi di natura non scolastica.
L’indagine è
molto più complicata di questa descrizione sommaria, ma questo basta per
dire che il PISA è senza ombra di dubbio l’operazione scientifica più
importante in corso oggigiorno nel settore delle scienze dell’educazione
sul piano internazionale. Essa è stata resa possibile grazie all’accordo
intercorso tra i paesi dell’OCSE che hanno fornito i fondi necessari per
concepire, pianificare, sperimentare, elaborare e condurre una prova su
vasta scala, con l’ambizione di raccogliere dati tra loro comparabili.
Questa realizzazione presuppone la creazione di un’infrastruttura efficiente
per la raccolta e la verifica dei dati nonché di centri di calcolo potenti
per trattarli. Essa soprattutto coinvolge centinaia di esperti e
di ricercatori per la messa a punto dei test e dei questionari e poi per
interpretare i dati e scriverne le analisi. I pedagogisti non costituiscono
il nucleo prevalente degli specialisti coinvolti in questo lavoro, se
al termine “pedagogisti” assegniamo l’accezione
in voga in Italia. Ai lavori partecipano specialisti di varie discipline:
economisti, sociologi, psicologi, specialisti di didattica, di statistica,
di psicometria, di psicologia sociale, di didattica delle discipline.
A scanso di equivoci,
bisogna ribadire che il PISA non è uno sfizio di alcuni comparativisti
ma un progetto di ricerca internazionale, comparabile soltanto, per l’ampiezza
dei mezzi e per l’ambizione che lo guida, per esempio ai grandi
progetti di ricerca internazionale organizzati nel settore dell’epidemiologia,
della sanità, della farmaceutica, della biogenetica.La caratteristica
principale del PISA, che lo contraddistingue rispetto ad altre operazioni
intraprese negli anni precedenti in questo campo, é il finanziamento
pubblico: il PISA è stato voluto e deciso dai ministeri della pubblica
istruzione (uso questa denominazione per convenienza, pur sapendo che
le etichette cambiano da un paese all’altro), è finanziato esclusivamente
con mezzi pubblici ed è condotto da un gruppo i cui membri sono stati
designati dai ministeri. Mai, in precedenza, i ministeri della pubblica
istruzione avevano ipotizzato ed accettato di cooperare tra loro nel campo
della ricerca pedagogica, poiché tutti ritenevano che i i sistemi scolastici
nazionali fossero per natura unici e quindi incomparabili tra loro.
I PRECEDENTI INTERNAZIONALI
Il
progetto INES
Il PISA è un
prodotto del progetto dell’OCSE sugli indicatori internazionali dell’istruzione,
di cui si celebra quest’anno il decennale. Nell’autunno del 1992, l’OCSE
pubblicò il primo insieme d’indicatori internazionali dell’istruzione.
La produzione di questo documento fu ostacolata in tutti i modi dai pedagogisti
ma conobbe subito un grandissimo successo e divenne un best seller
della pubblicistica internazionale sulla scuola. Per la prima volta fu
possibile comparare alcune variabili chiave della scuola nei vari Paesi
misurate con criteri comuni. Questo colpo di mano ( è proprio il
caso di utilizzare questa espressione, talmente forte era la coalizione
degli interessi che voleva impedire una realizzazione del genere) sfatò
il mito della superiorità della scuola di ogni Paese rispetto a quella
degli altri e vanificò qualsiasi sentimento di disprezzo e diffidenza
nei confronti delle scuole degli altri. Quella pubblicazione decretò la
fine dell’isolazionismo scolastico. Questo era appunto il risultato che
molti ministeri volevano evitare a tutti i costi per impedire di essere
tacciati, presto o tardi, d’incompetenza, di inefficienza o superficialità
da chi conosce questi dati. Non è quindi un caso se in taluni Paesi, dopo
la pubblicazione di queste informazioni, si faccia di tutto per
ignorarli.
Quando nel 1992
fu prodotto il primo insieme d’indicatori internazionali del celebre progetto
INES dell’OCSE, fu immediatamente denunciata l’assenza d’indicatori sui
risultati, in particolare sulle conoscenze e competenze che si insegnano
e che si dovrebbero imparare a scuola, a norma di programmi. Gli indicatori
davano informazioni sul numero dei diplomati, dei laureati, degli occupati
o dei disoccupati in funzione dei titoli di studio, ma non comprendevano
nessun riferimento a quel che gli studenti imparavano. Sul piano internazionale
non esistevano cioè fonti d’informazione in grado di fornire con regolarità
dati attendibili sugli output della scuola. Si sapeva che le intenzioni
non corrispondevano alle realizzazioni, che il curricolo ufficiale non
era che una pallida copia non solo del curricolo realmente realizzato
ma anche e soprattutto di quello appreso, ma non esistevano modalità d’accertamento
sistematiche di questi iatus.
Le indagini
dell’ IEA
Dagli inizi degli
anni Sessanta, l’IEA, l’associazione internazionale per la valutazione
dei risultati scolastici (International Association for the Evaluation
of Educational Achievement) costituita da una rete di ricercatori che
si occupavano del rendimento dei sistemi scolastici, aveva messo in evidenza
questo problema e tentava di identificare il sistema scolastico che garantisse
un innalzamento dei livelli d’istruzione di tutti gli studenti e una minore
disparitàdei risultati tra scuole e tra ceti sociali.
L’IEA riuscì a realizzare notevolissime indagini internazionali a tappeto
: per esempio, la prima indagine sulle conoscenze in matematica del 1964
coinvolse 130.000 studenti di tredici anni ripartiti in 5.000 scuole di
12 paesi. Purtroppo, i risultati di questi lavori restavano confidenziali e circolavano solo in un cerchia ristretta
di persone. I responsabili politici, i docenti, l’opinione pubblica ne
ignoravano completamente gli esiti. Occorre anche dire che i ricercatori
avanzavano con grande cautela in un campo minato, del tutto nuovo per
la ricerca scientifica, e che mancavano le attrezzature tecniche necessarie
per trattare in modo rapido la massa di dati raccolta. Ci volevano anni
prima di giungere alla pubblicazione dei risultati. Le indagini dell’IEA
rimasero quindi un prodotto per addetti ai lavori, ma permisero anche
di mettere a punto metodi d’indagine e tecniche statistiche di trattamento
dei dati che divennero d'uso corrente solo più tardi.
Le indagini
dell’IAEP
Alla fine degli
anni Ottanta, quando ormai ovunque nel mondo si parlava di crisi della
qualità dell’istruzione, le difficoltà dell’IEA a produrre
in modo tempestivo informazioni sugli apprendimenti scolastici indussero
il governo americano, che non riusciva a controllare l’IEA, a promuovere
un programma concorrenziale in grado di comparare senza ritardi il livello
d’istruzione degli studenti americani con quello di altri paesi.
Con un forte
finanziamento americano, l’ETS (Educational Testing Service) di Princeton,
un’agenzia senza fini di lucro specializzata nella fabbricazione di test,
realizzò nel 1989 e nel 1991 due indagini internazionali sulle competenze
degli studenti, l’IAEP (International Assessment of Educational Progress),
allo scopo di dimostrare che era possibile condurre valutazioni comparate
con tecniche meno pesanti di quelle adottate dall’IEA, ma ugualmente rispettose
dei criteri riconosciuti scientificamente validi a livello internazionale.
La regione Emilia-Romagna
partecipò a quell’indagine e chi voglia ora avere un’idea del livello
al quale si collocavano dieci anni fa gli studenti di questa regione
italiana rispetto a quelli di altri Paesi può consultare quei risultati.
L’esperienza
dell’IAEP non fu però totalmente convincente soprattutto perché molti
items dei test provenivano da prove strutturate americane e non erano
stati convalidati in altri paesi e in altre culture scolastiche.
Agli inizi degli anni Novanta, né l’IEA né l’ETS erano dunque in grado
di fornire con tempestività dati sicuri e tra loro comparabili sul profitto
degli studenti. Questi due organismi non possedevano l’infrastruttura
e l’organizzazione necessarie per gestire operazioni di questo tipo, ma
il problema non era tanto di ordine tecnico quanto di natura pedagogica:
mancava infatti un forte consenso su quanto si dovesse misurare
e sulle conseguenze, a media e lunga scadenza, di simili valutazioni sui
docenti, sui programmi d’insegnamento, sulle politiche scolastiche. Queste
erano incognite serie a cui nessuno sapeva rispondere e alle quali non
si sa per altro dare una risposta nemmeno ora.
IL
FRANGENTE IN CUI È NATO IL PISA
Il PISA è nato
nel frangente sopra descritto, caratterizzato da :
- malumore e
insoddisfazione nei confronti delle indagini dell’IEA e dell’IAEP
- timore di
non valutare gli obiettivi delle scuole
- inquietudine rispetto alle conseguenze imprevedibili
di queste indagini
- rischi connessi alla focalizzazione sui saperi scolastici
e non sulle competenze fondamentali per inserirsi nella vita attiva
oppure per riuscire tout court nella vita (queste erano le espressioni
in voga)
- difficoltà di conciliare rigore scientifico e rapidità
dell’informazione
- forti esigenze d’informazione dell’opinione pubblica
sui risultati delle scuoleGli anni Novanta sono stati fertilissimi di
dibattiti, ricerche, sperimentazioni (non all’italiana, va da sé) in
questo campo.
Gli Stati Uniti non rinunciarono al loro progetto
egemonico e si pagarono l’IEA, con un finanziamento straordinario dell’indagine
sulle conoscenze in matematica e nelle scienze di tre gruppi d’età diversi
(9 anni [terzo e
quarto anno di scolarità],
13 anni [settimo
e ottavo anno di scolarità], e ultimo anno delle superiori),
allo scopo di dimostrare che nell’anno 2000 gli studenti americani sarebbero
stati i migliori al mondo in matematica.
Il progetto TIMSS
(Third International Mathematics and Science Study) al quale parteciparono
42 paesi confermò il persistente ritardo degli studenti americani, ma
suscitò una serie di indagini satelliti stupende per cercare di capire
le ragioni di questo ritardo (per esempio la ricerca sui manuali e sui
programmi di matematica dell’Università del Michigan) oppure la ricerca
video sull’insegnamento della matematica in classe ( per una analisi dei
risultati italiani si veda l’articolo di Angela Martini nel numero speciale
degli Annali dell’istruzione pubblicato in occasione degli stati generali
dell’istruzione nel dicembre 2001).Il programma PISA deciso e finanziato
dai governi degli stati membri dell’ OCSE fu concepito per dare una base
solida e almeno in parte neutra a queste valutazioni.
A metà degli anni Novanta, grazie all’IEA e all’IAEP, il terreno era ormai
pronto per compiere questo passo e per attingere con regolarità ad una
fonte di dati sulle competenze degli studenti. Nel corso dei lavori
preparatori i vari gruppi d’esperti s’imbatterono beninteso negli analoghi
problemi e nelle stesse difficoltà incontrati dagli specialisti di psicometria
alla testa dell'IEA. La decisione di puntare non più su un’indagine imperniata
sulla verifica degli apprendimenti scolastici ma sulla misura della “literacy”,
ovverosia sui livelli di competenza nell’uso degli strumenti essenziali
della cultura alfa-numerica e scientifica, fu salvifica poiché ha permesso
d'inoltrarsi su nuovi binari, andando però incontro ad un nuovo
tipo di problemi mentre se ne evitavano degli altri.
LE
PRIME INDICAZIONI CHE EMERGONO dal PISA
I risultati prodotti
dal PISA sono talmente abbondanti che ogni Paese dovrebbe fare la sua
propria analisi, in funzione del contesto politico-amministrativo che
costituisce l’humus particolare del suo sistema scolastico. Qui
ci limitiamo a mettere in evidenza alcune osservazioni o constatazioni
che si possono formulare ad una lettura trasversale dei dati, attenta
a reperire quei fenomeni comuni che a prima vista si scorgono nei
risultati di tutti i Paesi. Prima di giungere a conclusioni definitive,
occorrerà però verificare, con analisi dettagliate - per ora non ancora
messe in cantiere- la validità e la solidità delle constatazioni rilevate,
tra cui:
Una media
elevata dei punteggi di un Paese può coesistere con
una debole disparità dei risultati. Questo
vuol dire che si possono conseguire risultati buoni o eccellenti con tutti,
e non solo con i migliori studenti. In altri termini, la selezione
non è la sola via per conseguire risultati eccellenti ed inversamente,
la non selezione non penalizza l’eccellenza. E’ la prima volta che si
riesce a dimostrare la validità di questa asserzione. Se ciò fosse vero,
se cioè si riuscirà a comprovare con altre verifiche, altri dati in altri
contesti, la giustezza di questa osservazione, allora si dovranno modificare
tutte le politiche scolastiche e i metodi di valutazioni che pretendono
di selezionare i migliori studenti e di scartare quelli deboli. Per altro,
il calcolo delle variazioni dei risultati in funzione del gradiente socio-economico
mostra che a gradiente socio-economico uguale i risultati variano da un
paese all’altro e da una scuola all’altra, smentendo dunque quella che
era ritenuta una legge ferrea del rendimento scolastico, ossia la stretta
correlazione tra risultati scolastici eccellenti, selezione scolastica
e categoria socio-economica. Il PISA fornisce dati strabilianti in merito
che obbligano a riesaminare le teorie sociologiche sulla disuguaglianza
scolastica.
Nei Paesi
con i risultati migliori, le politiche scolastiche e le scuole presentano
le seguenti caratteristiche:
- valorizzazione
sociale e politica dell’eccellenza scolastica
- consenso nell’esigere
dagli studenti risultati scolastici elevati
- accordo sull’importanza
di un clima sereno e positivo all’interno delle scuole
- presenza di
rapporti calorosi e di rispetto reciproco tra insegnanti e studenti;
gli studenti hanno l’impressione d’essere capiti, aiutati e stimolati
dai loro docenti;
- integrazione
della valutazione degli studenti nella politica della scuola e nell’insegnamento
: i risultati della valutazione sono utilizzati dalle scuole per
impostare un insegnamento su misura, adattato ai punti forti e deboli
di ogni studente
- alto grado
d’autonomia delle scuole (questa conclusione è però contestata perché
dedotta da informazioni poco attendibili raccolte presso i presidi con
il questionario sulle scuole)
All’interno
di uno stesso Paese coesistono grandi divari tra le scuole.
Quest’informazione, che conferma osservazioni analoghe fatte in altre
indagini internazionali dello stesso tipo, è preoccupante perché dimostra
l’incapacità dei sistemi scolastici di fornire un’istruzione equivalente
su tutto il territorio di propria competenza. Meritevole d’attenzione
è poi il fatto che le variazioni tra Paesi sono meno forti di quelle constatate
all’interno dei singoli Paesi. Questo significa, per esempio, che è più
grave il divario che esiste tra le scuole esistenti in Italia che non
tra la media dei risultati degli studenti italiani e quella degli studenti
degli altri Paesi.
LE
RISPOSTE CHE PISA NON FORNISCE
Per completare
il quadro, bisogna anche ribadire che il PISA non fornisce risposte a
tutta una serie di domande di natura politica sullo statuto, l’organizzazione,
le finalità della scuola.
Per esempio, non si possono usare i dati del PISA per trattare i
temi seguenti :
- il confronto
fra scuola privata e quella statale;
- il confronto
fra sistemi scolastici centralizzati e sistemi decentralizzati;
- le relazioni
tra spese correnti e profitto scolastico (è vero per esempio che chi
più spende ottiene risultati migliori?);
- la relazione
tra numero di studenti per classe e profitto scolastico;
- l’influsso
dell’educazione prescolastica sui risultati ai test a quindici anni;
- le relazioni
tra livello di competenze e di preparazione dei docenti e risultati
nei test;
- le relazioni
tra lo statuto sociale dei docenti (misurato per esempio in base allo
stipendio) e risultati degli alunni;
- le relazioni
tra l’aggiornamento professionale dei docenti e i risultati;
- le relazioni
tra risultati nei test e l’orientamento precoce degli studenti: con
i dati raccolti non si può sostenere che i sistemi che ritardano l’orientamento
e la selezione degli studenti per indirizzi di studio diversi o tipi
di formazione con esigenze diverse siano migliori di quelli che invece
prevedono una selezione precoce e orientano gli studenti verso indirizzi
di studio diversi a partire dalla fine della scuola elementare;
- la relazione
tra risultati nei test e organizzazione interna di una scuola : certe
scuole prevedono classi per livelli di competenza omogenea; altre invece
funzionano con classi a livelli eterogenei.Il PISA non fornisce elementi
per dirimere questa questione.
Questa non è
che una lista molto limitata di questioni centrali per le politiche scolastiche
alle quali il PISA non fornisce nessuna risposta. Bisogna anche dire che
il PISA non è stato concepito per questo scopo, ma solo per raccogliere
dati su quel che gli studenti sanno o non sanno alla fine della scuola
d’obbligo. Questo obiettivo di per sé è già molto complicato da conseguire.
Non si può pretendere
dal PISA quel che non può dare. E’ comprensibile che i fautori
del PISA siano tentati di valorizzare al massimo l’indagine e di
sfruttarne i dati per dimostrarne le potenzialità, ma da un punto di vista
scientifico si corre il rischio di commettere gravi errori quando dai
dati raccolti per un certo scopo si estrapolano conclusioni che riguardano
problemi di tutt’altra natura.
Come è stato utilizzato il PISA
IN ITALIA E IN ALTRI PAESI
La pubblicazione
dei risultati del PISA all’inizio di dicembre del 2001 ha suscitato un
grande interesse nei ministeri della pubblica istruzione e nella stampa.
In molti Paesi, i ministri dell’istruzione hanno tenuto delle conferenze
stampa per commentare i risultati nazionali. A questa prima reazione a
caldo è seguita nei mesi successivi tutta una serie di analisi dettagliate
pubblicate sotto forma di rapporti nazionali o di studi particolareggiati
sulle varie componenti dell’indagine.
·
Il caso Italia
In Italia non è successo nulla di tutto ciò: ad un anno di distanza
dalla pubblicazione dei risultati del PISA non è stato pubblicato nessun
rapporto sui risultati italiani.
In Svizzera, Germania, Inghilterra, Francia, Stati Uniti si moltiplicano
i seminari e i colloqui sui risultati del PISA. In Italia è stata
una fondazione privata, la Treellle, ad organizzare la sola giornata sul
PISA, peraltro non una giornata di studio ma un happening promozionale.
La
responsabilità della partecipazione italiana al PISA era stata affidata
al Servizio nazionale di valutazione dell’istruzione, ora INVALSI, diretto
dal Prof. Benedetto Vertecchi. La direzione del PISA in Italia era stata
assunta dalla Prof.ssa Emma Nardi. Al momento della ricezione dei risultati,
nel giugno del 2001, in Italia è cambiata la maggioranza politica : da
un governo di centro sinistra si è passati ad uno di centro destra, con
un nuovo ministro, Letizia Moratti, che scopre nel corso dell’estate i
risultati italiani, mentre “dimissiona” il prof. Vertecchi dalla
direzione del centro di Frascati.
Mancanza di coordinamento,
comunicazione insufficiente, conflitti d’interesse, pregiudizi e
prevenzioni di ogni genere, sia a destra che a sinistra, hanno ostacolato
lo sfruttamento del PISA .
Per l’ennesima volta, non è la prima volta che capita in Italia,
la connessione tra ricerca e politica viene meno, proprio nel momento
in cui si sarebbero dovuti interpretare i risultati, sfruttarli al meglio,
suscitare un dibattito nazionale, allarmare l’opinione pubblica, lavorare
con le associazioni dei docenti per capire la mediocrità della prestazione
degli studenti italiani.
I dirigenti della
scuola italiana manifestamente non erano stati avvertiti del cambiamento
di rotta rappresentato dall’indagine PISA. Prevale l’impressione che l’amministrazione
centrale abbia lasciato le mani libere al servizio di valutazione,
come si era fatto in precedenza con tutte le indagini IEA alla quale l’Italia
aveva partecipato.
·
I casi di Germania, Svizzera, Canada e Spagna
Orbene, con il PISA le indagini internazionali sul rendimento delle scuole
non sono più un appannaggio esclusivo dei ricercatori ma sono operazioni
di natura politica che mirano ad informare i responsabili della scuola
sullo stato dell’istruzione del Paese.
Il PISA esige
dunque una strategia di pilotaggio del tutto diversa da quella che
era in auge all’epoca delle indagini IEA.
Vorremmo qui soffermarci su quattro casi diversi che ci consentono di
capire gli effetti del sisma pedagogico-politico che è stato il PISA .
I Paesi avevano dovuto decidere se partecipare al PISA o meno nel 1998,
quando era stato loro richiesto di sottoscrivere l’impegno finanziario
derivante dall’organizzazione dell’indagine. In molti Paesi questa è stata
l’occasione per cogliere due piccioni con una fava: in primo luogo, sfruttare
l’ operazione scientifica per acquisire o sviluppare il “know how” psicometrico
necessario per svolgere indagini su vasta scala sul rendimento degli studenti;
in secondo luogo, andare oltre le esigenze imposte dal programma minimo
internazionale, estendere il piano di raccolta di dati e beneficiare dell’infrastruttura
internazionale del programma per trattarli.
Queste decisioni dovettero essere prese nel 1997-98, prima che si pianificassero
tutte le fasi dell’indagine. Mancano le informazioni su quanto è successo
a Roma: non si sa cioè se tra l’ex-CEDE e il ministero (il ministro
d’allora era Luigi Berlinguer) ci siano state discussioni sulle modalità
della partecipazione italiana.
L’Italia
per finire ha comperato solo il pacchetto di base del PISA, mentre invece
la Germania, la Svizzera, il Canada hanno preso un’opzione più ambiziosa
e quindi necessariamente più costosa. La Germania chiese di testare non
solo un campionamento rappresentativo dei quindicenni del Paese, ma anche
un campionamento per ognuno dei sedici Länder. Va notato che mai in Germania
si era prima d’allora proceduto ad uno studio comparato di quest’ampiezza
tra i sedici Länder, inclusi quindi anche quelli che appartenevano al
territorio dell’ex Germania dell’est.
Stessa cosa,
in Svizzera : qui il dibattito fu più virulento, perché i cantoni tedeschi
rifiutarono la raccolta di dati rappresentativi per Cantoni. Non fu il
caso invece nella Svizzera francese dove i ministri della scuola dei sette
cantoni romandi decisero di finanziare l’estensione del campionamento
per avere un campione rappresentativo per ogni cantone. La stessa scelta
fu fatta dal cantone elvetico di lingua italiana, il Ticino, e da tre
cantoni tedeschi : Zurigo, Berna e San Gallo. Gli Svizzeri si complicarono
poi l’esistenza perché furono i soli, con i Giapponesi, a sdoppiare il
campionamento, ossia a testare non solo i quindicenni, indipendentemente
dalle classi frequentate (ci sono quindicenni in prima e seconda media,
in prima liceo oppure nelle prime degli istituti tecnici), ma anche tutta
la popolazione che frequentava l’ultimo anno della scuola dell’obbligo,
indipendentemente dall’età. Il caso elvetico dimostra che il PISA non
è un programma a scatola chiusa, da prendere o lasciare in toto,
ma un programma flessibile, che permette ai Paesi d’impostare una partecipazione,
in un certo senso, su misura, una volta rispettate le condizioni minime
richieste dal programma a tutti i partecipanti. Dopo tutto, il programma
è finanziato dai Paesi: senza i soldi dei governi, il PISA non si sarebbe
potuto fare.
Il caso del Canada
è analogo a quello della Germania, con un campionamento nazionale, che
corrisponde ai criteri minimi di partecipazione al PISA, e con campionamenti
per ognuna delle province. In questo modo i Canadesi possono per la prima
volta verificare le perfomances delle scuole delle varie province,
ed in particolare comparare i risultati del Quebec francofono con
quelli delle province anglofone.
In Spagna, il
servizio nazionale per la valutazione della qualità della scuola non è
stato invece autorizzato a raccogliere dati comparabili per ognuna delle
comunità autonome (o a pubblicarli: le nostre informazioni sono imprecise
su questo punto). Questa è stata una decisione politica imposta ai ricercatori;
tuttavia, altra decisione politica, la Catalogna fu autorizzata a partecipare
al PISA per cui ora, alla resa dei risultati, i catalani possono comparare
le prestazioni del proprio sistema scolastico con quelli del resto della
Spagna. Nel 2003, il Paese basco seguirà l’esempio della Catalogna
e raccoglierà dati sulla propria popolazione scolastica di quindicenni.
·
Un nuovo approccio in Italia? Il possibile coinvolgimento
delle regioni
In Italia sembra che l’approccio al PISA stia cambiando: secondo notizie
di quest’estate, le regioni sono state informate della possibilità di
raccogliere dati rappresentativi per ogni regione.
Sappiamo che il Piemonte si è già mosso in questa direzione e che la Lombardia
probabilmente si aggregherà al Piemonte.
Si compirebbe
un passo avanti rilevante se si giungesse a coinvolgere più regioni in
occasione del prossimo round di PISA, ancorché le infrastrutture universitarie
e scientifiche per sfruttare l’operazione non siano in Italia ideali,
ma sarebbe proprio auspicabile costruire entro il 2006 una collaborazione
regione-INVALSI in grado di trattare e analizzare i dati nazionali ripartiti
per regioni, come lo si è fatto in Germania con i 16 Länder.
·
L’effetto in Germania della scomposizione per Länder
dei dati PISA
Il 26 giugno di quest’anno, sei mesi dopo la presentazione dei risultati
del PISA a livello internazionale, sono stati pubblicati in Germania,
in una conferenza stampa apposita, i risultati dettagliati del PISA
per ognuno dei Länder: lo stupore è stato ancora più grande della sorpresa
provocata dai dati internazionali che piazzavano la Germania al ventunesimo
rango in lettura e al ventesimo in matematica. Questi dati hanno aperto,
in piena campagna elettorale, uno scontro durissimo tra maggioranza e
opposizione, sui mali della scuola tedesca. Scontro per nulla previsto
dalla maggioranza di centro sinistra. Il sud cattolico,
con Länder a maggioranza conservatrice, declassa il nord protestante dominato
da maggioranze socialdemocratiche, dove si sono sperimentate tutte le
innovazioni scolastiche da più di un trentennio, mentre le scuole del
sud sono rimaste piuttosto restie alle novità. Campione in tutte le categorie,
la Baviera, che batte la Svizzera e rivalizza con la Svezia, ma è battuta
dalla Finlandia, dall’Australia, dalla Gran Bretagna e dal Giappone. Alla
sua altezza si situa il Bade-Wurtemberg e la Saxe (il migliore Land dei
territori dell’est). Questi tre stati sono guidati da tempo da maggioranze
conservatrici (democristiane). In coda ai Länder tedeschi, arriva la città
anseatica di Brema e il Brandeburgo (altro stato dell’est) che non fanno
meglio del Messico. Brema, che passa per un centro d’avanguardia in educazione,
è un bastione della sinistra progressista tedesca. A detta di tutti è
a Brema che l’educazione progressiva è stata applicata con maggiore impegno
in Germania.
I risultati del
PISA, a prima vista, sembrano essere una smentita tremenda della bontà
delle innovazioni pedagogiche dell’ultimo ventennio. Va anche però
detto che queste sono battaglie di campanile, perché in generale i risultati
di tutti i Länder sono mediocri, come ricorda giustamente il Zeit, un
quotidiano di indirizzo liberale. Questa polemica sulla scuola è comunque
una prova dell’interesse di queste indagini, che hanno un senso solo se
generano ricerche e verifiche dettagliate di quanto si constata, cosa
che implica la presenza di centri di ricerca attrezzati e di laboratori
universitari competitivi.
Infatti, di fronte
a questi risultati occorre chiedersi:
- cosa ha in
realtà misurato il PISA ?
- Qual è il
quadro riferimento del PISA?
- E' lo stesso
di quello delle scuole progressive?
La risposta a
queste domande è cruciale per evitare interpretazioni mistificanti
e pericolose per il futuro della scuola.
Il PISA e gli insegnanti
Il programma
internazionale di ricerca sulle competenze e gli apprendimenti acquisiti
alla fine della scuola dell’obbligo è un’operazione di vertice, che riguarda
essenzialmente i ministri, gli altri funzionari della scuola e pochi centri
privilegiati di ricerca.
La base della
scuola è assente dal dibattito, come pure dall’elaborazione delle prove.
Presidi e insegnanti non sono nient’altro che esecutori invitati a collaborare
alla realizzazione dell’indagine. In certi Paesi, presidi e docenti marciano
al passo, non si pongono troppe domande ed eseguono coscienziosamente
le istruzioni che arrivano dall’alto. In questo caso non c’è bisogno di
spiegare il PISA e di chiedere a presidi e insegnanti di collaborare all’indagine.
In altri Paesi
invece, dove vige una tradizione pedagogica imperniata sulla professionalità
dei docenti oppure dove si pratica su larga scala una pedagogia progressiva
nella quale si contesta la validità e l’utilità delle valutazioni
imposte dall’esterno che non rispettano i ritmi di crescita degli studenti,
la realizzazione del PISA nelle scuole ha incontrato opposizioni
e resistenze di ogni genere. In taluni casi, la somministrazione dei test
è stata anche boicottata. Da qui la necessità di spiegare a fondo il programma
d’indagine per convincere la base della sua utilità e ottenere quindi
le condizioni migliori d’attuazione delle prove.
Poiché il PISA
è un’indagine campionaria, il numero di insegnanti e di scuole che vi
partecipano non è che una piccola frazione del totale, ma questo non è
un argomento accettabile per rinunciare a spiegare agli insegnanti e alle
loro organizzazioni l’indagine, i suoi scopi, l’uso che se ne può fare,
tanto più che le conclusioni si applicano a tutta la scuola e producono
apprezzamenti estesi all'intero sistema scolastico.
Tre fattori militano a favore di un forte coinvolgimento dei docenti :
- l’utilità
pedagogico-didattica delle prove;
- la produzione
di analisi convincenti e d’interpretazioni corrette dei risultati;
- le condizioni
d’esecuzione dell’indagine.
L’ultimo punto
è ovvio: senza il consenso e il sostegno delle scuole, le prove non potrebbero
svolgersi in buone condizioni, gli studenti non sarebbero motivati a parteciparvi
e i risultati ne risentirebbero. Quindi, almeno per una semplice ragione
pratica è indispensabile spiegare agli insegnanti le ragioni e le finalità
delle prove.
Il secondo punto
è nell’interesse delle autorità scolastiche che devono spiegare all’opinione
pubblica o ai parlamenti i risultati. Sono molteplici i parametri che
influenzano le risposte degli studenti ai test e, di conseguenza, la media
dei risultati e la disparità fra i risultati
: per esempio, la composizione delle classi, il grado di selezione, il
numero di ore d’insegnamento, le qualifiche dei docenti, la loro esperienza
professionale, l’organizzazione delle scuole, e via dicendo. L’identificazione
delle cause probabili che spiegano per esempio l’alta percentuale di studenti
con un basso livello di competenza in lettura oppure la verifica delle
probabili correlazioni esistenti tra un fattore o l’altro esigono l’intervento
di specialisti che conoscono benissimo il terreno, ossia la scuola dall’interno.
Questo lavoro non può essere fatto dagli esperti internazionali che spesso
prendono cantonate solenni, vuoi per presunzione vuoi per mancanza di
prudenza nella lettura dei dati. Spesso non può nemmeno essere fatto dai
centri nazionali che pilotano l’indagine in un Paese.
Per capire per
esempio la percentuale elevata di assenteismo constatata a Ginevra, che
è un minuscolo stato dove tutti pensano di conoscere tutto di tutti, si
sono dovuti interrogare i presidi delle scuole nelle quali si sono svolte
le prove. Certi misteri nei risultati --per esempio la percentuale elevata
di errori negli items semplici e invece la buona percentuale di
risposte esatte negli items difficili -- non si possono capire senza la
collaborazione dei docenti.
Infine, il primo
punto: il PISA può rappresentare uno strumento straordinario d’aggiornamento
degli insegnanti. Gli items delle prove standardizzate provengono da tutte
le parti del mondo, sono stati pensati ed elaborati da specialisti all’avanguardia
nella ricerca, riproducono elaborazioni concettuali raffinate e per finire
sono stati convalidati statisticamente nei pre-test. Essi sono però anche
il frutto di compromessi aspramente combattuti e possono rappresentare
scelte poco innovative o coraggiose. Gli insegnanti potrebbero ispirarsi
a queste prove per rinnovare l’insegnamento, per riflettere sul proprio
lavoro, ma anche per esaminare criticamente i test, discuterli, contestarne
la pertinenza, segnalare ai ricercatori i rischi di devianze nascosti
nelle formulazioni, che i costruttori delle prove non possono vedere ma
che invece gli insegnanti riescono a reperire perché sono vicini
agli studenti che passano le prove.
Purtroppo, si
sa ben poco di quel che i Paesi hanno fatto per spiegare il PISA
ai docenti.
L’OCSE si è limitata ad organizzare quest’anno in maggio un incontro con
i sindacati dei docenti che a detta di un partecipante anglosassone
da noi interpellato è stato piuttosto banale. Non siamo riusciti a sapere
se c’è stata una presenza italiana.
A detta di molti, il lavoro con la base è il punto debole del PISA. In
Inghilterra , le TU ( ossia i sindacati dei docenti britannici) sono stati
invitati ad un incontro con il ministero per discutere i risultati del
PISA, ma la riunione è stata un flop.
E’ andata un po’ meglio nella Svizzera Romanda dove il massimo sindacato
dei docenti, il SER, è stato subito informato della decisione di costruire
un campione per ogni cantone ed ha ricevuto tutta la documentazione sull’indagine.
I contatti tra il servizio di ricerca ed il sindacato non sono mai stati
interrotti nel corso della preparazione, dello svolgimento e della presentazione
dei risultati. Il sindacato ha così organizzato per proprio conto un seminario
interno di formazione sul PISA prima della pubblicazione dei risultati.
Quando questi sono stati disponibili, il sindacato è stato invitato a
commentarli ed ha potuto presentare il proprio punto di vista nel corso
della conferenza stampa organizzata dai sette ministri cantonali dell’istruzione.
La “carta sulla trasparenza” ha permesso di attenuare la diffidenza e
l’ostilità di una parte del corpo insegnante nei confronti del PISA. Inizialmente
l’indagine fu percepita come l’avvio di un’operazione voluta da un’istituzione,
l’OCSE, ligia agli interessi delle forze neoliberali, sostenitrice dell’economia
di mercato, per squalificare la scuola pubblica e prepararne la
privatizzazione. Il lavoro del sindacato è stato da questo punto di vista
esemplare: ha accettato la sfida, è entrato in una logica d’aggiornamento
e formazione ed ha infine concorso a spiegare agli aderenti il senso e
i limiti dell’indagine, neutralizzando le tentazioni di una lettura settaria
e stereotipata del programma.
GLI
APPUNTAMENTI DEL 2003 E DEL 2006
Nell'aprile del
2003 campioni di alunni di quindici anni parteciperanno al secondo ciclo
del programma PISA che, come abbiamo detto in apertura, verterà principalmente
sulla matematica. Il pretest che è servito per mettere a punto gli items
è stato condotto nella primavera di quest'anno. Alcune regioni italiane
si sono mosse per partecipare al PISA con campioni rappresentativi propri.
E' quel che occorre fare nel quadro della ridistribuzione delle competenze
tra Stato e regioni, imposta dalle norme costituzionali, nonché dalla
decantata legge sull'autonomia.
Questo però non
basta.
Sono infatti
già in corso i lavori preparatori del terzo ciclo che si terrà nel 2006
e che verteràsulla cultura scientifica, un tema molto
scottante, delicato, sensibile dal punto di vista politico. La battaglia
sulla costruzione dei test è già iniziata.
Gli indirizzi
generali per la costruzione delle prove saranno fissati tra poco. Non
abbiamo proprio nulla da dire in merito?
|