FLC CGIL
Contratto Istruzione e ricerca, filo diretto

https://www.flcgil.it/@3843419
Home » Rassegna stampa » Rassegna stampa nazionale » ScuolaOggi: Riflessione a bocce ferme

ScuolaOggi: Riflessione a bocce ferme

Claudio Cereda

11/12/2007
Decrease text size Increase text size
ScuolaOggi

Ho passato qualche giorno a leggere via Internet articoli di quotidiani e a cercare qualche comunicato ministeriale o delle Direzioni Regionali. Dopo le lettura dei dati (documento di analisi presentato a Roma e nelle altre capitali), del quadro di riferimento del progetto e di un po’ di esempi di prove delle diverse edizioni, di aver fatto bene a non associarmi al coro degli strepiti e ai dibattiti sulla classifica dell’Italia in stile “bar sport”, anche perché in simultanea si è avuta la notizia che sulle “competenze di lettura a 9 anni di età” l’Italia va alla grande (ma ciò ha avuto scarso peso sulla stampa).

Dice il Ministro Fioroni, con un tono che richiama un po’ gli interventi di Gino Bartali alle trasmissioni del “dopo giro d’Italia”, è tutto sbagliato è tutto da rifare (qualcosa in passato non ha funzionato, si acuiscono le difficoltà alle medie inferiori e superiori, sistemiamo la questione dei debiti perché tutto si origina da lì).

Scrive il Direttore Generale per la Lombardia: dobbiamo studiare e analizzare bene i dati che ci riguardano, noi ci siamo comunque impegnati per migliorare il campione a livello statistico.

Partiamo proprio da qui:

1) il progetto PISA 2006 non segna significativi cambiamenti rispetto al 2003 e al 2000 (sugli anni precedenti non abbiamo dati analoghi o comparabili) e dunque si tratta di fare una riflessione sullo stato del sistema di istruzione con un atteggiamento meno contingente, più strutturale e più epocale. Perché l’Italia appare in ritardo rispetto al mondo industrializzato e in grave ritardo rispetto ai paesi emergenti?

2) l’indagine riguarda i quindicenni cioè gli alunni di prima superiore in regola con gli studi e dunque è difficile trovare nei suoi esiti elementi significativi sullo stato delle superiori, mentre se ne trovano certamente sulla media inferiore (soprattutto se tali dati vengono confrontati con quelli della contemporanea indagine PIRLS-IEA relativa alle capacità di lettura a 9 anni dai quali esce la conferma di una scuola elementare italiana che funziona e funziona bene.

3) La questione della validità del campione statistico, di cui i giornali non hanno parlato, meriterebbe più attenzione perché si tratta di una indagine campionaria e non della elaborazione statistica di dati riguardanti l’intera popolazione. La prima cosa che mi ha fatto saltare sulla sedia è stata la lettura del campione utilizzato. L’Italia ha partecipato con 806 scuole divise in 4 macro aree geografiche rappresentative di Licei, IT, IP, scuole medie (quindicenni ancora alla media inferiore), formazione professionale).

Ci si aspetterebbe, ragionando di rappresentatività, un campione equamente distribuito e invece le scuole partecipanti sono distribuite così: province di Trento e Bolzano 144 scuole (!), Veneto 54, Lombardia 54, Friuli 61 (!), Centro (Toscana, Lazio, Umbria e Marche) 27(!), Basilicata (57! tre più della Lombardia), Campania 53 (quattro meno della Basilicata).

Non serve andare oltre per capire che possiamo desumere indicazioni nazionali solo con grande cautela. In un precedente articolo per ScuolaOggi avevo osservato che bisognerebbe piantarla, sui temi della valutazione del Sistema di Istruzione, di declinare la litania della “autovalutazione” (importante ma non sufficiente).

Cosa vuol dire il Direttore Regionale scrivendo che “La scuola lombarda, avendo colto da subito l'importanza dell'indagine e le sue potenzialità, ha partecipato con un campione aggiuntivo, che ha consentito di ottenere dati statisticamente significativi per delineare un quadro più dettagliato del proprio sistema”? Ci sta dicendo che il campione viene o veniva fatto a colpi di “chi ci sta ci sta”?

COS’E’ OCSE PISA?

Il progetto PISA non valuta le conoscenze nei tre ambiti della lettura, della matematica e delle scienze. Per evitare le difficoltà connesse alle diversità di curricolo tra i diversi paesi va invece ad indagare la comprensione, la decodifica, il saper prendere una decisione a partire da dati forniti; presta particolare attenzione al fatto che a 15 anni si è quasi al termine della formazione obbligatoria. Ciò che si indaga viene indicato come “literacy” e costituisce un pezzo significativo della cosiddetta formazione per competenze. In ciò il Programma per la Valutazione Internazionale degli Studenti (PISA) differisce dalle precedenti indagini internazionali. Le tre definizioni da tener presente sono:

- Literacy scientifica: l’insieme delle conoscenze scientifiche di un individuo e l’uso di tali conoscenze per identificare domande scientifiche, per acquisire nuove conoscenze, per spiegare fenomeni scientifici e per trarre conclusioni basate sui fatti riguardo a temi di carattere scientifico, la comprensione dei tratti distintivi della scienza intesa come forma di sapere e d’indagine propria degli esseri umani, la consapevolezza di come scienza e tecnologia plasmino il nostro ambiente materiale, intellettuale e culturale e la volontà di confrontarsi con temi che abbiano una valenza di tipo scientifico, nonché con le idee della scienza, da cittadino che riflette.

- Literacy in lettura: la capacità di un individuo di comprendere, di utilizzare e di riflettere su testi scritti al fine di raggiungere i propri obiettivi, di sviluppare le proprie conoscenze e le proprie potenzialità e di svolgere un ruolo attivo nella società.

- Literacy matematica: la capacità di un individuo di identificare e di comprendere il ruolo che la matematica gioca nel mondo reale, di operare valutazioni fondate e di utilizzare la matematica e confrontarsi con essa in modi che rispondono alle esigenze della vita di quell’individuo in quanto cittadino che riflette, che s’impegna e che esercita un ruolo costruttivo.

Le diverse edizioni triennali di PISA riguardano tutti e tre gli ambiti ma ogni volta uno di essi svolge una funzione preponderante. Si è iniziato nel 2000 con la lettura, poi nel 2003 è stata la volta della matematica e del problem solving e infine nel 2006 è stata la volta delle scienze. Dal 2009 si ricomincia. Questa volta i gruppi di quesiti (13) erano suddivisi in 7 di scienze, 2 di lettura e 4 di matematica ed ogni studente ne riceveva 4 in tutto. Un questionario a parte ha consentito di incrociare i dati di “literacy” con il contesto socio-famigliare e con le caratteristiche della istituzione scolastica.

Hanno partecipato i 30 paesi membri dell’OCSE e altri 27 partner (c’è tutto il mondo con l’eccezione dell’Africa e di India e Cina in Asia.

LE CARATTERISTICHE DEGLI ITEM

Con riferimento alla “literacy scientifica” gli item erano correlati più alla “scienza del quotidiano” che non alle “scienze dure” e la stessa cosa si può dire volgendo lo sguardo all’indietro per le prove di matematica o di problem solving (individuare una relazione, saper trarre una conseguenza da una relazione, saper leggere un diagramma). In lettura si punta alla estrazione di informazioni, alla interpretazione del testo e alla sua classificazione funzionale.

Ti viene sottoposto un determinato contesto che va letto con attenzione perché nella grande maggioranza dei casi la risposta sta nel testo medesimo e una serie di distrattori vanno invece a stimolare la risposta per abitudine, il senso comune, il sentito in televisione.

Gli “item” sono sia a risposta chiusa (scelta multipla) sia a risposta breve (fornire motivazioni) con un atteggiamento aperto nei confronti delle risposte (non è obbligatorio dire tutto ma si devono cogliere gli aspetti principali).

LE SCALE DI VALUTAZIONE

I risultati degli studenti sono valutati in base ad una scala crescente a sei valori da 1 (conoscenze molto limitate applicabili solo in contesti familiari) a 6. Il livello 2, in ambito OCSE, è raggiunto e superato dall’81% del campione ed è considerato il confine inferiore della soglia di accettabilità. Tutte le elaborazioni statistiche in ambito nazionale (per macro area geografica o per tipo di scuola) vengono svolte per confronto percentuale tra i diversi livelli comparandoli con la media OCSE.

Per ragioni di leggibilità i risultati vengono ricalcolati rispetto ad una base (media OCSE) posta pari a 500 ed esposti sempre insieme ad un indice di dispersione rispetto al valor medio (utile quando si vogliano effettuare comparazioni per verificare se lo scostamento dal valore precedente sia statisticamente significativo. Lo indicheremo con DS (deviazione standard).

QUALCHE RISULTATO SUL MONDO

La Finlandia è a 563, Hong Kong a 542, il Canada a 534, la Corea a 522, gli Usa a 489 mentre la DS è sempre tra 90 e 100. In Europa comparando paesi grandi e sviluppati abbiamo Germania 516, Regno Unito 515, Francia 495, Spagna 488, Italia 475, Grecia 473, Turchia 424. La Russia è a 479, la Polonia a 498, la repubblica Ceca a 513.

Può essere significativo anche un confronto verso il basso il Brasile è a 390, la Tunisia a 386, l’Argentina a 391, il Messico a 410.

Questi numeri sono significativi da due punti di vista: il gap visto su scala quantitativa e non su scala ordinale è di 100 punti (in più o in meno) e l’Italia dista dalla media OCSE di 25 punti su 500 cioè del 5%. Il dato non è gradevole ma nemmeno sorprendente se pensiamo alle percentuali italiane sulla dispersione. Una deviazione standard di quasi 100 indica una diversificazione molto alta all’interno di tutti i paesi e cioè il fatto che sul piano della equità sociale non si sta bene da nessuna parte.

CONFRONTO INTERNO ALL’ITALIA E VERSO L’OCSE

- I risultati in matematica e in lettura sono leggermente inferiori a quelli in scienze e per quanto riguarda la lettura il confronto con il passato indica un peggioramento in atto

- i risultati sono medio alti nei licei, accettabili negli IT e disastrosi nella Istruzione e Formazione Professionale. Per esempio totalizzano il livello uno o meno di uno il 10.9% dei licei, il 22.5% dei tecnici, il 49% dei professionali, il 78% delle medie (ripetenti), il 54 % della formazione professionale

- la distribuzione per aree geografiche disegna un nord al di sopra della media OCSE (meglio il nordest), un centro a 486 e un sud intorno a 440. Nel sud e nelle isole la percentuale di alunni che totalizzano uno o meno di uno è intorno al 40%. La solita Italia a tre velocità ma anche la conferma che le statistiche sul tasso di frequenza nella scuola media superiore trovano poi riscontro nelle indagini internazionali di profitto.

- l’indice di dispersione complessivo ci colloca in una situazione mediana sia quando viene riferito alle differenze di risultato tra scuole sia quando viene riferito alle differenze all’interno di una stessa scuola. I due valori dell’Italia sono entrambi intorno a 50 mentre l’Australia ha 20 e 90, l’Inghilterra 23 e 98, la Finlandia 5 e 76. La media OCSE è di 34 e 67. Quando il primo numero è basso il sistema di istruzione è omogeneo nonostante le diversità geografiche o di indirizzo mentre quando il secondo è alto si ha una significativa diversificazione interna che, quando si associa a risultati medi alti, indica buona qualità del sistema (cura delle eccellenze). Dunque l’Italia è un paese con grandi diversità tra zona e zona e tra Licei e professionali mentre appare grigia all’interno di ogni scuola.

- per quanto riguarda la distribuzione percentuale degli studenti tra i diversi livelli il rapporto analizza sette fasce affiancate (meno di 1, sino a 1, sino a 2, …) e se mettiamo a confronto Italia, Ocse e Germania avremo rispettivamente: sotto a uno 7.3 – 5.2 – 4.1; sino a uno 18 – 14 – 11; sino a due 28 – 24 – 21; sino a tre 27 – 27 – 28; sino a quattro 15 – 20 – 24; sino a cinque 4 – 8 – 10; sino a sei 0.4 – 1.3 – 1.8. Questo dato preoccupa perché siamo regolarmente forti in basso e deboli in alto.

- grazie alla compilazione del questionario relativo agli indici di status è stato possibile correlare la prestazione con il retroterra famigliare. L’indice incide in Italia per 10 contro una media di 14. Ciò significa che le differenze di risultato sono poco addebitabili a ragioni sociali; ma ciò è positivo quando il risultato è alto (le politiche sociali funzionano) e significa invece che “anche i ricchi sono asini” quando il risultato è basso. In questo indice siamo in compagnia di Australia, Canada, Finlandia, Giappone ma in questi paesi il risultato di PISA è stato alto; il nostro no.

QUALCHE OSSERVAZIONE A BOTTA CALDA

Ho distrutto recentemente i risultati relativi al mio liceo in PISA 2003 e dunque vado a memoria. Erano dati molto alti (nettamente superiori alla Finlandia) ma quando li avevo visti mi ero detto: siamo noi che siamo bravi? No; forse vuol solo dire che: primo) la differenziazione vera avviene quando le famiglie decidono a quale scuola iscrivere i propri figli; secondo) mediamente le scuole medie del territorio lavorano abbastanza bene; terzo) forse dovremmo interrogarci sulle ragioni per cui anche in scuole in cui battiamo la Finlandia e Singapore a fine anno ci sono i bocciati o i dispersi in percentuali significative (da 4 a 7 per classe).

Dalla lettura degli item di PISA si evince che nella scuola italiana (media inferiore e biennio superiore) c’è molto da lavorare sulla didattica delle competenze e sulla comprensione testuale. Lo dico in maniera semplificata e un po’ provocatoria: facciamo un sacco di cose noiose e inutili e continuiamo a pensare che il confronto con il mondo non sia rilevante. Attenzione non dico che non si debba essere sistematici, insegnare l’astrazione, abituare al rigore; dico che insieme dobbiamo confrontarci con il senso, con la motivazione con il “dove si va a parare”.

Su questo punto mi sento molto vicino a Luigi Berlinguer. Ho presente il suo intervento appassionato a favore di una scuola che accetti la sfida del mondo moderno in occasione della presentazione delle Nuove Indicazioni Nazionali per la scuola media. Mi sento meno vicino alla “severità” di Fioroni che mi pare importante ma insufficiente.

Se in Italia oltre il 25% dei quindicenni prende “uno o meno di uno” contro una media OCSE del 19% il problema non si risolve con la severità sul tema del saldo dei debiti. Bisogna fare cose diverse e bisogna avere il coraggio di affermare la diversità delle intelligenze, degli sbocchi, degli stili cognitivi. Centro destra e centro sinistra riusciranno a mettersi d’accordo sul fatto che la discussione vera non è tra Istruzione Professionale allo Stato e Formazione alle Regioni (o tutto alle Regioni) ma sul come fare per rendere gradevole e formativa la scuola che non porta al diploma ma alla qualifica? E in questa scuola ci metto anche l’apprendistato.

Si deve riprendere in mano il tema della Valutazione del Sistema di Istruzione e definire degli standard (sia sui livelli minimi costituzionalmente garantiti, sia sugli strumenti di verifica di qualità). Vogliamo scommettere che se si farà questo le scuole medie inferiori e superiori incominceranno a confrontarsi con gli Item di PISA e magari si sveglierà anche l’editoria scolastica? Quando prove quali quelle di PISA diventeranno una pratica didattica ordinaria (misurazione della situazione in ingresso, obiettivi basati sui risultati, verifica di fine anno)?

Si deve poi affrontare seriamente il problema del campionamento, se si vuole estrarre dai risultati della indagine qualche indicazione scientifica su come vada davvero il sistema scolastico italiano. Non sono un esperto di sistemi di Istruzione in Europa ma, per fare un esempio, la netta diversità di risultati tra Finlandia e Svezia mi insospettisce. Avendo a disposizione dati più veri sul sistema Italia, perché campionati meglio, potremo darci obiettivi misurabili e dunque verificabili. Perché la Lombardia è andata indietro? Magari qualche scuola di PISA 2003 non ha fatto PISA 2006 e non sapremo mai se era gonfiato il dato precedente o sottostimato quello attuale.

Nel settore della literacy matematica e scientifica abbiamo alcune meritorie istituzioni che da anni cercano di occuparsene anche se su livelli diversi da quelli di PISA. Penso per esempio ai Giochi di Archimede, a Matematica Senza Frontiere, ai Giochi di Anacleto e alle Olimpiadi della Fisica. Qualcuno spinge più sulla creatività, qualcun altro si muove sulla linea di PISA. E’ impensabile portare un po’ di più nella didattica ordinaria questo spirito? Come in atletica: ci si allena e si portano a casa i risultati.

Non dico nulla sulla “questione meridionale” ma credo che il Ministro non possa far finta di nulla.

Claudio Cereda ceredaclaudio@tele2.it


La nostra rivista online

Servizi e comunicazioni

Seguici su facebook
Rivista mensile Edizioni Conoscenza
Rivista Articolo 33

I più letti

Filo diretto sul contratto
Filo diretto rinnovo contratto di lavoro
Ora e sempre esperienza!
Servizi assicurativi per iscritti e RSU
Servizi assicurativi iscritti FLC CGIL