Potremmo riassumere questo problema dicendo che ‘è tutta colpa del progresso’, tagliando subito alle radici la causa della faccenda che andiamo ad analizzare, ma cadremmo nella stessa trappola che intendiamo disinnescare. Però della verità c’è in quella affermazione e cercheremo di dimostrarlo.
Un certo James Robert Flynn, psicologo americano e studioso specificamente del Quoziente Intellettivo, con le sue decennali ricerche ha constatato come dal 1938 al 1984, il punteggio medio della popolazione fosse aumentato di ben 13 punti per diverse motivazioni.

Nel 2018, due docenti dell’Università di Oslo, in un’altra inchiesta hanno rilevato come ci fosse stato un progressivo decadimento del Quoziente Intellettivo a partire dall’anno 2000. Sarà pure un caso, ma è del 1992 la nascita dello smartphone – IBM Simon – fino all’attuale fornito di Intelligenza Artificiale.
Nella pratica comune le conseguenze più immediate ed evidenti sono il calo dell’attenzione, la diminuita capacità di concentrazione, la totale difficoltà dell’analisi di un testo o di un discorso. In queste tre alterazioni sia psicologiche che più genericamente culturali, secondo il citato Flynn, entrano tre cause diversamente convergenti: il peggioramento della formazione scolastica, la diminuzione dell’esercizio di lettura, l’eccesso di tecnologia.
Secondo il prof. Stefano Cappa dell’Università di Pavia, ci sono altri tre motivi in questa disfunzione personale e comunicativa: la perduta abitudine al “problem solving” – ovvero l’abilità di esaminare, trattare e risolvere in modo adeguato ed efficiente problemi di vita quotidiana e professionale che necessitano di un pensiero analitico, creativo e logico –, il mancato allenamento a memorizzare e la prevalenza della costruzione ideo-affettiva – cioè la predominanza conseguente dell’opinione emotiva sul giudizio razionale.
La gran parte degli esperti nell’affrontare l’ormai inflazionato tema del cosiddetto “analfabetismo funzionale”, ovvero la progressiva diminuzione della capacità di elaborazione critica del pensiero, la competenza a discernere le corrette informazioni dalle bufale, l’inadeguatezza nella comparazione dei concetti e dei loro collegamenti, arrivano anche ad aggiungere la causa della mancata scrittura e della collegata ortografia. Perché si sa che l’impegno a scrivere con correttezza anche grafica comporta un’attivazione sia dell’analisi del testo che dell’attenzione nel redigerlo, ritornando perciò alle citate cause valutate da Flynn.

Visto che siamo in periodo di commemorazione di Pier Paolo Pasolini è il caso di ricordare la sua denuncia dell’impoverimento lessicale sia quantitativamente per il numero di vocaboli usati, sia qualitativamente della terminologia colta a favore di quella tecnocratica e di omologazione massificante: il tutto perfettamente in sincronia con lo sviluppo progressista della società consumistica.
Il celebre e importante intellettuale, nonché studioso di linguistica, Tullio De Mauro, in un’indagine da lui condotta nel lontano 1976 già evidenziava che uno studente delle medie conoscesse e usasse in media 1600 parole, mentre una verifica condotta esattamente vent’anni dopo questo numero si era ridotto a 640 parole. Ultimamente se ritiene, verosimilmente o meno, che con l’uso delle chat, dei like, della messaggeria e degli emoticon si sia ancora più ridotto a circa 200 vocaboli.
Questa deriva linguistica che depotenzia e inficia le potenzialità cerebrali, automaticamente influisce non solo sulle capacità critiche ma sulla stessa comprensione del mondo e della realtà circostante.
E arriviamo così alla questione che va oltre alle cause progressiste, ma arriva al cuore del problema: la precisa volontà del sistema di ridurre ai minimi termini qualunque potenzialità di critica e di eventuale costruttiva e radicale opposizione allo stesso.

Il passaggio ultimo di questo controllo totalitario del pensiero attraverso la serrata censura del linguaggio è stata “l’istituzionalizzazione del controllo linguistico nell’intera società” (F. Furedi) attraverso il cosiddetto “politicamente corretto”.
È l’ultimo stadio della profezia di Orwell e di Bradbury: la squalifica di qualsiasi termine che non corrisponda alla narrazione ufficiale proposta, con la scusa di evitare percezioni discriminanti nei confronti di qualunque, ma con lo scopo sufficientemente esplicito – per chi vuoi capire – che sotto il cosiddetto “linguaggio inclusivo” si nasconde quel processo di “ingegneria linguistica (che) cerca di cambiare il lessico pubblico con l’obiettivo di trasformare gli atteggiamenti e le norme culturali predominanti” (F. Furedi).
Senza gli strumenti cognitivi che permettono la formulazione di un pensiero, la sua analisi critica e la sua eventuale conferma – era il procedimento di tesi-antitesi-dimostrazione tempo applicato nella scuola in ambito non solo matematico –, si è passati ormai allo sfogo di uno slogan, alla discriminazione di ogni contraddittorio, all’irreparabilità del pregiudizio.
I tenutari di questa procedura sono ampiamente rappresentati in ambito giornalistico e in qualunque settore siano impiegati – geopolitica, amministrazione pubblica, economia, storia ecc.
È la vittoria di quella che il più volte citato amico Massimo Fini ha descritto come la presunzione dell’uomo democratico che confonde la libertà di parola con la libertà di dire cazzate. Per cui, dalla questione di Beatrice Venezi alla russofobia, dal disastro medio-orientale al cambiamento climatico, dall’operazione vaccinale allo scandalo della BBC, dall’enfasi pubblicitaria di Report alla retorica immigratoria e via via elencando, ad ogni finta argomentazione è precluso il ragionamento e la critica: o si è a favore o si è contro, indipendentemente dalle competenze da mettere in campo.

Attraverso la negazione del pensiero critico si arriva necessariamente – e volutamente – alla negazione di ogni ricerca di verità: è la vittoria della tifoseria, del pregiudizio e della cecità intellettuale, per la conferma delle proprie miserie culturali e a discapito della verità, per alcuni indifferente e per altri pericolosa.