Il tempo è galantuomo, disse l’amianto all’uranio

Era da un po che non scrivevo di agricoltura; curioso per uno che ha imparato prima a tirar su una pianta che a usare una bicicletta. In questi giorni mi è capitato di discutere con alcuni sostenitori delle colture geneticamente modificate, gli ogm. Questo è un tema spinoso, pieno di risvolti imprevedibili. Dunque i mitici ogm: chi sono costoro? Secondo l’enciclopedia sarebbero organismi in cui parte del genoma sia stato modificato tramite le tecniche dell’ingegneria genetica; intendendo l’inserimento o la rimozione di geni dal DNA oggetto dell’esperimento. C’è dentro di tutto, dal pesce fluorescente al batterio che produce l’insulina. Cose futili e cose utili, insomma. Esistono anche leggende metropolitane simpaticissime, come quella che riguarda i “pomodori antigelo”; che si suppone siano resistenti al freddo grazie ai geni di un pesce che vive in acque fredde. Non è mai accaduto,come spiegato qui; tentarono invero di realizzarli, ma non funzionò. E non fu quindi altro che un esperimento fallito. Anche la “fragola con la lisca” condivide sorte simile: è un ogm che non è mai esistito in commercio; eppure è divenuta un’icona.

Ma in agricoltura cosa si usa effettivamente? Quali sono le cultivar ogm reali che hanno avuto successo? Per farsi una idea c’è uno stringato elenco sempre in enciclopedia, che almeno ne indica le tipologie. Si tratterebbe di alcune decine di varietà, come ricordatoanche qui, per gran parte cereali e leguminose. A dominare la scena sono mais, colza, soia, cotone e riso. Cosa fanno queste piante di differente dalle altre? Nell’elenco della wiki sono indicate alcune capacità di resistere a malattie fungine e virosi; ma se guardate bene, metà delle caselle riporta il carattere di “resistenza a erbicida”. E’ questa la caratteristica davvero importante che accomuna le granaglie ingegnerizzate più diffuse.

Come mai si parla tanto di piante resistenti alla siccità, alle malattie o magari capaci di vivere in ambienti poveri di nutrienti e poi, all’atto pratico, le varietà che possiamo acquistare oggi sono essenzialmente resistenti a prodotti chimici usati per eliminare piante infestanti? Beh, una ragione esiste ed è di ordine pratico: una azienda che sviluppa una varietà di pianta – ogm o meno – commerciabile deve recuperare i costi di ricerca. I poveretti che abitano nazioni povere, prive di suoli fertili e d’acqua, non hanno ovviamente il becco di un quattrino in tasca. Inevitabilmente le aziende del comparto sementi dovranno quindi rivolgere le proprie attenzioni agli agricoltori di paesi più ricchi, capaci di spendere qualche soldo in più. Oltre a questa ovvietà, dovremmo ricordare che gli erbicidi prima o poi divengono accessibili a chiunque: i brevetti scadono. Il caso più famoso e chiacchierato è quello del glifosato, il cui brevetto scadeva, se non ricordo male, nel 2000 / 2001. La Monsanto, non potendo più ottenere introiti adeguati in assenza dell’esclusiva garantita dal brevetto, risolse il problema dedicandosi alla creazione di piante coltivabili resistenti all’erbicida. Ed ecco superato il problema: era quindi possibile applicare un nuovo brevetto ai semi delle piante ogm con questa particolare resistenza, e recuperarne una attività economicamente vantaggiosa. Rendendo tra l’altro più efficaci ed economici i trattamenti, dato che l’applicazione dell’erbicida a coltura già avviata riesce a distruggere le infestanti in maniera più incisiva, almeno in confronto al diserbo presemina praticato in precedenza.

Ma quale può essere il problema con questi organismi – e relate tecniche colturali? Fondamentalmente più o meno la stessa tipologia di problemi che incontriamo con la chimica tradizionalmente intesa, e con l’agricoltura in senso lato. Ogni qual volta creiamo o modifichiamo una sostanza o un organismo, per poi immetterli nell’ambiente e nelle catene alimentari, dobbiamo verificare quali siano i possibili effetti negativi sull’ambiente stesso, sull’agricoltura e sugli esseri umani. E qui entra in gioco un fattore che è tanto determinante quanto allegramente ignorato in molte analisi di rischio: il fattore tempo.

I rischi connessi ad un nuovo intervento, infatti, non sono tutti uguali. Nel caso di una sostanza chimica di solito il primo problema che incontriamo è la sua eventuale tossicità acuta: se mi bevo tanto metanolo, rischio di perdere la vista e di morire. Questi effetti non sono difficili da osservare, dato che li vediamo arrivare in maniera velocissima. E ovviamente tutti conosciamo questo problema: non è difficile stabilire un legame deterministico tra l’avvelenamento da metanolo ed i danni subiti. Ci può riuscire chiunque.

Esiste però anche un modo differente di manifestarsi per i rischi sanitari ed ambientali connessi alle sostanze chimiche: il danno cumulato o differito nel tempo. Se passi le tue giornate in un ambiente che ti espone, che so, a vapori di mercurio di certo non muori. Vivrai a lungo. Solo che dopo un po di tempo – parecchi anni – cominci ad accusare dei problemi gravi: diventi matto, come il Cappellaio di Carroll; o ti ammali gravemente, come tanti minatori sudamericani che usavano il mercurio per estrarre oro con la tecnica dell’amalgama. Vedere le simpatiche opzioni disponibili. Attenzione però: questi danni sono sì gravi, ma non correlabili ad una esposizione circoscritta; e richiedono molto tempo – a volte due o tre decenni – per manifestarsi pienamente. Eppure alla fine presentano il conto, e salato.

In questa maniera possiamo ben capire come fanno gli esseri umani a commettere errori di valutazione così marchiani: vivono il rischio chimico / biologico / nucleare come se il problema fosse esclusivamente confinato agli effetti acuti dello stesso. E sovente ignorano gli effetti delle esposizioni prolungate e relative patologie croniche. In questo modo riescono a sviluppare continuamente nuove applicazioni, più o meno interessanti, che si rivelano estremamente dannose per la salute e l’ambiente dopo alcuni decenni: decenni, non anni. Nessuna meraviglia in ciò: i danni cronici e differiti nel tempo richiedono per definizione tempi estesi per manifestarsi.

Quali sono le tempistiche di questi eventi? Può valere la pena di osservare qualche esempio. Il primo e più banale che mi viene in mente è l’impiego di radionuclidi e radioattività. Le indagini sul tema divengono sistematiche negli ultimissimi anni dell’800, grazie a personaggi come Becquerel e Curie. Per trovare applicazioni pratiche dobbiamo però giungere agli anni della Seconda Guerra, con la realizzazione di reattori nucleari destinati alla produzione di plutonio; e ovviamente le famose bombe lanciate sul Giappone. Negli anni ’50 inizia a diffondersi la disciplina della medicina nucleare, che a livello di idea andava sviluppandosi da molti anni. L’espansione definitiva dell’impiego di sostanze radioattive si avrà a partire dal periodo 1954 – 1956, con la nascita dei moderni reattori nucleari di potenza. Negli anni seguenti, un crescendo travolgente di applicazioni ed impianti.

Il cambiamento di prospettiva nel campo dell’impiego di radioattività è iniziato in maniera graduale; già durante gli anni ’70 ci si cominciava a porre seriamente la questione delle implicazioni sanitarie. In verità più sotto l’effetto psicologico della minaccia delle armi contenute negli arsenali. La svolta arriverà con il celebrato incidente di Chernobyl, nel 1986. I recenti eventi occorsi nell’impianto giapponese di Fukushima Dai-ichi hanno solo ribadito la dimensione del problema. In pratica, sono occorsi almeno 30 – 35 anni dal momento in cui le applicazioni tecniche sono divenute importanti per veder mettere in discussione la bontà delle scelte fatte. E la discussione è ancora in corso, in mezzo ad un mare di polemiche; ad almeno sessant’anni di distanza. Il fatto che, ad esempio, Ucraina e Bielorussia spendano per le conseguenze dell’incidente qualcosa come un 5 – 7 % del bilancio pubblico dice parecchio; e giustifica le liti attorno alla conta delle vittime. Sono trascorsi decenni ed i malati sono tanti; anche a causa delle emissioni diffuse, che avvengono dappertutto, lontano dai riflettori. Eppure ancora nessuno pare voler affrontare la questione.

Altra storia: l’amianto. Era una fibra naturale, ottenuta da rocce basiche alterate; è stata una risorsa abbondante anche in Italia. La sua tossicità, intesa come capacità di causare malattie croniche e tumori, era nota già all’inizio del XX secolo. Bisogna però ricordare che l’impiego dell’amianto come isolante leggero si era sviluppato prepotentemente in Inghilterra per tutto l’800. Se prendiamo il caso particolare del cemento – amianto, chiamato anche eternit, possiamo considerare che l’avventura industriale abbia avuto inizio nei primi anni del ’900; curiosamente all’epoca la pericolosità del minerale era già nota. La diffusione di questi manufatti in fibrocemento diviene massiva negli anni ’30, e prosegue nel dopoguerra. La produzione terminerà solo nei primi anni ’90. La tempistica che ha permesso di passare dall’euforia iniziale al riconoscimento della pericolosità del materiale è variabile; a luoghi l’amianto è ancor oggi tranquillamente utilizzato. Per il caso inglese della fibra isolante c’è voluto un secolo o poco meno; nel caso dell’eternit nostrano sono bastati 60 – 70 anni per una messa al bando.

Nella pratica, che si parli di uranio o di asbesto, il riconoscimento della pericolosità di queste applicazioni industriali ha richiesto tempi molto lunghi. Nel caso dell’amianto incluso nel fibrocemento abbiamo già risultati conclusivi: da applicazione pionieristica a rifiuto letale da rimuovere in una settantina di anni. Nel caso dell’energia elettronucleare il cammino non è concluso, dato che ancora non abbiamo tra le mani il problema dello smantellamento degli impianti in essere. E sono passati 60 anni. Pare di scorgere alcune similitudini in queste vicende: l’euforia iniziale per le nuove applicazioni tecniche prosegue indisturbata per decenni, con successi del tutto evidenti a proprio favore. Nel frattempo gli eventuali danni alla salute ed all’ambiente cominciano a prepararsi, ma con lentezza; basti pensare al fatto che l’amianto attende anche trent’anni per uccidere le proprie vittime. Questo significa che una nuova applicazione tecnica può svilupparsi indisturbata per decenni, anche se avrà ricadute distruttive sulla salute e sull’ambiente; è una questione di tempistica.

E così, a partire dal 1996 abbiamo cominciato a commerciare organismi ogm, li abbiamo diffusi su milioni di ettari di terreno. Nel 2010 quasi 160 mln di ha, che sarebbe poi più di cinque volte la superficie totale dell’Italia. Ed abbiamo reso assolutamente comuni pratiche di allegro impiego di erbicidi a pieno campo, intendendoli come sostituto di ogni altro intervento di contenimento delle malerbe. Oggigiorno queste colture sono diffuse ed importanti, in specie nelle Americhe. Sta andando tutto bene? Beh, non proprio. Nel caso del glifosato la resistenza è ormai diffusa, le erbacce si stanno evolvendo: vedere qui, oppure qui; per una analisi italiana c’è questo. Interessante anche questo articolo, su Nature; che segnala che “….Sagers and her team found two varieties of transgenic canola in the wild — one modified to be resistant to Monsanto’s Roundup herbicide (glyphosate), and one resistant to Bayer Crop Science’s Liberty herbicide (gluphosinate). They also found some plants that were resistant to both herbicides, showing that the different GM plants had bred to produce a plant with a new trait that did not exist anywhere else…”. Le piante ingegnerizzate scappano dalla gabbia, si riproducono, si incrociano, si diffondono, divengono a loro volta infestanti. No, non lo dicono i talebani di Greenpeace: lo dicono tecnici qualificati. Quando la vicenda delle resistenze giunge sulle pagine del WSJ, allora è seria. Le strategie proposte per ora sono intuibili: passare ad altre sostanze, peraltro già note e probabilmente passibili di veder nascere velocemente infestanti resistenti; oppure rivedere il modo di coltivare in varia maniera. O ancora usare mix ed alternanze di sostanze.

C’è un’altra faccenda sul tavolo, che è l’impiego degli erbicidi a man bassa in se stessi, al di là del binomio con gli ogm. Ci sono già in circolazione studi che analizzano i residui degli stessi nelle acque e nella pioggia, tipo questo. O anche questo rapporto dell’USGS. Ovviamente esiste pure il problemi dei residui nel cibo: la presenza di queste sostanze decade esponenzialmente, ma logicamente non si azzera. Tutte queste faccende potrebbero acquisire rilevanza man mano che si diffondono fenomeni di resistenza agli erbicidi: diventa forte la tentazione di aumentare le dosi.

Ora a qualcuno verrà da dire che i problemi che stanno emergendo ci costringeranno a cambiare strada in maniera drastica; qualcun altro dirà invece che possiamo risolvere ogni inconveniente con nuove piante e nuove sostanze chimiche. E poi, invariabilmente, si continueranno ad accendere dispute attorno alla pericolosità reale o presunta di un organismo o di una molecola. Quello che manca, e che mancherà a lungo in molte discussioni, è la percezione dell’importanza dell’orizzonte temporale. Le nostre pregresse avventure con contaminazioni estensive hanno dimostrato che i danni dovuti a malattie croniche e degenerative si mostrano dopo 20 o 30 anni; e che i problemi correlati divengono gravi e diffusi con ulteriore ritardo. Stessa logica per i danni al suolo ed agli ecosistemi: per manifestarsi richiedono tempi lunghi.

L’avventura delle sementi biotech è iniziata l’altro ieri, e non è poi così importante sapere che alcune di esse sono in difficoltà dopo appena un decennio di impiego realmente estensivo. Quel che conta davvero è che non è ancora passato tempo a sufficienza per poter cominciare a ragionare sugli effetti cronici dell’immissione nell’ambiente di nuove piante e sostanze in quantità così massicce. Gli effetti di lungo termine su suoli, rese agricole e salute ancora non possiamo misurarli, non c’è modo di farlo; non sono effetti acuti, ma semmai cronici. Ed è cosa ben diversa. Possiamo comunque attendere, che so, un paio di decenni: il tempo è galantuomo, e riuscirà come sempre a chiarirci le idee.

fonte