Sostieni Bioetica News Torino con una donazione. Sostieni
21 Luglio Agosto 2014
Speciale Vita prenatale: Inizio di un viaggio

Notizie dal Mondo

Minori scomparsi, 630mila segnalazioni

2 giugno 2014

Sono state 630.724 le segnalazioni di scomparsa di minori in Europa arrivate lo scorso anno ai 29 Centri europei dei Missing Children, la rete di associazioni non governative che si occupano di bambini scomparsi o sfruttati sessualmente, tema al centro della Conferenza “Quando ogni minuto conta”, in corso ad Atene per elaborare azioni e strategie ancor più incisive sul problema della scomparsa e della tratta dei minori in Europa.

Con un numero telefonico unico e gratuito, 116000, attivo in 27 paesi Ue (cui si aggiungono Serbia e Albania) i centri di Missing Children, in stretta collaborazione con le forze dell’ordine nazionali, rispondono a coloro che segnalano la scomparsa di un bambino o offrono indicazioni in merito. Dal 2009, per l’Italia, il servizio è gestito da Telefono Azzurro a seguito di un protocollo di intesa con il ministero dell’Interno.

Nel 2013 sono stati oltre 5000 i casi trattati dal network di associazioni. Di questi, il 50% ha interessato i “runaways”  cioè i minori in fuga da qualcosa o da qualcuno; il 36% ha riguardato la sottrazione di minore da parte di uno dei componenti del nucleo familiare a seguito di contrasti o separazioni fra coniugi; il 2% le sottrazioni effettuate da organizzazioni criminali o persone estranee alla famiglia; il 10% i casi di minori persi o dispersi con scomparsa non altrimenti giustificata (i bambini che non sono sottratti da adulti né si allontanano volontariamente, ma si perdono o risultano dispersi dopo un disastro naturale); il restante 2% si riferisce ai casi di minori che arrivano alle frontiere dell’Europa non accompagnati.

In tutti questi casi il fattore tempo risulta determinante, sottolinea Telefono Azzurro, e se quasi tutti vengono ritrovati entro tre giorni dalla scomparsa, una volta rientrati a casa non significa che il problema sia risolto. In particolare per coloro che fuggono, fronteggiare le stesse situazioni che li ha indotti ad allontanarsi: conflittualità, trascuratezza o abusi, li potrebbe spingere a scappare ancora, esponendoli a pericoli sempre maggiori.

In Europa, nella tipologia dei fuggitivi infatti, un ragazzo su otto, per sopravvivere, finisce per rubare ed in un caso su dodici è a rischio di una qualche forma di grave abuso. In Italia, da gennaio 2010 a oggi, i casi di bambini scomparsi, fuggiti da casa/istituto o rapiti trattati da Telefono Azzurro sono stati 648. Solo nel 2013 sono stati denunciati 172 casi, gestiti da Telefono Azzurro non solo attraverso il 116000, ma anche attraverso le altre due linee telefoniche: 19696 e 114. Nella maggior parte dei casi si tratta di fughe da casa o da istituto, ma anche di sottrazione nazionale e internazionale di minori stranieri non accompagnati e di rapimento. Le segnalazioni hanno riguardato in misura maggiore bambini e adolescenti di sesso femminile (circa il 54%), l’età più incidente in relazione alle segnalazioni è quella compresa tra i 15 ed i 18 anni (intorno al 45%), quella dei bambini fino ai 10 anni riguarda il 38% dei casi. Rispetto alle segnalazioni giunte a Telefono azzurro nel corso del 2013, la percentuale degli stranieri – soprattutto adolescenti – è molto alta (47%), maggiore di quella evidenziata per altre problematiche gestite dall’associazione.

(Fonte: «Avvenire»)

Tumori, «sfruttare la potenza del sistema immunitario per combattere il cancro»

2 giugno 2014

Sfruttare la potenza del sistema immunitario per combattere il cancro. È questo l’obiettivo dell’immunoterapia, una nuova frontiera nella lotta contro i tumori che sta già dando risultati “sorprendenti”, affermano gli oncologi, per alcune neoplasie come il melanoma ed i tumori della cervice. A dimostrare i passi avanti in questo settore della ricerca oncologica sono vari studi presentati al cinquantesimo congresso della Società americana di oncologia clinica (Asco) in corso a Chicago.

L’immunoterapia rappresenta uno dei temi ‘caldi’ e centrali della cinquantesima edizione dell’Asco, proprio per le enormi potenzialità terapeutiche che ne possono derivare: questi trattamenti, usati da soli o in combinazione con altri farmaci, combattono infatti il tumore attivando e amplificando le risposte immunitarie dell’organismo contro di esso. Il campo dell’immunoterapia “è esploso nell’ultimo decennio e sempre più pazienti ne stanno beneficiando – afferma Steven O’Day, professore di medicina alla University of Southern California -. Avere una potenziale nuova via per controllare il melanoma, ad esempio, è un enorme passo avanti, ed è eccitante il fatto che stiamo estendendo tali benefici anche contro altri tipi di tumori”.

Uno degli studi di maggiore rilievo sui quali si è concentrata l’attenzione degli esperti al congresso americano riguarda proprio il melanoma: lo studio ’029′ dimostra infatti per la prima volta che la molecola Ipilimumab, già provata per il trattamento del melanoma avanzato, riduce del 25% il rischio di recidiva o morte in pazienti con malattia agli stadi iniziali. Lo studio ha coinvolto sei centri italiani con il Policlinico Le Scotte di Siena come centro coordinatore nazionale.

Un dato accolto con entusiasmo dagli oncologi, considerati i numeri di questa neoplasia: il melanoma (tumore maligno della pelle) ha infatti un’incidenza nel mondo che raddoppia ogni dieci anni e nel 2012 sono state fatte 232 mila nuove diagnosi principalmente nella popolazione giovane, mente nel 2013 i nuovi casi in Italia sono stati 10.500.

Un secondo studio presentato all’Asco dimostra inoltre che un unico trattamento di immunoterapia personalizzato (definito T cell therapy) induce una completa e duratura remissione della malattia in un certo numero di pazienti con cancro alla cervice avanzato, per il quale fino ad oggi non vi erano opzioni terapeutiche efficaci.

Importanti progressi si stanno ottenendo anche contro il cancro al polmone: secondo nuovi dati presentati all’Asco, il trattamento con la molecola innovativa pembrolizumab come terapia iniziale ha portato ad una riduzione della massa tumorale nell’80% dei pazienti considerati. L’immunoterapia rappresenta oggi la”nuova e promettente quarta arma nella lotta contro il cancro” sottolinea dal congresso Michele Maio, direttore del Dipartimento Immunoterapia Oncologica del policlinico Alle Scotte di Siena, ricordando come importanti risultati siano già stati ottenuti grazie a tale approccio terapeutico nel caso del melanoma e altri tipi di tumori.

“Dopo la chirurgia, la radioterapia e la chemioterapia, oggi – spiega Maio – la nuova strada è l’immunoterapia, che rieduca il sistema immunitario a tenere sotto controllo il tumore. Un aspetto molto importante è che ora cominciamo ad avere basi solide per poter dire che l’immunoterapia non solo funziona contro la malattia metastatica, ma può essere in grado di ridurre il rischio di recidive in pazienti ad alta probabilità di avere di nuovo un tumore dopo l’intervento chirurgico”.

Un approccio promettente anche secondo il presidente dell’Associazione Italiana di Oncologia Medica (Aiom), Stefano Cascinu: “È un filone con cui si aprono strade nuove; risultati soddisfacenti sono stati già ottenuti contro il melanoma, ma nuovi studi stanno ora riguardando anche altre neoplasie”.

Uno degli ultimi ‘traguardi’, afferma inoltre Maio, riguarda ad esempio il mesotelioma pleurico, tumore legato all’amianto: “uno studio iniziato a Siena, e pubblicato su «Lancet Oncology», ha cominciato a dimostrare l’efficacia dell’immunoterapia in questi pazienti, tra i quali nel 15% dei casi si è registrata una riduzione della malattia“. Su queste basi, ha annunciato l’esperto, “sta per essere avviato uno studio più ampio, che coinvolgerà 500 pazienti in 180 centri in Italia”.

(Fonte:« Il Fatto Quotidiano»)

Se il voto diventa elettronico

2 giugno 2014

Di recente è stato pubblicato uno studio sulla sicurezza del sistema di Internet voting (I-voting) adottato alle ultime elezioni locali in Estonia. L’Estonia è uno dei Paesi in cui, negli ultimi anni, maggiormente si è puntato sulla digitalizzazione della Pubblica Amministrazione e, in generale, sull’e-Government. Il rapporto, come molti altri disponibili in letteratura sulle esperienze di I-voting e, più in generale, di voto elettronico (e-voting), si conclude con la raccomandazione di interrompere l’utilizzo di questi sistemi. Le principali motivazioni della raccomandazione, esaurientemente dimostrate nella descrizione piuttosto dettagliata degli esperimenti effettuati, sono prevalentemente di natura tecnica e dimostrano come sia possibile compromettere il risultato del procedimento elettorale attraverso attacchi informatici che sfruttino vulnerabilità note (o anche non note, come ad esempio le zero-day vulnerabilities delle quali è appurato esistere un fiorente e redditizio mercato illegale).

È forse inutile ricordare come, nel caso di elezioni sovranazionali (per es. europee), nazionali o per l’amministrazione locale, esistono forti interessi in gioco e, di conseguenza, è difficilmente evitabile che ci siano tentativi di sfruttamento della possibilità di influenzare, anche in modo illegale, il risultato del voto. La tutela del procedimento elettorale nei confronti di questi tentativi deve quindi essere presa in seria considerazione. Tralasciamo qui i dettagli tecnici, rimandando il lettore interessato al rapporto tecnico sopra citato e all’abbondante letteratura sull’argomento e sull’e-voting.

È importante, invece, sottolineare che i procedimenti di voto elettronico sono intrinsecamente controversi perché pongono questioni serie in relazione al soddisfacimento di requisiti fondamentali di qualunque procedimento elettorale, come, ad esempio, la segretezza del voto e l’anonimato dell’elettore, la correttezza del conteggio dei voti e la verificabilità – da parte degli elettori anche non in possesso di specifiche competenze tecniche – sia della correttezza del procedimento e del suo risultato, sia del fatto stesso che il proprio voto sia stato effettivamente acquisito dal sistema. Quelli effettuati tramite Internet risultano ancora più problematici, proprio per la natura distribuita e “aperta” della Rete, oltre che per la dipendenza dalla qualità di una moltitudine di prodotti spesso concepiti, progettati e implementati per scopi che non necessariamente richiedono un alto grado di affidabilità e sicurezza (oltre che per la più che nota vulnerabilità di Internet …). È importante comprendere che i requisiti di sicurezza e anonimità fanno sì che i sistemi di e-voting siano molto diversi da altri sistemi informatici anche critici come, ad esempio, quelli bancari. In questi ultimi sistemi, giusto per fare un esempio, ogni cliente ha la possibilità di verificare la correttezza delle operazioni che lo riguardano semplicemente consultando le ricevute o gli estratti conto e, di conseguenza, fare valere i propri diritti sulla base anche di tale documentazione. Ovviamente, nel caso dell’e-vote questo non è più vero, non potendosi rilasciare una “ricevuta di voto” che attesti nel dettaglio l’operazione effettuata.

I RISCHI INFORMATICI. Alcuni dei problemi con l’e-voting sono intrinseci alla tecnologia hardware/software (HW/SW) e rientrano nelle problematiche inerenti all’affidabilità dei sistemi informatici, della dimostrabilità della correttezza del SW, dell’HW e del firmware coinvolti. Altri sono legati all’impossibilità fisica del monitoraggio da parte delle commissioni elettorali, di tutte le fasi del procedimento, perché alcune di queste si svolgono interamente in forma elettronica. Di conseguenza, i procedimenti di e-voting, quando adottati, devono essere preceduti da una approfondita attività di testing che deve, fra l’altro, essere formalizzata nella forma di una vera e propria certificazione da parte di terzi indipendenti e con successiva dichiarazione di conformità da parte di autorità abilitate. L’esistenza di tale certificazione, la descrizione di come essa sia stata condotta tecnicamente e di quali siano stati i test effettuati e i risultati ottenuti devono essere resi pubblici prima che il procedimento possa avere luogo. È ovvio che queste certificazioni richiedono del lavoro e competenze anche molto specialistiche e quindi hanno dei costi, che possono essere anche molto alti, non necessariamente inferiori a quelli delle elezioni tradizionali (specie se si considera anche il costo delle apparecchiature, della loro protezione fisica e della loro manutenzione).

È opportuno notare che garanzie quali quelle sopra riportate sono contemplate anche nel “Position Statement” dell’Association for Computing Machinery (ACM), che, fondata nel 1947, è, insieme alla IEEE Computer Society, l’associazione più rappresentativa, importante e influente nel settore informatico a livello mondiale. Il caso dell’Estonia, però, fa capire che anche quando vengano seguiti dei criteri e delle metodologie caratterizzati da un ragionevole o addirittura spiccato grado di trasparenza, come, ad esempio mettere buona parte dei sorgenti SW del sistema a disposizione della cittadinanza, possono permanere svariate vulnerabilità che mettono a rischio l’integrità del processo e, in ultima analisi, la democrazia. Negli ultimi tempi, grazie anche all’aumento di consenso che ha caratterizzato i cosiddetti movimenti della “società civile”, nel nostro Paese, si sta facendo avanti, con notevole forza, l’idea della possibilità ed opportunità della consultazione popolare universale sui problemi del Paese, da effettuarsi (anche) tramite voto elettronico, ed in particolare, Internet-voting.

Chi scrive ritiene che, sull’onda del successo popolare di queste iniziative, il passo verso un sistema di voto elettronico, anche in Italia, possa essere presto considerato inevitabile. Viceversa, la comunità scientifica, e specie quella dei colleghi che si occupano di sicurezza informatica, avrebbe la responsabilità civile e sociale di informare onestamente i concittadini e, in particolare quelli con responsabilità politiche, sulle problematiche tecniche, sociali e di diritto che l’introduzione dell’e-voting comporterebbe. Purtroppo, nel nostro Paese non ha mai avuto luogo una seria e informata discussione sull’argomento, che invece, altrove, è stato affrontato con estrema serietà. Giova forse ricordare qui che il voto elettronico è già stato abbandonato in Germania, nei Paesi Bassi e in Irlanda e che il suo utilizzo è fortemente discusso e controverso negli Stati Uniti. Nel frattempo, qui da noi l’utilizzo dell’e-voting e soprattutto dell’I-voting, sebbene ancora limitati all’interno di specifici gruppi, partiti e, soprattutto, movimenti, sta prendendo piede, con la totale, passiva accettazione da parte dei cittadini, della stampa e della comunità scientifica.

È di estrema importanza, fare crescere la consapevolezza dei problemi gravissimi legati a questo specifico utilizzo della tecnologia informatica. E concludo con una considerazione più generale. Negli ultimi tempi, si parla sempre più spesso di semplificazione della Pubblica Amministrazione italiana. Purtroppo, a volte, questa semplificazione viene identificata con la semplice re-implementazione digitale di procedure che oggi vengono espletate in forma cartacea. Queste pratiche, procedure business-flow, come dicono gli esperti, sono spesso inutilmente complicate, incomplete, a volte contraddittorie: espressione di quanto di peggio la burocrazia italiana sia riuscita a concepire nei decenni scorsi (e tutt’oggi …). Evidentemente, questo processo, noto come dematerializzazione non può essere di per sé scambiato con (o “venduto” per) semplificazione della PA.

Prima di tutto vanno ridisegnate le regole, semplificandole in modo da rendere i processi più snelli, meno incerti e più sicuri. Solo dopo ha senso chiedersi quali parti di questi processi possa essere opportuno informatizzare e con quali tecnologie specifiche. Ed in questa fase si potrà anche decidere che le attuali tecnologie informatiche non danno, da sole, tutte le garanzie richieste da alcuni processi, come, ad esempio, quelli elettorali, per i quali, sarà più saggio affiancare l’informatica alle procedure cartacee, migliorandone le prestazioni, piuttosto che sostituire le procedure cartacee con quelle digitali. Limitarsi a trasferire sui bit la complessità e, soprattutto, la farraginosità della burocrazia comporta semplicemente che a, questa farraginosità, si aggiungono tutti i problemi di adeguatezza, affidabilità, usabilità e vulnerabilità intrinseci dell’informatica, oltre a quelli specifici che spesso nascono dall’utilizzo di metodologie e prodotti non propriamente di alta qualità.

Diego Latella

Bibliografia

1. J.A.Halderman, H. Hursti, J. Kitcat, M. MacAlpine, T. Finkenauer, D. Springall. Security Analysis of the Estonian Internet Voting System.Technical Report. May 2014 (disponibile all’indirizzo: www.estoniavoting.org).

2. G. Mainetto, M. Massink. Se il computer conta i voti, tutti i voti contano? SAPERE. Ed. Dedalo, dicembre 2007.

3. G. Mainetto, M. Massink. D. Latella. E-vote, un’operazione a perdere. SAPERE. Ed. Dedalo, giugno 2009.

4. B. Simons[2] and D. Jones. Broken Ballots Will Your Vote Count? CSLI Publications, Stanford, CA. 2012.

5. B.Simons and D. Jones. Internet Voting in the US.Communications of the ACM.Vol. 55. n. 10 October 2012.

Ulteriori informazioni sull’argomento, soprattutto di carattere tecnico, sono reperibili, oltre che nelle riviste e negli atti dei convegni specializzati, per esempio in computer security, sulle Software Engineering Notes dell’ACM (ACM-SIGSOFT), sulla raccolta dei contributi all’ACM RISKS Forum, sponsorizzata dall’ACM Committee on Computers and Public Policy (CCPP), e nel sito del suo moderatore, P. Neumann

(Fonte: «Scienza in Rete»)

«Digiuno climatico»: anche i vescovi francesi aderiscono all’iniziativa

6 giugno 2014

Anche la Conferenza Episcopale francese aderisce al “digiuno climatico”, l’iniziativa lanciata da numerose organizzazioni religiose per ricordare l’importanza del Creato e la necessità di salvaguardarlo. L’evento si terrà in vista della Conferenza sul clima che avrà luogo a Parigi dal 30 novembre all’11 dicembre 2015, sotto l’egida dell’Onu.

“I cambiamenti climatici sono la principale sfida a lungo termine per il nostro pianeta”, recita un post sul sito dei vescovi d’Oltralpe, ripreso dalla Radio Vaticana. “Lottare contro i cambiamenti climatici per lasciare una terra sana alle generazioni future – proseguono – costituisce una causa prioritaria da difendere e un dovere di giustizia per i cristiani, perché è in gioco l’intera vita del pianeta”.

Inoltre, i cristiani “considerano la terra e tutti i suoi ecosistemi come un dono prezioso ricevuto da Dio”; quindi, per “rispetto ed amore nei confronti di tale dono”, hanno la responsabilità di “adottare e promuovere uno stile di vita che eviti ogni uso sconsiderato dei beni che Dio stesso ha messo a nostra disposizione”.

In particolare, nel caso della Chiesa cattolica francese, il “digiuno climatico” offrirà l’occasione per “esprimere pubblicamente valori spirituali ed etici comuni con altre religioni, in vista di realizzare quelle trasformazioni necessarie all’interno della società”. A tal fine, i presuli esortano i governi “a prendere coscienza delle loro responsabilità” in ambito climatico. Lanciano poi un appello affinché le istituzioni adottino “misure decisive” in tale ambito e “si affranchino dalla dipendenza nei confronti del combustibile fossile”, guardando soprattutto ai “Paesi più vulnerabili”.

(Fonte: «Zenit»)

Alzheimer. I governi del mondo si uniscono contro l’emergenza demenza

6 giugno 2014

È nata la “Global Alzheimer’s and Dementia Action Alliance” (Alleanza Globale della malattia di Alzheimer e della Demenza), il primo organismo che unirà istituzioni pubbliche, organizzazioni private e mondo del non-profit a livello globale per affrontare una sfida comune: combattere il dramma, divenuto oramai grave emergenza, della demenza. La Federazione Alzheimer Italia, a fianco di ADI (Alzheimer’s Disease International), è unica testimone italiana della nascita dell’Alleanza. Durante l’Assemblea Mondiale della Sanità (l’incontro annuale dei 193 Paesi membri dell’OMS) dello scorso 19 maggio a Ginevra presso il Palazzo dell’ONU, ADI insieme ad Alzheimer’s Society (Inghilterra, Galles, Irlanda del Nord) e al Dipartimento di Sanità inglese hanno annunciato la nascita della “Global Alzheimer’s and Dementia Action Alliance”, che mira a promuovere la collaborazione a livello mondiale tra i governi, le Ong internazionali, le associazioni e gli enti, nel tentativo di sensibilizzare l’opinione pubblica, combattere lo stigma che questa malattia reca con sé e coordinare le azioni per migliorare la cura e i servizi per le persone affette da Alzheimer e altre demenze.

Sono stimate in 44 milioni le persone affette da demenza nel mondo e ogni anno sorgono 7,7 milioni nuovi casi. L’OMS ritiene che questi numeri raddoppieranno ogni venti anni. Il costo complessivo è pari all’1% del PIL mondiale (ovvero 604 miliardi di dollari). “Di fronte a queste cifre, nessuna nazione e nessuna organizzazione può ignorare il problema” sostiene Gabriella Salvini Porro, presidente Federazione Alzheimer Italia. “Come maggiore organizzazione italiana non profit dedicata alla cura e all’assistenza dei malati di Alzheimer e dei loro familiari, abbiamo avvertito l’urgenza e il dovere di presenziare all’incontro di Ginevra. E, come unici rappresentanti italiani, ci facciamo ora portavoce all’interno del nostro Paese delle esigenze e delle decisioni internazionali. Chiediamo quindi alle istituzioni, alle associazioni e agli enti che si occupano di demenza di lavorare concretamente insieme per mantenere le promesse prese a Londra 5 mesi fa. Le famiglie dei malati si aspettano che queste promesse siano mantenute”.

L’Alleanza nasce infatti in risposta a quanto deciso dai leader mondiali nello storico vertice del G8 sulla Demenza dello scorso dicembre a Londra, in cui sono state decise le misure da intraprendere per affrontare l’epidemia mondiale della demenza. In quella sede il Primo Ministro britannico David Cameron aveva dichiarato: “Non importa dove voi viviate, la demenza ruba le vite e distrugge le famiglie. È per questo che noi siamo qui riuniti e siamo determinati a sconfiggerla. Abbiamo combattuto la malaria, il cancro, l’Aids e ora voglio che l’11 dicembre 2013 sia ricordato come il giorno in cui è iniziata la lotta mondiale alla demenza”.

Tra gli impegni presi dai Membri del G8: sviluppare un piano internazionale e aumentare i finanziamenti per la ricerca al fine di identificare entro il 2025 una cura o terapia che modifichi il decorso della malattia; creare una nuova figura di Responsabile Mondiale sulla Demenza a sostegno di un approccio innovativo che coordini le esperienze e gli sforzi di tutti i Paesi coinvolti; invitare l’OMS e l’OCSE a dichiarare la demenza una minaccia per la salute pubblica e sostenere i Paesi a incidere sui loro sistemi sanitari e sociali al fine di migliorare l’assistenza e i servizi alle persone con demenza.

Marc Wortmann, direttore esecutivo di ADI, ha commentato al termine dell’Assemblea di Ginevra: “L’Alleanza è il primo passo a livello internazionale per unire insieme governi, settore sanitario e sociale, organizzazioni non profit e società civile per affrontare la sfida della demenza”.

Conclude la presidente Salvini Porro: “Con convinzione ed energia entriamo a far parte di questo gruppo insieme ad ADI per continuare nella nostra lotta quotidiana che ha un doppio obiettivo: la conoscenza sempre maggiore della malattia di Alzheimer e l’abbattimento dello stigma vissuto dai malati e dai loro familiari. Auspichiamo che l’Italia – intesa in senso ampio come insieme di istituzioni, organizzazioni, società civile – acquisisca sempre maggiore consapevolezza e sappia prendere sempre più a cuore il dramma che vive questo milione di famiglie nel nostro Paese”.

(Fonte: «Quotidiano Sanità»)

«New England» riporta effetti della marijuana negli adolescenti

7 giugno 2014

Una revisione degli studi sugli effetti della marijuana pubblicato sul «New England journal of medicine» rileva non solo la sua capacità di ridurre il quoziente intellettivo (Qi) negli adolescenti e di interferire con la guida dei veicoli, ma anche la maggiore potenza di quella odierna rispetto al passato.

Lo studio, svolto dai ricercatori del National institute on drug abuse (Nida), collega la droga a diversi effetti negativi tra cui la dipendenza, concentrandosi sull’adolescenza, periodo di rapido sviluppo cerebrale. «La marijuana può danneggiare le funzioni di pensiero e la memoria anche per diversi giorni dopo l’uso. Inoltre, il suo utilizzo regolare nei primi anni dell’adolescenza è in grado di ridurre il quoziente intellettivo in età adulta, anche se chi fumava da giovane ha smesso di farlo da grande» afferma Nora Volkow, coordinatrice dello studio e direttore del Nida, che tra l’altro ha sponsorizzato l’indagine 2013 Monitoring the future survey da cui emerge che il 6,5% degli studenti all’ultimo anno delle superiori fa uso di marijuana quasi giornaliero, e che il 60% di essi non percepisce che l’utilizzo regolare della droga può essere dannoso.

«È importante invece che tutti sappiano dei potenziali danni alla salute causati dalla marijuana nell’adolescenza» sottolinea Volkow, sottolineando che i medici, in particolare, svolgono un ruolo cruciale nell’informare le famiglie. «La tendenza politica recente va verso la legalizzazione della marijuana per scopi medici o ricreativi, ma se la droga si diffonde, crescerà probabilmente il numero di potenziali vittime dei suoi effetti negativi» rimarca il direttore del Nida, ricordando che la marijuana, come alcol e nicotina, può creare dipendenza e che, alterando lo stato percettivo durante la guida, aumenta il rischio di incidenti d’auto.

Gli autori dello studio sottolineano infine alcuni aspetti poco studiati dell’uso di marijuana che dovrebbero essere approfonditi: il fumo passivo; l’impatto a lungo termine dell’esposizione prenatale; il potenziale terapeutico delle singole sostanze chimiche presenti nella pianta della marijuana e gli effetti delle politiche di legalizzazione della marijuana sulla salute pubblica.

(Fonte: «Doctor 33»)
(Approfondimenti: http://www.ncbi.nlm.nih.gov/pubmed/24897085)

Maltrattamenti: 1 bambino su 8 ne è vittima entro i 18 anni

9 giugno 2014

Secondo i dati di uno studio recentemente pubblicato su «Jama Pediatrics», il numero di bambini e adolescenti che subisce maltrattamenti prima dei 18 anni di età è molto elevato e si attesta a 1 bambino su 8. Per arrivare a questi risultati, un gruppo di ricercatori statunitensi guidati da Christopher Wilderman, del dipartimento di sociologia dell’Università di Yale, si sono basati sui dati relativi ai maltrattamenti documentati in via ufficiale dai Child Protective Services: poco meno di 5,7 milioni di casi nel periodo 2004-2011.

«Esistono grandi differenze tra le stime del numero di maltrattamenti basate su dati retrospettivi auto-riferiti e quelle che derivano dai registri CPS» esordisce Wilderman ricordando che i dati relativi alle stime annuali di maltrattamenti non coincidono con il numero totale di ragazzi maltrattati nei loro primi anni di vita e fino ai 18 anni. Da qui l’idea dello studio, eseguito allo scopo di determinare la percentuali di bambini maltrattati in questa fascia di età, ricercando anche eventuali differenze nella prevalenza dei maltrattamenti basate su sesso, etnia o età.

Ecco qualche numero. «In base ai dati disponibili per il 2011, un bambino su 8 – il 12,5% – negli Stati Uniti è vittima di un maltrattamento prima dei 18 anni di età, sia esso abbandono o abuso fisico o psicologico» afferma l’autore, che poi prosegue elencando le differenze più fini osservate nel corso dell’analisi. La prevalenza cumulativa di maltrattamenti è più elevata nelle ragazze che nei ragazzi (13% vs 12%) e nei neri rispetto alle altre etnie/razze (20,9% contro il 10,7% dei bianchi). E il rischio di subire maltrattamenti è più alto nei primi anni di vita: il 5,8% dei bambini ne è infatti vittima entro i 5 anni di età.

«Maltrattare un bambino ha enormi conseguenze negative di tipo psicologico, fisico e sociale: salgono per le piccole vittime i rischi di obesità, di problemi di salute, di tentativi di suicidio e anche di comportamenti criminali» spiega Wilderman, che poi conclude: «Per avere stime reali del numero di bambini maltrattati prima della maggiore età è importante tenere presente che non basta valutare i tassi annuali di maltrattamento, che – come dimostrano i risultati del nostro studio – rischiano di portarci a stime in difetto».

(Fonte: «Doctor 33»)
(Approfondimenti: http://archpedi.jamanetwork.com/article.aspx?articleid=1876686)

Un computer ha superato il test di Turing

9 giugno 2014

“Propongo di considerare la seguente questione. ‘Le macchine sono in grado di pensare?’. Si dovrebbe iniziare con le definizioni dei significati dei termini ‘macchina‘ e ‘pensiero‘”. Scriveva così Alan Turing, il leggendario pioniere dell’informatica, oltre sessant’anni fa. E, naturalmente, aveva pronta una soluzione. “Si può descrivere una nuova forma del problema in termini di un gioco che chiamiamo ‘gioco dell’imitazione’. Si gioca in tre, un uomo (A), una donna (B) e un interrogatore (C ) […]. L’interrogatore è in una stanza a parte rispetto agli altri due. Lo scopo del gioco per l’interrogatore è di determinare chi tra A e B è l’uomo e chi è la donna. Li conosce solo come X e Y, e alla fine del gioco può dire ‘X è A e Y è B’ oppure ‘X è B e Y è A’”. Perché l’interrogatore non possa aiutarsi ascoltando il tono della voce o la calligrafia, le risposte di A e B dovrebbero essere scritte a macchina.

“Ora facciamoci la domanda: cosa succederebbe se una macchina prendesse il posto di A? L’interrogatore sbaglierebbe con la stessa frequenza di errore di quando il test è eseguito da un uomo e una donna? Queste domande sostituiscono la domanda originale: le macchine sono in grado di pensare?”.

La risposta, finora, era un secco no. Nessuna macchina è mai stata capace di ingannare più di un terzo degli interrogatori umani. Finché non è arrivato Eugene Goostman, un computer – o meglio un cleverbot, cioè un programma in grado di sostenere conversazioni – messo a punto da Vladimir Veselov e Eugene Demchenko. Gootstman, in quella che è già stata definita “pietra miliare nella storia dell’informatica”, è riuscito a superare il test di Turing, convincendo il 33% dei giudici che fosse un ragazzo di 13 anni. È successo davanti a una platea d’eccezione, la Royal Society di Londra, “la casa della scienza inglese, la scena dei più importanti avanzamenti scientifici della storia”, ha commentato Kevin Warwick, della University of Reading.

Eugene Goostman, in realtà, era già andato vicino all’impresa. Già vincitore del premio Loebner nel 2005, nel 2012 era riuscito a convincere il 29% dei suoi interrogatori che fosse un essere umano. Un ottimo risultato, ma ancora insufficiente per cantare vittoria. Stavolta non c’è stata storia: nel corso delle 150 conversazioni sostenute, risposta dopo risposta, Eugene ha stracciato i suoi quattro concorrenti e ha strappato il consenso a più di un terzo dei giudici.

Uno di loro, Robert Llewellyn, ha twittato: “Il test di Turing è stato incredibile. 10 sessioni di 5 minuti, 2 schermi, un essere umano, una macchina. Ho indovinato quattro volte. Piccolo robot intelligente!”. “Annunciamo con estremo orgoglio”, ha detto Warwick, “che, per la prima volta al mondo, è stata superata la prova di Alan Turing”. L’evento è avvenuto in concomitanza con il sessantesimo anniversario della morte dello scienziato, che si suicidò dopo essere stato condannato alla castrazione chimica a causa della sua omosessualità.

In ogni caso, non mancano gli scettici. Il fatto che Gootsman simuli un ragazzo di 13 anni non madrelingua inglese , per ammissione dei suoi stessi creatori, “rende perfettamente ragionevole supporre che non sappia molte cose”. E potrebbe essere stato questo, più che la reale intelligenza del bot, a confondere i giudici. “Tecnicamente è giusto”, commenta io9, “ma fa un po’ meno impressione, dal punto di vista cognitivo. Il computer non sta pensando davvero: è un simulatore sofisticato di conversazioni umane”. Scusate se è poco. Sandro Iannaccone (Fonte: «Wired»)

L’eutanasia è diventata legge in Quebec

11 giugno 2014

Il suicidio assistito è diventato legge in Quebec: la prima regione canadese ad autorizzare un medico a dare la morte a un paziente. Ma, all’indomani del passaggio della controversa misura, il governo di Ottawa preannuncia ricorsi. Nonostante la regione francofona abbia inquadrato la legge come una riforma della “sanità”, le autorità federali ne hanno immediatamente sottolineato le implicazioni penali, che cadono sotto la loro giurisdizione.

«Il codice penale proibisce il suicidio assistito e l’eutanasia ed è posizione del nostro governo che questi limiti sono una tutela necessaria a tutti i cittadini, soprattutto i più vulnerabili», ha dichiarato la portavoce del ministro alla Giustizia canadese Peter MacKay. Il ministero ha anche evidenziato che nel  2010 una larga maggioranza di parlamentari canadesi votarono “no” alla decriminalizzazione dell’eutanasia e del suicidio assistito, fornendo «una chiara espressione della volontà democratica dei legislatori su questo tema». È chiaro dunque che nei prossimi 18 mesi, prima che la legge entri in vigore, la costituzionalità della misura verrà chiamata in causa, se non dalla stessa Ottawa, di certo da vari gruppi della società civile.

L’associazione Living with dignity, vivere con dignità (il testo della legge invoca la “morte con dignità”) ha già assicurato un ricorso legale, così come un gruppo di medici di Montreal, la Coalizione di dottori per la giustizia sociale. Ed è proprio agli operatori sanitari, che, in caso di ratifica, saranno chiamati a mettere in pratica «l’aiuto medico a morire», si sono rivolti i vescovi del Quebec in una accorata lettera aperta. «Esprimiamo la nostra solidarietà e il nostro sostegno a tutti coloro che operano nel settore delle cure palliative – scrive a nome della conferenza episcopale regionale il suo presidente, Pierre-André Fournier – sperando che vengano presto offerte in tutte le regioni del Quebec. Sentiamo Papa Francesco dire: “Non vi lasciate rubare la speranza”. E a chi di voi sarà confrontato con domande di eutanasia, auguriamo la forza e il coraggio di invocare il diritto all’obiezione di coscienza». I presuli assicurano anche la loro comprensione «dell’angoscia e del dolore di coloro che hanno sentito un loro caro chiedere la morte durante una difficile agonia», e ribadiscono che in quel caso la risposta di una società civile e compassionevole così come della medicina devono essere le cure palliative.

La nuova legge autorizza i medici del Quebec a uccidere per iniezione letale i pazienti maggiorenni che «soffrono di una malattia terminale, oppure che sono debilitati e in costante e insopportabile stato di sofferenza fisica o mentale», si legge nel testo: una definizione che è stata criticata come troppo vaga e carica del potenziale di abusi.

Molti esperti legali vi vedono infatti forti similitudini con la legge belga sull’eutanasia, che è stata gradualmente estesa ai minori e a chi soffre di depressione. Lisa D’Amico, ad esempio, una donna di 48 anni di Montreal affetta da tempo da paralisi cerebrale, teme che l’inadeguatezza dei servizi sociali offerti ai disabili in Quebec la ponga in una posizione di estrema vulnerabilità. «Temo che se la mia salute degenererà, mi troverò spinta verso l’eutanasia – dice –. Finché i medici non mi daranno delle alternative valide, non è giusto che abbiano il potere di uccidermi».

Elena Molinari
(Fonte: «Avvenire»)

Cure compassionevoli. Corte europea diritti dell’uomo: «Non sono un diritto. Servono evidenze scientifiche»

11 giugno 2014

L’accesso alle cure compassionevoli non è un diritto, ma deve essere supportato da evidenze scientifiche. Ad affermarlo è la Corte europea per i diritti dell’uomo (ECHR), nella sentenza che spiega le ragioni della bocciatura pronunciata dalla stessa Corte lo scorso 28 maggio contro il metodo Vannoni. La Corte, infatti, ha respinto il ricorso di un cittadino italiano la cui figlia è affetta dall’adolescenza da una patologia cerebrale degenerativa e che chiedeva di poter far accedere la figlia al metodo Stamina. La richiesta era già stata respinta dal Tribunale di Udine. Una decisione che, secondo il ricorrente, era lesiva del diritto alla vita e anche discriminatoria, perché per casi simili a quello di sua figlia altri tribunali italiani avevano autorizzato l’accesso al trattamento. La Corte europea ha respinto il ricorso del cittadino italiano affermando che l’interdizione per la paziente al “metodo Stamina”, prevista dal tribunale, perseguiva l’obiettivo legittimo di proteggere la salute ed era proporzionata a questo scopo. I giudici hanno stabilito che il caso è stato adeguatamente ponderato e la decisione debitamente motivata e non arbitraria. Secondo la Corte europea quindi la paziente non è stata affatto discriminata, anche se alcuni Tribunali italiani hanno permesso il medesimo trattamento per patologie simili.

A rilanciare la notizia l’11 giugno è l’Agenzia italiana del farmaco (Aifa), spiegando che la decisione della Corte europea dei diritti dell’uomo “rappresenta un ulteriore riconoscimento della validità dell’operato dell’Agenzia Italiana del Farmaco. L’Aifa nasce per garantire l’accesso al farmaco e il suo impiego sicuro e appropriato come strumento per la protezione e la promozione della salute e opera con l’unico obiettivo di tutelare la salute dei cittadini. Ed è proprio per perseguire questo scopo che l’Agenzia ha ordinato nel maggio del 2012 la sospensione delle somministrazioni a base di cellule staminali da parte della Stamina Foundation presso l’Azienda Ospedaliera “Spedali Civili di Brescia” a causa del mancato rispetto delle normative poste a salvaguardia della salute dei pazienti”, conclude l’Aif

(Fonte: «Quotidiano Sanità»)
(Approfondimenti: http://www.quotidianosanita.it/allegati/create_pdf.php?all=665452.pdf)

 Nel mondo sfruttati 168 milioni di bimbi

11 giugno 2014

Non si arresta, nel Terzo millennio, lo scandalo del lavoro minorile. Sono 168 milioni i bambini lavoratori nel mondo. Di questi, 85 milioni hanno un’età compresa tra i 5 e i 17 anni e svolgono attività pericolose che avranno conseguenze sulla loro salute, la loro sicurezza e il loro sviluppo. A rendere noti i dati è l’Organizzazione Internazionale del Lavoro (Ilo), in occasione della Giornata mondiale contro il lavoro minorile che si tiene il 12 giugno. Le cifre, raccapriccianti, sono relative all’anno 2012 e vengono rilanciate anche dall’Unicef.

In termini assoluti, la regione Asia-Pacifico registra il maggior numero di bambini lavoratori di età compresa tra 5 e 17 anni (77,7 milioni), rispetto ai 59 milioni dell’Africa Subsahariana e ai 12,5 milioni dell’America Latina e Caraibi.

L’Africa subsahariana ha la più alta incidenza di lavoro minorile, con un bambino lavoratore su cinque.

Tra i bambini lavoratori di età compresa tra 5 e 17 nel 2012, il 59% è stato impiegato nel settore agricolo, il 32% nei servizi (di cui il 6,9% nel lavoro domestico) e il 7,2% nell‘industria. I maschi coinvolti in attività pericolose sono più numerosi (55 milioni) delle ragazze (30,3 milioni); i ragazzi della fascia più alta di età (15-17 anni) rappresentano il 55% (47,5 milioni) di tutti coloro che sono coinvolti in attività pericolose.

Tra i Paesi in cui la situazione è più allarmante c’è il Burundi: secondo l’Unicef, un bambino su cinque viene sfruttato nei campi o, ancora più spesso, usato come domestico. Nella capitale Bujumbura è in atto un progetto della Fondazione Avsi e dell’associazione locale Giryuja per restituire ai bambini il diritto all’educazione. “Si passa da semplici campagne di comunicazione in radio e tv, fino ad attività dirette di tutela dei bambini coinvolti” spiega Monica Treu, responsabile dei progetti Avsi in Burundi. “Svolgiamo corsi di alfabetizzazione per i domestici bambini e per i bambini dai 16 e 18 anni, oppure i programmi di reinserimento scolastico per i più piccoli”.

L’Unicef dedica la Giornata 2014 al Bangladesh, dove i 26 milioni di bambini vivono sotto la soglia di povertà e solo il 37% dei nati viene registrato. Sono circa 4,5 milioni i bambini sfruttati in settori ad alto rischio come l’edilizia e la raccolta dei rifiuti. “Tutte queste attività comportano devastanti conseguenze in termini di salute e sopravvivenza”, sottolinea il presidente di Unicef Italia Giacomo Guerrera.

(Fonte: «Avvenire»)

Riusciremo a vivere per sempre?

11 giugno 2014

Intervista con il bioinformatico e filosofo Roman Brinzanik che con Tobias Hülswitt ha curato “Werden wir ewig leben?” (“Riusciremo a vivere per sempre?”) edito per la casa editrice tedesca Suhrkamp, che raccoglie 14 interviste con biologi, bioeticisti e umanisti sul tema dell’immortalità.

Perché avete deciso di raccogliere delle interviste su un tema così specifico come quello dell’estensione del tempo di vita e dell’immortalità?

Il tema dell’estensione del tempo di vita è il leitmotiv del libro. Il mio scopo era quello di parlare del carattere sociale della scienza, ovvero il modo in cui scienza e società entrano in relazione e di come la scienza cambia la vita degli individui e quella della società. La questione dell’estensione del tempo di vita è interessante perché riguarda ogni individuo e perché permette di parlare di molte cose, ad esempio di filosofia esistenzialista, di filosofia politica, di epistemologia, del sistema pensionistico, di come le generazioni convivono, di giustizia globale, di sanità pubblica, o di cosa intendiamo per “progresso”.

Una questione che interessa tutti dunque?

Con questo libro volevamo ottenere una reazione emotiva degli intervistati e dei lettori. L’abbiamo fatto con l’idea di raddoppiare il tempo di vita media delle persone. Nelle società ricche dell’Occidente l’aspettativa di vita è di 80 anni; immaginiamo che attraverso la tecnologia biomedica sia possibile raddoppiarla.

È una prospettiva che di istinto suscita reazioni emotive. Alcune persone mostrano entusiasmo, altre pensano che sia terribile, innaturale o disgustoso. In una delle interviste, Ray Kurzweil sostiene la possibilità di prolungare la vita all’infinito, mentre il teologo gesuita Friedhelm Mennekes vede invece la morte come una speranza viva e come un orizzonte. In un’altra intervista ancora, Hans R. Schöler, direttore dell’Istituto di Biomedicina Molecolare del Max Planck Institute di Münster, mostra i limiti pratici e metodologici di estendere la vita oltre un certo limite, e sostiene che sarebbe il caso di valutare anche costi e benefici dell’impatto di certe tecnologie sull’esistenza umana.

Kurzweil auspica davvero un’estensione della vita e parla addirittura di immortalità. L’argomento a sostegno di questa ipotesi sostiene che lo sviluppo tecnologico procede in maniera tanto veloce che nei prossimi anni la tecnologia sconfiggerà l’invecchiamento. Per ogni anno che passa ci sarebbe dunque più possibilità di rimanere immortali. Ma credere nell’immortalità è un pensiero quasi religioso. È totalmente basato sulla speranza, perché oggi non possiamo rispondere alla domanda “vivremo per sempre?”. Da un punto di vista scientifico non credo sia possibile rispondere. Né positivamente né negativamente. Hans Schöler è scettico perché ci sono vincoli e limiti che derivano da quanto saremo capaci di controllare i processi biologici dell’invecchiamento.

È strano che ci siano persone che sostengono il raggiungimento dell’immortalità…

Non credo nell’immortalità. Ma sarei sorpreso se l’aspettativa di vita non crescesse come è successo negli ultimi 150 anni. La demografia ci mostra che a metà del XIX secolo l’aspettativa di vita, che sarebbe una media statistica, era di 40 anni. Da allora è iniziata a crescere. I demografi hanno raccolto i dati di mortalità dell’Occidente più ricco.

La rappresentazione grafica del Paese con la media migliore ci mostra una retta crescente che parte dalla metà del XIX secolo per arrivare a oggi. Per ogni decade l’aspettativa di vita aumenta di due, tre anni. Ed è un andamento privo di oscillazioni, che continua a crescere. Ci si potrebbe chiedere da dove proviene questo aumento dell’aspettativa di vita, visto che si tratta di un numero aggregato.

A metà del XIX secolo si iniziò a ridurre la mortalità infantile che era molto alta. In quel periodo molte persone morivano poco dopo la nascita a causa delle malattie infettive. Dunque a partire dalla metà del XIX secolo i più grandi progressi riguardarono neonati e adolescenti. Ma poi, all’inizio del XX secolo, la capacità di curare le malattie infettive ha riguardato anche i gruppi di età media. I demografi ci mostrano che in questi ultimi decenni le aspettative di vita continuano a crescere, e che i miglioramenti riguardano i gruppi di età più avanzata.

I demografi ci dicono che tra i gruppi di età avanzata la morte è stata già posticipata. James W. Vaupel, direttore dell’Istituto Demografico del Max Planck Institute di Rostock, ha mostrato che i progressi più grandi sono stati fatti nei gruppi di età avanzata, dove l’insorgenza delle malattie degenerative è più alta. Ad esempio, le persone più anziane possono prendere dei farmaci per ridurre la pressione arteriosa e non morire per disfunzioni del sistema cardiovascolare. Altre malattie come la demenza, i tumori, il diabete, anche se non sono ancora completamente guaribili sono comunque curate. Viviamo già nel futuro. L’arco di vita è già stato esteso. Le persone che vivono oggi sono biologicamente più giovani di quelle che cento anni fa avevano la stessa età, perché abbiamo cure sanitarie dalla nascita, una buona alimentazione, benessere sociale, condizioni igieniche, ecc., tutti fattori che ci aiutano a vivere più a lungo e a rimanere giovani.

Hans-Ulrich Treichel ha mostrato che l’abolizione della morte ci potrebbe facilmente portare ad una depressione cosmica. Cosa ti preoccupa dell’estendere il tempo di vita umano?

Mi preoccupa la questione della giustizia. Sarebbe orribile pensare a un piccolo gruppo di persone capace di scegliere deliberatamente la lunghezza della loro vita, di terminarla o estenderla a proprio piacimento. In uno scenario del genere, reso possibile dai mezzi tecnologici, un gruppo di persone può permettersi di usare queste tecnologie, mentre tutti gli altri ne sono esclusi. Ci sarebbero dunque due classi di persone: quelle veramente vecchie e le persone che vivono poco. Pensare a questo scenario ci permette di capire meglio anche il presente, perché se guardiamo alla situazione mondiale, questo futuro lo stiamo già vivendo.

Abbiamo un’aspettativa di vita già spaccata in due: nel mondo occidentale un’aspettativa di vita di ottanta anni, mentre in Malawi è di 40 anni e in Russia, dopo la caduta dell’Unione Sovietica, tra gli uomini è scesa da 70/75 anni a 60/65 anni. I cambiamenti nell’aspettativa di vita accadono per lo più per questioni legate alla giustizia sociale.

Chi sarà capace di usare queste tecnologie quando saranno disponibili?

Si potrebbe anche pensare alla questione della gerontocrazia, che è una questione attuale. Immaginiamo delle persone che diventano così vecchie da bloccare tutte le posizioni dei consigli di amministrazione, della dirigenza dello Stato, delle società private, così da poter poi controllare tutti i lavori migliori, ad libitum. Cosa ne sarebbe delle persone più giovani e delle generazioni che verranno? Se queste persone che hanno i posti di lavoro migliori non vanno in pensione, non ci sarà spazio per i più giovani. Inoltre estendendo il tempo a disposizione per acquisire potere, cresce anche il loro potere. Questo scenario riguarda anche il nostro presente.

Lo scrittore Treichel, che sostiene che abbiamo bisogno di un tempo biologico confinato per poter avere degli obiettivi da raggiungere, e che l’immortalità porterebbe alla fine dell’arte e ad una depressione cosmica, si è comunque mostrato entusiasta della possibilità di vivere fino a 400 anni; ci ha risposto: “va bene, fantastico! Perché no? Poi sarà sempre possibile morire, no?”.
Personalmente io non avrei problemi a raddoppiare il mio arco di vita. Ma dipende anche da come vanno le cose. Giusto? Se immagino di arrivare ad 80 anni in buona salute e senza soffrire, perché dovrei pensare che è venuto il “tempo di andare”? Non ci sarebbero ragioni per pensare ad una cosa del genere.

Una questione che riguarda la relazione tra estensione dell’arco di vita e qualità della vita…

In questo caso quantità e qualità vanno a braccetto. Se si riesce a mantenere una certa qualità di vita, molte delle persone con cui ho parlato credo che accetterebbero la proposta di estendere la loro esistenza. Mentre ho il sospetto che quelle che hanno rifiutato la proposta non ci abbiano pensato bene, e che ad 80 anni potrebbero cambiare idea.

Flavio D’Abramo
(Fonte: «Scienza in Rete»)
(Approfondimenti: http://www.suhrkamp.de/buecher/will_we_live_forever_-roman_brinzanik_26030.html?d_view=english)

Esperti e pazienti insieme per migliorare salute e sanità

14 giugno 2014

«I pazienti che hanno sperimentato di persona la malattia e che utilizzano le strutture sanitarie hanno molto da insegnarci» afferma Tessa Richards, Patient partnership editor, dalle pagine della rivista «British medical journal». E parte proprio da questo presupposto l’iniziativa della prestigiosa rivista inglese studiata per incoraggiare medici e pazienti a creare una stretta collaborazione verso una salute migliore e una sanità più efficiente. «Già un anno fa abbiamo costituito un gruppo formato da pazienti e medici che ci aiutasse a capire quali strade seguire per mettere in atto la “rivoluzione del paziente” alla quale puntavamo già da tempo» prosegue Richards autrice assieme a Fiona Godlee, editor in chief di Bmj, di un editoriale dedicato all’iniziativa.

«E in questo periodo di lavoro insieme, i membri del gruppo ci hanno stimolato, provocato, indirizzato e supportato portandoci a grandi cambiamenti nel nostro processo editoriale» dicono le autrici che poi descrivono alcuni dei punti principali della strategia alla base della partnership medico-paziente.
«Per prima cosa abbiamo incluso i pazienti nel processo di peer review degli articoli di ricerca inviati alla rivista, certi del fatto che il loro contributo sia davvero importante e abbiamo anche chiesto agli autori di segnalare l’eventuale contributo del paziente agli studi» dice Richards che ricorda anche che l’iniziativa vuole portare a una ricerca di tipo collaborativo tra i medici e i pazienti. «Vogliamo far sentire la vera voce dei pazienti e non solo quella di piccole minoranze e anche per questo motivo continueremo a pubblicare punti di vista personali, cercando allo stesso tempo di allargare il network per mostrare anche punti di vista collettivi» spiegano le autrici.

Tra le altre iniziative promosse dalla rivista sono previste inoltre la partecipazione dei pazienti agli incontri dei comitati decisionali interni, il sostegno al controllo o alla condivisione dei dati medici personali con il paziente e, non ultimo, il sostegno al diritto di tutti alla salute. «Questa alleanza è semplice da descrivere a parole, ma difficile da realizzare. Servono rispetto reciproco e comprensione del punto di vista del paziente e si tratterà di modificare la strategia anche in base alle valutazioni dei suoi effetti» afferma Richards che poi conclude: «Siamo davvero entusiasti di fronte alle potenzialità del progetto e speriamo che i lettori lo siano altrettanto».

(Fonte: «Doctor 33»)
(Approfondimenti: http://www.bmj.com/content/348/bmj.g3726; http:/dx.doi.org/10.1136/bmj.g3726)

Sintesi o creazione? Le nuove frontiere della biologia sintetica. A colloquio con Giuseppe Novelli e Carlo Alberto Redi

16 giugno 2014

I ricercatori dello Scripps Research Institute de La Jolla a San Diego, in California, hanno appena messo a punto un organismo semi-sintetico, un batterio di Escherichia coli, il cui DNA contiene anche due ‘nuove’ basi genetiche, sintetizzate in laboratorio e inesistenti in natura. Queste basi, dunque, non appartengono al quartetto noto (Adenina, Timina, Citosina e Guanina): si tratta delle molecole d5SICS e dNaM. Il batterio, inoltre, è stato in grado di replicarsi in maniera più o meno normale (per ulteriori dettagli sulla ricerca vedere l’approfondimento).

Lo studio, guidato dal professor Floyd E. Romesberg e pubblicato circa un mese fa sulla prestigiosa rivista scientifica «Nature» (A semi-synthetic organism with an expanded genetic alphabet, doi:10.1038/nature13314), che tra l’altro gli ha dedicato la sua copertina, ha conquistato rapidamente il ‘palcoscenico’ scientifico e mediatico e sta riaccendendo il dibattito sulla biologia sintetica e sulle sue potenzialità di ricerca.

Infatti, la sintesi di questo ‘nuovo’ batterio – capace di replicarsi – non solo rappresenta un risultato significativo dal punto di vista scientifico, ma porta con sé una serie di implicazioni etico-filosofiche, legate alla possibilità di ottenere organismi, anche molto piccoli – come in questo caso, dato che il batterio è delle dimensioni di frazioni di micrometro -, la cui impalcatura genetica, cioè la struttura più intima di ogni essere vivente, contiene elementi sintetizzati in laboratorio.

Abbiamo parlato della questione con il professor Giuseppe Novelli, ordinario di Genetica Medica presso l’Università degli Studi di Roma Tor Vergata e Rettore della stessa Università, e con il professor Carlo Alberto Redi, biologo e ordinario di Zoologia presso l’Università degli Studi di Pavia. Il professor Redi, inoltre, discuterà di questo argomento, insieme ad altri esperti (il genetista Edoardo Boncinelli, il ricercatore Diego Di Bernardo, il giornalista scientifico Sergio Pistoi, il giurista Amedeo Santosuosso e il giornalista Federico Pedrocchi), durante l’incontro “Quasi artificiale. La vita al tempo della biologia sintetica”, il prossimo 17 giugno alle ore 18 presso il Teatro Studio Melato a Milano; l’incontro è organizzato da Fondazione Sigma-Tau e Fondazione Telethon, con il sostegno non condizionato dell’Università Vita-Salute San Raffaele e Università di Pavia.

Il nostro colloquio parte dall’innovazione del risultato scientifico, per il quale il processo avviene per la prima volta in vivo e non in vitro.  “L’importanza è legata al fatto che per la prima volta un DNA sintetico è stato inserito in una cellula dove si è replicato, cioè è stato riconosciuto dal sistema di duplicazione dei viventi e quindi non distrutto”, ha spiegato il professor Novelli. “Per la prima volta l’uomo ha sintetizzato un nuovo DNA (anche se una quota moto piccola) che è stato accettato da una cellula vivente. Questo DNA non è stato isolato da un altro vivente, smontato e rimesso, ma costruito in laboratorio con l’aggiunta di basi azotate (gli elementi elementari del DNA) non presenti in natura”.

Nella storia della biologia sintetica, il primo passo fu compiuto da J. Craig Venter, “che per primo riuscì a ricostruire una cellula vivente di lievito con pezzi di DNA assemblati in laboratorio aggiungendo pezzo dopo pezzo come un lego”, prosegue Novelli. “Questa tecnologia è di grande interesse perché l’uomo non solo manipola, modifica, taglia e cuce il DNA ma ne riproduce uno ‘nuovo’ attraverso la sintesi chimica e non biologica, modificando anche il codice della vita che conosciamo da qualche miliardo di anni”. “L’organismo di Craig Venter è in grado di digerire gli idrocarburi pesanti utile per liberare le maree nere”, aggiunge Carlo Alberto Redi.

Ma oggi la biologia sintetica subisce una continua evoluzione. “Grazie a una serie di avanzamenti delle conoscenze scientifiche, dall’ingegneria genetica alla nanotecnologia, la biologia sintetica, e più in generale le scienze della vita, sono in grado non solo di descrivere il vivente, che è quello di cui da sempre si occupa la biologia quale disciplina storica dell’ontogenesi degli individui, ma anche di sintetizzarlo”, ha spiegato il professor Redi. “È bene sottolineare che si tratta di un processo di sintesi e non di creazione. In pratica, la ricerca in questo settore è in grado di sintetizzare nuovi organismi, impiegando quello che già è il vivente: un po’ come con il lego, come se si costruisse un palazzo i cui mattoncini sono rappresentati da ciò che è vivente e già esiste in natura. Nessuno sta creando la vita, si sta replicando quello che è in natura”.

Un concetto cruciale, secondo il professor Redi, che è alla base di tutte le considerazioni successive. “Sulla base di questo, giuristi, filosofi e studiosi di etica, in maniera corretta potranno dirci quali regole adottare per i brevetti, quale atteggiamento assumere rispetto alla definizione di umano e ‘post-umano’”, prosegue Redi.

Anche il professor Novelli sottolinea il concetto per il quale “non si tratta di creare la vita perché essa, come diceva Dulbecco, è una cosa troppo difficile da creare in laboratorio, ma questo risultato fa capire che la vita è DNA e senza DNA non ha senso”, spiega Novelli. “Questa idea rimarca come l’evoluzionismo sia alla base di tutta la biologia e non sia in discussione, chi lo mette in discussione non conosce la biologia”.

Rispetto ai prossimi passi della ricerca scientifica, gli autori della ricerca riferiscono che tali passi potranno riguardare lo studio per dimostrare la trascrizione di questo nuovo alfabeto del DNA nell’RNA e la possibilità di codificare nuove proteine; un’altra applicazione riguarda poi nanomateriali con particolari proprietà.

Ma a cosa potrebbe portare questa ricostruzione dell’impalcatura del vivente? “Ricomponendo questi mattoncini in un modo nuovo, adatto a rispondere alle esigenze attuali, si potrebbero ottenere nuovi organismi, potenzialmente in grado di digerire la plastica, o metabolizzare particolari sostanze oppure di produrne di nuove, come ad esempio possibili farmaci. Insomma l’idea di base è quella di poter riorganizzare le proprietà del vivente per rispondere a esigenze nuove che attualmente il pianeta presenta”, spiega Redi.

“Tutte le grandi scoperte dell’uomo sembrano all’inizio senza applicazione, ma poi diventano fondamentali per la nostra vita. La decodificazione del DNA nel 2000 sembrava una cosa inutile e costosa, oggi su di esso si basano la medicina personalizzata e la medicina di precisione, cioè la medicina di domani, anzi di oggi!”, conclude Novelli. “Non è possibile prevedere tutte le applicazioni, ma certamente questo risultato aprirà ulteriormente la mente dell’uomo all’innovazione e alla scoperta, che rappresentano gli ingredienti essenziali della vita”.

Viola Rita
(Fonte: «Quotidiano Sanità»)
(Approfondimenti: «http://www.quotidianosanita.it/scienza-e-farmaci/articolo.php?approfondimento_id=5236»)

Fiumi e laghi europei “assediati” dai pesticidi

17 giugno 2014

Il 14% dei siti analizzati presenta livelli di tossicità letali per gli organismi che li popolano. I siti in questione sono i fiumi e i laghi di tutta Europa dai quali i ricercatori hanno prelevato 4.000 campioni riscontrando un serio pericolo per le acque. I risultati, raccolti da un gruppo tedesco del Centro per la Ricerca Ambientale Helmholtz e pubblicati sulla rivista dell’Accademia delle Scienze degli Stati Uniti («Pnas»), suggeriscono che questo tipo di inquinamento è stato finora sottostimato.

I danni all’ambiente provocati dalle sostanze chimiche organiche, come pesticidi e una gran quantità di prodotti chimici industriali, sono ben noti ma tutti gli studi realizzati finora ne hanno esaminato le conseguenze solo su piccole scale, singoli ecosistemi come boschi o fiumi.

Per esaminare gli effetti di questa tipologia di inquinanti su scale più grandi, ossia a livello continentale, i ricercatori hanno analizzato la qualità delle acque di oltre 4.000 siti e quantificato il rischio che rappresentano su molti organismi differenti, ossia pesci, invertebrati e alghe.

Hanno così scoperto che ben 223 di questi siti risultano inquinati da pesticidi e idrocarburi. Secondo gli autori nel 14% dei casi si tratta di inquinamenti che risultano letali a ogni tipo di organismo vivente e nel 42% dei casi provocano effetti cronici all’ambiente. Lo studio conclude inoltre che molte delle analisi ambientali condotte finora erano relative solamente a regioni ristrette oppure volte all’identificazione di singoli inquinanti. Una metodologia che avrebbe di fatto sottostimato i rischi ambientali mentre i nuovi dati dimostrano sempre più la necessità di adottare nuove misure antinquinamento più stringenti.

(Fonte: «La Repubblica»)
(Approfondimenti: http://www.ufz.de/index.php?en=32923)

L’arma perfetta contro la malaria. Cambiare sesso alle zanzare

18 giugno 2014

Un milione di morti all’anno. E il 40% della popolazione mondiale vive in zone a rischio. Tuttavia sono ancora poche le strategie efficaci messe in atto per prevenire la malattia. Scomoda protagonista è la malaria, una patologia seconda solo alla tubercolosi per numero di decessi. Da anni gli scienziati sono all’opera nell’intento di trovare una soluzione a questa piaga. Soluzione che oggi, grazie all’ingegneria genetica, sembra essere più vicina. In uno studio pubblicato su «Nature Communications», opera di un team italo-inglese dell’Università di Perugia e dell’Imperial College di Londra, un gruppo di scienziati ha dimostrato che è possibile fermare la malattia e la strage che continua a provocare. In che modo? Alterando il sesso delle zanzare.

Come spiega il professor Andrea Crisanti – uno dei principali autori dello studio – «la malaria è una malattia debilitante e spesso fatale. Ecco perché abbiamo bisogno di trovare nuovi modi per affrontarla». La patologia – com’è noto – è provocata da quattro differenti tipologie di plasmodio, organismi appartenenti al regno dei protisti che si replicano all’interno dei globuli rossi dell’uomo. La forma infettante è chiamata sporozoita ed è presente nelle ghiandole salivari di zanzare femmine appartenenti al genere Anopheles. Ecco perché, con una piccola puntura, può passare facilmente dall’insetto all’uomo, scatenando la malattia.

Il controllo delle infezioni viene effettuato mediante la classica profilassi antimalarica e con alcune strategie collaterali, come la bonifica dei terreni più a rischio e la diffusione delle zanzariere. Tra le contromisure c’è anche l’utilizzo di alcuni insetticidi specifici, efficaci nel breve termine, ma con una grave effetto sul medio-lungo: contribuiscono a selezionare zanzare sempre più resistenti al trattamento stesso. Se la ricerca si è concentrata nello sviluppo di un vaccino, allo stato attuale nessuno risulta ancora disponibile e impiegabile su larga scala.

Tra le possibili alternative, già teorizzate oltre 60 anni fa dal famoso biologo evoluzionista Bill Hamilton, c’è, invece, quella della sterilizzazione di massa delle zanzare. Una possibilità che ora è diventata realtà grazie alla ricerca italo-inglese appena pubblicata. Il team è riuscito infatti nell’impresa di individuare e utilizzare un particolare enzima in grado di danneggiare il cromosoma X esclusivamente durante la produzione dello sperma. In questo modo la progenie delle zanzare geneticamente modificate risulta composta al 95%, azzerando quasi completamente il numero di zanzare femmina, le uniche responsabili della trasmissione della malaria agli esseri umani.

È stato un successo di laboratorio, reso possibile dall’inserimento negli insetti maschi del gene responsabile della produzione dell’enzima capace di alterare il cromosoma X. Ciò significa che l’unica copia di cromosoma sessuale integro in grado di passare alla progenie è l’Y, quello che determina il sesso maschile. «Per la prima volta siamo stati in grado di inibire la produzione di zanzare femmine e questo successo fornisce un nuovo mezzo per eliminare la malattia. In natura, infatti, la proporzione tra progenie maschili e femminili è pressoché paritaria», spiega Crisanti. Secondo gli autori della ricerca, una volta introdotte le zanzare «modificate», i maschi inizieranno a produrre principalmente figli maschi, così come faranno i loro figli, eliminando progressivamente l’intera popolazione femminile (nella più rosea delle ipotesi) già entro sei generazioni.

Attenzione, però, a non cantare vittoria troppo presto. La strada per l’eradicazione resta lunga e questo approccio non deve far dimenticare ciò che è stato fatto finora. La malattia – sottolineano gli esperti chiamati a commentare lo studio – dovrà essere affrontata con più armi. Se quella dei ricercatori italo-inglesi sarà probabilmente la principale, ora la nuova tecnica dovrà essere testata su larga scala. I primi risultati – che a livello sperimentale sono stati ottenuti in un laboratorio capace di ricreare il clima tropicale – saranno disponibili solo tra un paio di anni.

Daniele Banfi
(Fonte:« La Stampa – Tuttoscienze»)

Farmacista Usa denuncia i molti bugs della ricetta elettronica

18 giugno 2014

Negli Stati Uniti la sparizione del supporto cartaceo non ha ridotto gli errori, come si pensava, ma ha piuttosto generato errori più leggibili perché essendo compilate a computer le ricette sono sempre chiare e comunque leggibili, rispetto a quando il farmacista doveva interpretare i geroglifici scritti a mano dal medico. È questo il giudizio di un farmacista americano che sulla rivista «Drug Topics» analizza in dettaglio le problematiche insorte con la diffusione negli Usa della prescrizione elettronica.

Il sistema elettronico è già in vigore da diversi anni e tuttavia gli errori di compilazione non mancano e a volte sono tali da impedire del tutto la spedizione della ricetta. Un problema che ricade sul farmacista, che deve rimandare indietro il paziente senza il farmaco, anche se la colpa non è sua. Il torto in genere è degli uffici prescrittivi: può essere un errore di formazione, che ricade sul provider scelto, o anche un errore da mancato apprendimento, quando un medesimo errore, più volte segnalato dalle farmacie, continua ad essere ripetuto perché gli uffici prescrittivi non tengono conto delle segnalazioni ricevute.

In sintesi l’autore dell’articolo propone alcune soluzioni per correggere gli errori alla fonte ed evitare inutili perdite di tempo per il farmacista e il paziente. In primo luogo si dovrebbe poter comunicare direttamente con l’ufficio prescrittivo, premendo un tasto che invia l’errore, mentre attualmente le segnalazioni sono effettuate via telefono o fax e restano quindi in attesa di risposta. Possibilmente poi l’ufficio che ha ricevuto la segnalazione dell’errore dovrebbe provvedere a correggerlo in tempi brevi. Meglio ancora poi se si potesse intervenire a monte della prescrizione, programmando il software in modo che non consentisse al medico di indicare principi attivi, dosi o confezioni non esistenti in commercio.

L’ideale sarebbe uno scambio reciproco e costruttivo tra farmacisti e fornitori di ricette elettroniche, così da condividere le informazioni necessarie alla preparazione di software capaci di proporre da un lato scelte rigide e corrette e, dall’altro, di acquisire e correggere eventuali errori inviati dalla farmacia.

E.L.
(Fonte: «Doctor 33»)

Melinda Gates: «Niente più fondi per gli aborti»

19 giugno 2014

Cautela: questo l’atteggiamento che molti commentatori invitano ad assumere nei confronti delle recenti dichiarazioni in tema di aborto di Melinda Gates, moglie del magnate Bill e leader, insieme al marito, della Gates Foundation. In un post del blog «Impatient Optimists», datato 2 giugno, Melinda Gates ha infatti affermato che l’organizzazione «ha deciso di non finanziare l’aborto». Sarebbe una vera e propria rivoluzione copernicana per Melinda e consorte, da anni tra i maggiori finanziatori di tutte quelle organizzazioni che fanno del controllo demografico la propria missione.

Quella di Melinda Gates è una retromarcia parziale – l’idea della diffusione planetaria della contraccezione e il concetto di salute riproduttiva restano capisaldi delle politiche promosse dalla fondazione – ma sicuramente va registrata con grande interesse. L’aborto, ha affermato la moglie del fondatore della Microsoft, è un tema da trattare separatamente rispetto a quello riguardante le informazioni che vanno fornite alle donne affinché vivano consapevolmente e in modo sicuro la loro scelta di avere un figlio. Parole che sembrano incrinare il monolite composto dal bionomio salute della donna-aborto tanto caro a Onu e Ue.

Conclude infatti Melinda Gates: «Capisco che il dibattito sull’aborto continuerà, ma confonderlo con il consenso su tante delle cose che dobbiamo fare per mantenere le donne in buona salute è un errore. Abbiamo fatto un grande progresso per le donne sulle cure prenatali, sul fornire i contraccettivi che esse vogliono e sulla promozione di una corretta cura e nutrizione per i neonati, e abbiamo bisogno di andare avanti. L’unico modo per farlo è essere chiari, concentrati e impegnati».

Alla cautela dei primi commenti si sono unite anche voci molto critiche. L’influente sito Daily Beast, in un articolo intitolato «Un appello a Melinda Gates: basta stigmatizzare l’aborto», ha attaccato duramente la moglie di Bill, affermando che ogni otto minuti una donna morirebbe nel mondo a causa di un aborto praticato in condizioni non sicure. Secondo l’articolo, ora la Gates Foundation diventerebbe parte del problema invece di contribuire a risolverlo.

Sul fronte opposto Shenan J. Boquet, presidente di Human Life International, sospetta invece un inganno per il mondo pro-life, poiché Bill e Melinda continueranno a finanziare indirettamente l’aborto attraverso ingenti donativi a organizzazioni come Planned Parenthood.

Lorenzo Schoepflin
(Fonte: «Avvenire»)

Cure all’estero. Corte Ue: «Stato obbligato ad autorizzarle se carente di mezzi di prima necessità»

20 giugno 2014

In forza del diritto dell’Unione, un lavoratore può essere autorizzato a recarsi nel territorio di un altro Stato membro per ricevere cure adeguate al suo stato, e ricevere in tale Stato le prestazioni necessarie come se fosse iscritto al regime previdenziale di detto Stato, con rimborso dei relativi costi da parte dello Stato di residenza. Lo Stato membro di residenza non può negare detta autorizzazione quando l’assistenza di cui ha bisogno il lavoratore ricade tra le prestazioni ricomprese dalla propria normativa e non può essere opportunamente erogata nel proprio territorio in considerazione dello stato di salute del lavoratore e della probabile evoluzione della sua malattia.

A stabilirlo è l’avvocato generale Cruz Villalón della Corte Europea nelle sue conclusioni sul caso della sig.ra Petru, cittadina rumena che soffre di una grave patologia. La Sig.ra Petru, spiega un comunicato della Corte Ue, “in esito a un peggioramento, ha dato luogo al suo ricovero in un istituto specializzato a Timisoara (Romania), in cui si è attestato che il suo stato era così grave da rendere necessario un intervento chirurgico urgente. Durante il periodo di degenza, la sig.ra Petru ha constatato che detto istituto non disponeva di materiali medici di prima necessità ed era saturo, sicché, in considerazione, inoltre, della difficoltà dell’intervento chirurgico al quale doveva sottoporsi, ha chiesto l’autorizzazione ad essere sottoposta all’intervento in Germania. Anche se la sua richiesta è stata respinta, la sig.ra Petru ha deciso di essere operata in Germania. Il costo complessivo dell’intervento è stato di circa 18.000 euro, di cui essa chiede rimborso alle autorità rumene”.

Il Tribunale di Sibiu (Romania), chiamato a decidere la controversia, ha chiesto alla Corte di Giustizia Ue se la carenza generalizzata di materiali medici di prima necessità nello Stato di residenza costituisca una situazione in cui risulti impossibile prestare il trattamento, sicché il cittadino di tale Stato membro possa esercitare il suo diritto ad essere autorizzato a ricevere tale trattamento in un altro Stato membro a carico del regime di previdenza sociale del suo Stato di residenza. “Nonostante la sussistenza di una giurisprudenza della Corte di giustizia in materia, è la prima volta in cui la necessità di ricevere assistenza medica in un altro Stato membro trova giustificazione nella carenza di mezzi dello Stato di residenza, sottolinea la Corte Ue.

Nelle sue conclusioni presentate il 19 giugno, l’avvocato generale Cruz Villalón analizza due distinte questioni: 1) se la mancanza o carenza di mezzi in un centro ospedaliero, in determinate circostanze, possa equivalere a una situazione in cui non è possibile praticare in tempo utile in uno Stato una determinata prestazione sanitaria compresa tra le prestazioni dispensate dal proprio sistema di previdenza sociale e 2) se lo stesso si verifichi quando tali carenze o mancanze nelle strutture sanitarie siano di carattere strutturale.

Dopo aver ricordato che i servizi sanitari, compresi quelli pubblici, costituiscono servizi di carattere economico assoggettati alla libera circolazione dei servizi, l’Avvocato generale sostiene che “gli Stati membri, anche se possono sottoporre ad autorizzazione la prestazione di tali servizi in un altro Stato membro con spese a carico dello Stato di residenza, potranno rifiutare l’autorizzazione solo nell’ipotesi in cui possa conseguirsi tempestivamente nel loro territorio un trattamento identico o che presenti lo stesso grado di efficacia”.

L’Avvocato generale riprende la giurisprudenza in materia segnalando che un paziente di uno Stato membro, iscritto ad un sistema sanitario pubblico, ha il diritto di recarsi in un altro Stato dell’Unione, ponendo le spese a carico del sistema di previdenza sociale del suo Stato di residenza, quando in questo altro Stato, e non nel suo Stato di residenza, possa essere ottenuto tempestivamente un trattamento identico o che presenti lo stesso grado di efficacia. In tal caso, il sistema assicurativo del paziente coprirà le spese sostenute all’estero. Se tali condizioni non sono soddisfatte, il paziente può recarsi all’estero e ottenere il servizio al quale aveva diritto nel suo Stato di iscrizione, potendo però chiedere solo il rimborso al costo previsto in tale Stato e non a quello fatturato nel luogo di prestazione del servizio.

Quanto alla prima questione, l’Avvocato generale sottolinea che, “dal momento che il diritto dell’Unione non opera distinzioni in merito alle ragioni per le quali una determinata prestazione non possa essere praticata tempestivamente, si deve ritenere che la carenza occasionale di mezzi materiali equivalga a una mancanza dovuta a carenze di personale medico”. Conseguentemente, a suo parere, “lo Stato membro è obbligato ad autorizzare la prestazione, in un altro Stato dell’Unione, di un servizio medico compreso nelle prestazioni coperte dal proprio sistema di previdenza sociale, nel caso in cui carenze delle proprie strutture ospedaliere, di carattere congiunturale, rendano effettivamente impossibile la prestazione stessa”.

Per contro, rispondendo alla seconda questione esaminata, l’Avvocato generale ritiene che, “laddove la carenza di mezzi materiali necessari ai fini dell’effettuazione della prestazione sanitaria in questione dipenda da una mancanza strutturale, lo Stato membro non è obbligato ad autorizzare la prestazione, in un altro Stato dell’Unione, di un servizio compreso nelle prestazioni coperte dal proprio sistema di previdenza sociale, sebbene ciò possa comportare che determinate prestazioni sanitarie non possano essere effettivamente praticate. Tale obbligo sussisterà solamente qualora l’autorizzazione non metta in pericolo la sostenibilità economica del suo sistema di previdenza sociale”.

Al riguardo, l’Avvocato generale fa presente che “lo Stato membro che si trovi in tale situazione di carenza strutturale non potrebbe far fronte agli oneri economici derivanti da un’emigrazione sanitaria di massa degli iscritti al proprio sistema di previdenza sociale e sottolinea che uno dei limiti all’esercizio della libera prestazione dei servizi nel settore dei servizi sanitari consiste proprio nel non mettere in pericolo né la prestazione dei servizi stessi né tutti gli sforzi di pianificazione e di razionalizzazione effettuati in tale settore vitale nello Stato di residenza del paziente”.

(Fonte: «Quotidiano Sanità»)

«Chi sbaglia, paga». L’approccio agli OGM in Europa

20 giugno 2014

Quali sono i costi che società e agricoltori pagano a causa della rinuncia alla coltivazione, ma non al consumo, delle piante transgeniche? Questa scelta migliora o peggiora la sostenibilità dell’agricoltura dal punto di vista colturale, ambientale o economico?
Queste sono state alcune delle domande al centro del convegno “Il costo della non scienza in agricoltura”, che si è tenuto il 12 giugno 2014, presso la facoltà di Agraria dell’Università di Milano. L’aula magna gremita di studenti, qualche giovane giornalista e qualche curioso, per l’incontro organizzato da Daniele Bassi e Piero Morandini dell’Università di Milano che hanno invitato due economisti – Graham Brookes, presidente della società di consulenza agraria PgEconomics, e Justus Wesseler, professore di economia agraria dell’Università olandese di Wageningen – per presentare una panoramica dei costi del rifiuto europeo alle biotecnologie alimentari.

Tra le relazioni c’è stata anche quella del giurista Paolo Borghi, dell’Università di Ferrara, che ha cercato di delineare le molteplici contraddizioni in ambito normativo e burocratico a dispetto delle quali si è concretizzato in ambito europeo un bando di fatto delle colture transgeniche, con poche eccezioni, tra cui prevale la Spagna per entità delle superfici coltivate.

Ha iniziato Brookes a mostrare i risultati delle proprie ricerche sull’impatto globale dell’utilizzo delle biotecnologie nell’arco di 16 anni a partire dal 1996, con dati chiari: l’adozione crescente – che nel 2012 ha raggiunto i 160 milioni di ettari coltivati da 17.3 milioni di agricoltori – ha portato un incremento del fatturato pari a 116.6 miliardi di dollari accompagnato da una riduzione nell’uso dei pesticidi pari a 503 milioni di kg.
Analizzando i soli dati del 2012, la riduzione delle emissioni di anidride carbonica è pari a quelle emesse da 12 milioni di automobili. Tali benefici sono dovuti principalmente all’adozione di piante transgeniche resistenti agli insetti e/o agli erbicidi, che hanno un vantaggio diretto nell’aumento delle rese e uno indiretto nel risparmio di fitofarmaci o di costi di coltivazione.

Brookes ha sottolineato come, anche nel caso dell’aumento di utilizzo di erbicidi dovuto alla resistenza di alcune piante infestanti, comunque l’impatto ambientale è stato ridotto rispetto a quello che sarebbe stato se si fossero utilizzate colture convenzionali, concludendo che l’agricoltura europea sta soffrendo un progressivo distacco rispetto ai competitor internazionali con scenari futuri tutt’altro che incoraggianti.

L’INGEGNERIA GENETICA NELLE COLTURE UE

Wesseler ha invece approcciato il problema dal punto di vista decisionale, proponendo un modello matematico per valutare la soglia massima di costi socialmente tollerabili nell’ipotesi di adozione immediata di mais transgenico resistente agli insetti e agli erbicidi e quali viceversa sarebbero i costi e gli eventuali benefici di una adozione posticipata nel tempo, mostrando così come i Paesi europei che rifiutano l’adozione immediata di queste piante che si sono dimostrate migliori della controparte convenzionale stiano eliminando dal processo decisionale una parte consistente di costi (ambientali ed economici).

È stato dunque il turno di Paolo Borghi, che ha mostrato come la seconda direttiva europea (2001/18), sebbene si proponesse esplicitamente di rendere “più efficace e trasparente” il processo decisionale riguardo all’introduzione di prodotti e coltivazioni transgenici, nei fatti è andata addirittura a peggiorare il già farraginoso e a volte insensato approccio della prima direttiva (90/220/CEE).  Borghi ha criticato le direttive mostrando le contraddizioni presenti tanto nelle norme stesse, quanto nell’applicazione burocratica e indifferente a qualsiasi sensata tempistica decisionale. Nel merito, ad esempio, è prevista una individuazione e un conseguente processo di valutazione particolarmente lungo, ripetitivo e costoso, delle piante in base al processo produttivo e non in base alle caratteristiche della pianta che si vuole introdurre, indipendentemente da come sia stata ottenuta – cosa che invece avrebbe senso volendo applicare un ragionevole principio di precauzione che non consideri pregiudizialmente le piante ottenute con le tecniche del DNA ricombinante come a priori più soggette a rischi.
Ma anche prescindendo dal piano della norma – ha continuato Borghi – il caso del richiamo del WTO del 2006, in cui non erano in discussione le norme, ma la loro ragionevole applicazione, ha portato alla luce come la burocrazia europea in tale materia porti a uno stato di non-decisione de facto.

IL COSTO DELLA NON SCIENZA IN AGRICOLTURA

L’ultima relazione è stata quella di Piero Morandini, il quale ha ribadito l’insensatezza, dal punto di vista scientifico, della definizione stessa di “pianta GM”: così come si trova nella normativa europea, la definizione è del tutto arbitraria e anche fuorviante per l’opinione pubblica, che viene portata a credere che le piante etichettate come GM siano le uniche ad avere DNA mutato, mentre in commercio sono presenti da sempre piante il cui DNA è stato modificato attraverso ibridazioni e mutagenesi chimica o fisica, processi che certamente producono mutazioni genetiche ben più estese e meno controllabili di quelle ottenute con le tecniche di transgenesi.

Morandini ha infine messo a nudo tutte le contraddizioni dell’opposizione, esplicitando come tutte le possibili critiche che si possono avanzare contro le piante transgeniche valgono a maggior ragione per le piante convenzionali, oltre a palesare l’ipocrisia che permette di importare ogni anno 4 milioni di tonnellate di soia transgenica per l’alimentazione del bestiame – che serve tra l’altro a produrre prodotti tipici come il parmigiano reggiano – negando al contempo la possibilità di coltivarla.

Il convegno si è chiuso con alcuni interventi da parte degli studenti: alcuni hanno sottolineato come un rinsavimento del mercato europeo potrebbe permettere, incidentalmente, anche un miglioramento delle possibilità dei giovani ricercatori. Altri hanno posto l’accento con sgomento sull’impossibilità ad oggi di trovare un referente politico che abbia il coraggio di andare contro lo zoccolo duro del pregiudizio dell’opinione pubblica.

I relatori – compresi gli ospiti d’Oltralpe – non hanno potuto che confermare come tutti gli esponenti politici si siano mostrati, sia in sede nazionale che internazionale e indipendentemente dall’orientamento di partito, finora più inclini a seguire i sondaggi piuttosto che a guidare i propri elettori oltre le nebbie della disinformazione. I giovani non si sono perduti d’animo e hanno invece accolto l’invito dei relatori a moltiplicare le occasioni di confronto con l’opinione pubblica per costruire insieme una via d’uscita, e forse parte della speranza è stata incoraggiata anche dalla presenza, tra il pubblico, della senatrice Elena Cattaneo.

Marco Furio Ferrario
(Fonte: «Scienza in Rete»)
(Approfondimenti. http://users.unimi.it/morandin/Georgofili/Brookes2014.pdf
http://users.unimi.it/morandin/Georgofili/Wesseler2014.pdf)

Lotta contro la tratta umana: Washington boccia Thailandia e Malaysia

22 giugno 2014

La Thailandia e la Malaysia non hanno fatto abbastanza per rispettare lo standard minimo richiesto nella lotta contro la tratta di esseri umani. Al contrario, in Cina, sono numerosi i passi avanti che sta compiendo Pechino per abolire i campi di lavoro “a scopo rieducativo”. E’ quanto emerge dal rapporto del dipartimento di Stato statunitense, pubblicato il 21 giugno.

Secondo gli osservatori – citati dall’agenzia Reuters e da L’Osservatore Romano – tale valutazione potrebbe contribuire a mettere sotto pressione i rapporti diplomatici di Washington con Bangkok e Kuala Lumpur.

Il dossier viene pubblicato ogni anno dal dipartimento di Stato americano, con l’obiettivo di fare il punto della situazione nei vari Paesi del mondo riguardo la tratta e altre forme di sfruttamento.

L’ambasciatore della Thailandia negli Stati Uniti, Vijat Isarabhakdi, si è detto “deluso” da quanto viene dichiarato nel rapporto, sottolineando che esso non dà il giusto riconoscimento ai “vigorosi sforzi” compiuti dal Governo sul fronte del traffico di esseri umani che hanno registrato “progressi senza precedenti”. Nonostante la valutazione negativa – ha precisato il diplomatico -, Bangkok continuerà a lavorare “fianco a fianco” con gli Stati Uniti per combattere questa piaga.

Riguardo alla Malaysia, invece, il dossier dichiara che il Governo di Kuala Lumpur ha allentato notevolmente gli sforzi per combattere la tratta. Lo dimostra il fatto che nel 2013, rispetto al 2012, vi sono state molte meno inchieste e incriminazioni.

Tra gli altri Paesi finiti nel mirino di Washington figurano anche la Corea del Nord, la Siria e lo Zimbabwe.

(Fonte: «Zenit»)

Pazienti con disturbi psichiatrici: colpevoli ma anche vittime di omicidi

24 giugno 2014

Rispetto alla popolazione generale, i pazienti con malattie mentali hanno un rischio più che raddoppiato di essere vittime di un omicidio, almeno secondo i dati di uno studio svolto in Inghilterra e Galles, pubblicato su «Lancet psychiatry».

«Finora sui media hanno ricevuto molta attenzione gli omicidi commessi dai soggetti con disturbi psichiatrici, ma il loro rischio di essere invece vittime di omicidi e il rapporto con gli autori del crimine sono stati raramente esaminati» spiega Louis Appleby dell’università di Manchester nel Regno Unito e coautore dell’articolo, che assieme ai colleghi ha esaminato i dati tra gennaio 2003 e dicembre 2005 del National confidential inquiry (Nci), un archivio dati su vittime e colpevoli di omicidio in Inghilterra e Galles.

E a conti fatti i ricercatori hanno scoperto che nel triennio di osservazione, 1.496 persone sono state vittime di omicidio, di cui il 6% seguiti dai servizi di salute mentale nell’anno precedente la morte. «Un terzo di essi era stato ucciso da altri pazienti con disturbi psichiatrici che spesso conoscevano la vittima» riprende Appleby, sottolineando che abuso di alcol e droghe e storie di violenze erano comuni tra vittime e carnefici, e che in oltre il 90% dei casi vittime e colpevoli erano seguiti dallo stesso ambulatorio del Servizio sanitario nazionale. «Storicamente la società è più preoccupata dal rischio di violenza dei malati di mente che dalla loro vulnerabilità ad atti violenti» puntualizza il ricercatore, concludendo che un’adeguata valutazione del rischio di restare vittime di omicidi dovrebbe diventare parte fondamentale dell’assistenza clinica in questi pazienti.

E in un editoriale Alyssa Rheingold della Medical university of South Carolina negli Stati Uniti, commenta: «Questi risultati suggeriscono un ruolo tra le vittime di fattori di rischio tra cui l’uso di sostanze, il basso status socio-economico e il tipo di psicopatologia. L’ulteriore esplorazione di queste caratteristiche in relazione al rischio di omicidio è necessaria per sviluppare nuovi modelli di prevenzione».

(Fonte: «Doctor 33»)
(Approfondimenti: http://www.thelancet.com/journals/lanpsy/article/PIIS2215-0366(14)70221-4/abstract
http://www.thelancet.com/journals/lanpsy/article/PIIS2215-0366(14)70272-X/fulltext)

L’estate “assassina” negli Usa. Entro fine secolo possibili 150mila morti per il caldo

24 giugno 2014

Le previsioni del Natural Resources Defense Council (NRDC) americano sono da disaster movie: entro la fine del secolo, il caldo potrebbe provocare la morte di 150 mila americani, residenti nelle 40 città principali degli Stati Uniti. La colpa è da attribuire ai cambiamenti climatici, che lungi dall’essere solo un luogo comune o un topos di conversazione, sono una realtà molto attuale, anche se dai contorni sfocati come un miraggio nel deserto. Dell’argomento se ne è occupato molto seriamente qualche tempo fa il NRDC nel suo rapporto ‘Killer Summer Heat’, dove si spiegava anche di cosa moriranno i poveri americani surriscaldati: colpi di calore, disidratazione, malattie cardiovascolari, respiratorie e renali.
E naturalmente, ad aggravare il quadro contribuisce l’inquinamento atmosferico – ozono e anidride carbonica in testa – che rende ancora più pericolose le giornate calde. La maggior parte dei decessi da caldo sono attesi sulla east coast e negli Stati del Sud, come spiega una mappa interattiva pubblicata sul sito del NRDC.

A rischio, sono in particolare gli anziani fragili e i bambini, ma anche gli atleti della domenica e quelli che, avendo qualche chilo da smaltire, pensano di prendere due piccioni con una fava, correndo nelle ore più calde. “Per quanto possa sembrare un argomento trito e ritrito – afferma il dottor Christopher B. Colwell, Direttore della medicina di emergenza presso il Denver Health Medical Center, in un’intervista rilasciata ieri al New York Times – evidentemente non è abbastanza sentito da attirare l’attenzione della gente, se non quando viene colpita da vicino”.

Con l’età, la capacità che ha il corpo di disperdere calore, viene a ridursi progressivamente; per questo a rischiare di più sono gli anziani, in particolare quelli con scompenso cardiaco o arteriopatia periferica, che non vaso dilatano in maniera efficace. Problemi di vasodilatazione sono presenti anche nei soggetti in trattamento con beta-bloccanti e anticolinergici, mentre antidepressivi triciclici, litio, antistaminici, diuretici, alcol e droghe quali cocaina e amfetamine possono peggiorare gli effetti del caldo. Anche la disidratazione, comune nell’anziano che perde il senso della sete, ma anche nei ragazzi che fanno attività fisica intensa, riduce la possibilità di disperdere calore e pone a rischio di colpi di calore.

Trascorrere l’estate in città espone al rischio di patologie da calore perché genera un fenomeno detto ‘isola di calore urbana’, causato dalla ridotta ventilazione e dal surriscaldamento indotto dal traffico e da asfalto e cemento roventi. Al di sopra dei 37 gradi, il corpo non riesce a disperdere calore in maniera adeguata, a meno che non ci si esponga ad un ventilatore o ad una brezza naturale. Quando l’umidità è troppo elevata inoltre, il sudore, refrigerante naturale per eccellenza, non riesce a disperdere il calore. Gli esperti consigliano dunque di evitare di svolgere attività fisiche intense o di praticare sport al di sopra dei 40 gradi.

Il rischio è in agguato ovviamente anche per i lavoratori. Con la praticità e l’informalità che caratterizza gli americani, il sito dell’Occupational Safety & Health Administration (OSHA) dello U.S. Department of Labor apre con lo slogan “Water. Rest. Shade” (acqua, riposo, ombra) e invita ad avere un piano pronto per le emergenze da calore. Oltre a chiamare il 911 (l’equivalente del nostro 118), vengono indicate le prime misure di soccorso: spostare l’operaio all’ombra, slacciargli i vestiti, bagnare e sventolare la cute, mettere del ghiaccio sotto le ascelle e sul collo; se cosciente, dargli da bere acqua. Ma soprattutto viene sottolineato a caratteri cubitali che “il colpo di calore è un’emergenza medica: chiamare subito il numero delle emergenze”.

Anche il Federal Emergency Management Agency (FEMA), attraverso un sito apposito, afferma lapidario che “il caldo uccide perché spinge il corpo oltre i suoi limiti” e ricorda che la maggior parte delle patologie correlate al caldo sono dovute ad una sovraesposizione alle temperature elevate o ad un eccesso di attività fisica, rispetto all’età e condizione fisica. Di fronte ad un allarme ‘ondata di calore’ il FEMA invita a prepararsi all’emergenza facendo scorta di cibo e di acqua, sufficienti per almeno 72 ore, senza dimenticare che nell’evenienza di un disastro ambientale, acqua, elettricità e gas potrebbero venire a mancare per diversi giorni. Quindi, organizzarsi di conseguenza.

La lista del basic kit di emergenza è molto dettagliata, per non lasciare nulla al caso, e comprende tra l’altro: alimenti non deperibili per almeno tre giorni, un gallone di acqua a persona per giorno, radio alimentata a batterie, pila elettrica, kit di pronto soccorso, fischietto per chiedere aiuto, latte in polvere e pannolini se ci sono neonati, mascherina anti-polvere, teli di plastica e nastro adesivo per creare dei ripari e naturalmente un apriscatole, se la fornitura prevede cibo in scatola. Viene consigliato inoltre di dotarsi per tempo di condizionatori d’aria e di sigillare bene porte e finestre per mantenere gli ambienti freschi; abbassare le serrande o chiudere le persiane, tirare le tende, non dimenticare di ascoltare le previsioni del tempo e di dare un’occhiata ai vicini, soprattutto se anziani, malati o in sovrappeso perché potrebbero aver bisogno di aiuto.

Secondo il sito dei Centers for Disease Control and Prevention (CDC) la migliore difesa contro le malattie da caldo è la prevenzione. Soggiornare in luoghi freschi e apportare semplici modifiche al proprio apporto di liquidi, attività fisica e abbigliamento durante la stagione calda, aiuta a mantenersi in buona salute e al sicuro. Dunque: bere di più (non alcolici), senza aspettare di avere sete (per chi ha patologie che richiedono una restrizione idrica, si consiglia di chiedere consiglio al medico); non bere alcolici o bevande ricche di zucchero che possono causare paradossalmente una maggior perdita di liquidi; da evitare anche le bevande ghiacciate che possono causare crampi addominali. Stare in luoghi chiusi e se possibile dotati di aria condizionata; vanno bene anche supermercati e biblioteche perché permanere per qualche ora in un luogo fresco aiuta il corpo a resistere meglio al caldo. I ventilatori possono offrire sollievo, ma se la temperatura supera i 32 gradi, non sono più utili a prevenire le malattie da caldo. Meglio fare una doccia fredda o spostarsi in un luogo con l’aria condizionata. Indossare abiti leggeri, larghi e dai colori chiari. Non lasciare mai nessuno in una macchina parcheggiata con i vetri chiusi. Se necessario uscire di casa, farlo al mattino o dopo il tramonto; se necessario uscire in pieno giorno, fare frequenti soste in luoghi ombreggiati, indossare un cappello a falde larghe, occhiali da sole e non dimenticare di applicare un filtro solare ad elevata protezione.

Una convincente infografica ricorda infine che i cambiamenti climatici e il caldo estremo fanno più morti ogni anno di uragani, fulmini, tornado, terremoti e alluvioni messi insieme! E la soluzione proposta è, ancora una volta, “stay cool, stay hydrated, stay informed” (stai in luoghi freschi, idratati e rimani informato).

Maria Rita Montebelli
(Fonte: «Quotidiano Sanità»)
(Approfondimenti: http://www.nrdc.org/globalwarming/killer-heat/
https://www.osha.gov/SLTC/heatillness/heat_index/heat_emergencies.html
http://www.ready.gov/heat
http://www.bt.cdc.gov/disasters/extremeheat/)

Psichiatri, i medici più stressati. Mencacci: riconoscere rischio professionale

24 giugno 2014

Gli psichiatri sono la categoria medica più soggetta a stress, in gran parte a causa della loro interazione con i pazienti: l’ultima a evidenziarlo è un’indagine finlandese che si aggiunge a dati e testimonianze provenienti da tutto il mondo e che non stupiscono i professionisti italiani.

Claudio Mencacci, direttore del dipartimento di Neuroscienze AO Fatebenefratelli e Oftalmico di Milano, annuncia che la Società italiana di psichiatria (Sip) di cui è stato presidente, ben conoscendo queste difficoltà, «ha indetto per il prossimo 24 ottobre la prima giornata nazionale per la salute e la sicurezza degli operatori psichiatrici, che avverrà in streaming da Bari, proprio dove lo scorso anno è stata uccisa la psichiatra Paola Labriola, evento che ha colpito molto la comunità degli psichiatri, così come il suicidio di un altro collega, Rocco Pollice». Sono due esempi drammatici che, spiega Mencacci, riflettono «il rischio costante di esposizione all’aggressività esterna e il sovraccarico emotivo con possibile burnout, dovuti al contatto emotivo particolarmente intenso con i pazienti. Per questo ci adopereremo affinché vi sia il riconoscimento di un rischio professionale, come avviene per radiologi e anestesisti».

Infatti, se la ricerca finlandese rileva lo stress degli psichiatri, dagli Stati Uniti si denuncia un elevato rischio di suicidio. «Siamo anche gli specialisti medici che, non avendo marker clinici precisamente definiti, devono più di altri utilizzare il giudizio clinico e quindi l’esperienza professionale per poter formulare delle diagnosi» fa notare Mencacci. «Anche questo comporta un coinvolgimento maggiore e la necessità di una buona salute mentale, oltre che fisica». Per migliorare le cose, molto contano l’organizzazione del lavoro e la possibilità di operare in team multidisciplinari: «Quando il professionista lavora in maniera individuale, il rischio di sovraccarico emotivo aumenta, mentre sarebbe essenziale utilizzare altri apporti e altre competenze; in psichiatria le implicazioni ambientali e relazionali sono particolarmente importanti».

Renato Torlaschi
(Fonte: «Doctor 33»)

Il caso Vincent Lambert: la Francia apre un varco all’eutanasia. Lo stop della Cedu

25 giugno 2014

Un caso che ha gettato sulla Francia un’ombra cupa di dolore e d’impotenza. Dopo due anni di un complicato iter giudiziario, i 17 giudici del Consiglio di Stato – la più alta istanza dell’amministrazione giudiziaria francese – hanno deciso di arrestare l’alimentazione e l’idratazione artificiali per Vincent Lambert.

La Francia, dunque, sembra decisa ad aprire un varco all’eutanasia. Ma il 24 giugno in tarda serata, è giunta la notizia che la Corte europea dei diritti dell’uomo (Cedu) ha chiesto con urgenza il mantenimento in vita di Vincent Lambert. Erano stati i genitori dell’uomo a fare ricorso alla Corte europea di giustizia. In una lettera indirizzata al governo francese e trasmessa all’agenzia France Presse dagli avvocati dei genitori del paziente, la Corte ha chiesto alla Francia di non procedere “momentaneamente” alla sospensione dell’alimentazione e dell’idratazione per dare tempo alla Corte di esaminare il caso.

LA STORIA. L’uomo di 39 anni si trova in stato vegetativo da sei. Nel 2008 fu vittima di un incidente d’auto dal quale ne uscì tetraplegico. Da quel momento, è ricoverato nell’ospedale di Reims, in quello che viene definito uno stato di coscienza minima, giudicato irreversibile da diverse perizie mediche. Sul suo caso, la famiglia si è purtroppo dimostrata divisa: da una parte la moglie di Vincent, Rachel Lambert, che con i fratelli e le sorelle del marito, si è sempre dichiarata favorevole a un’interruzione dell’alimentazione. Dall’altra i genitori di Vincent che si sono invece sempre battuti per il mantenimento dell’alimentazione. Lo scorso 28 gennaio la moglie di Lambert si è rivolta al Consiglio di Stato. I giudici hanno constatato che “il paziente è affetto da lesioni celebrali serie e irreversibili” ed hanno preso in considerazione anche il fatto che Vincent Lambert prima dell’incidente avesse “chiaramente e più volte espresso il desiderio di non essere artificialmente mantenuto in vita, in caso si fosse trovato in uno stato di grande dipendenza”.

LA VOCE DELLE FAMIGLIE. Il caso Lambert lascia in Francia un seguito di polemiche e motivi di preoccupazione per il futuro. Le più allarmate sono le Associazioni delle famiglie dei traumatizzati cranici e cerebrolesi (Unaftc). Temono, infatti, che il caso Lambert possa avere conseguenze anche sul destino dei 1.700 pazienti che in Francia si trovano nelle sue stesse condizioni. Il presidente dell’Unione, Emeric Guillermou, tiene a precisare che “le persone in stato vegetativo cronico non sono in fin di vita. Sono persone con grandi handicap, in situazione di dipendenza estrema, privi dei mezzi convenzionali di comunicazione”. Riguardo quindi all’alimentazione e all’idratazione artificiali, le famiglie ritengono che “il livello di coscienza non può da solo motivare la messa in atto di una procedura di arresto di trattamento”.

Le testimonianze sono toccanti. Molto diverse tra loro, hanno un filo che le accomuna: a un certo punto la vita di un’intera famiglia si spezza alla notizia di un familiare che è caduto vittima di un incidente. Basta una telefonata, una comunicazione delle forze dell’ordine per cadere in un abisso di dolore. “Una sera il telefono squilla – racconta Francoise Angles – ‘Vostro figlio ha avuto un incidente. È all’ospedale, in uno stato molto grave. Sì, è in coma. No, i medici non possono dire nulla, bisogna aspettare’”. Seguono i giorni, i mesi, spesso gli anni e con il tempo crescono anche la rabbia, i rimpianti, la solitudine, spesso anche l’umiltà di accettare la situazione. “Ma bisogna continuare a vivere – aggiunge Francoise -, anche se non più come prima perché anche noi non saremo mai più gli stessi: siamo feriti alla testa, al cuore, alla pancia. Ma dobbiamo continuare a costruire ciò che si può, soprattutto a far guadagnare un posto di uomo tra di voi”.

IL CASO LAMBERT NON FINIRÀ COSÌ. Non con una decisione dei giudici. Perché in Francia oggi in tanti s’interrogano. Le associazioni familiari cattoliche (Afc) chiedono: “Può la giustizia condannare a morte una persona?”. Il presidente della Fondazione laica “Jerome-Lajeune”, Jean Marie Le Méné, ricorda che Lambert “non è in fin di vita: vive una vita nella misura del suo handicap, una vita diminuita ma una vita”. E ritiene che fermare oggi l’alimentazione e l’idratazione di Vincent, significa “farlo morire di fame e di sete”.

Su “Le Figaro”, il filosofo Fabrice Hadjadj, osserva che questo dibattito rivela la tendenza delle nostre società a rifiutare la debolezza e la dipendenza. Un tempo si eliminavano le persone senza ripensamenti; oggi lo si fa in nome della “pietà”. E ricordando le parole di Georges Bernanos, conclude: “L’uomo di questo tempo ha il cuore duro e la pancia sensibile”.

Maria Chiara Biagioni
(Fonte: «Sir»)

2035: verso quale energia? Meno petrolio più rinnovabili

25 giugno 2014

La storia ci ha dimostrato a più riprese quanto si riveli spesso erroneo basare le proprie scelte su previsioni numeriche, per quanto complesse, soprattutto se i protagonisti coinvolti giocano su scala mondiale e se la questione di cui si parla poggia le fondamenta su dinamiche dalla portata incommensurabile, come gli interessi economici, la finanza, la geopolitica.

Quello degli investimenti futuri legati alla domanda e alla produzione di energia è uno dei casi principe di questa difficoltà, e al contempo uno degli ambiti dove viene dipinto il maggior numero di scenari possibili, più o meno catastrofici. Per cercare di far convergere le statistiche elaborate fino a oggi, di recente l’International Energy Agency (IEA) all’interno del World Energy Outlook ha pubblicato un nuovo report speciale che cerca di tirare le fila su ciò che paiono raccontare i vari scenari che si prospettano per il nostro pianeta da qui al 2035.

A livello metodologico il dossier si caratterizza per lo sforzo di sintetizzare due scenari, considerati come i più significativi a cui fare riferimento: il New Policies Scenario e lo scenario 450. Il primo, usato solitamente dall’IEA come riferimento, tiene conto degli impegni di massima delle politiche e dei piani nazionali che sono stati annunciati dai vari Paesi, rispetto alla riduzione delle emissioni di gas serra; il secondo invece è uno scenario presentato nel World Energy Outlook che definisce un percorso energetico coerente con l’obiettivo di limitare l’aumento globale della temperatura a 2°C, limitando la concentrazione di gas serra in atmosfera a circa 450 parti per milione di CO2.

Con l’esclusione dei costi relativi a ricerca e sviluppo e ai costi si smaltimento, e facendo riferimento solo alle spese che riguardano pianificazione, costruzione, materiali e permessi, secondo l’IEA da qui al 2035 l’investimento richiesto ogni anno per venire incontro alla domanda energetica mondiale salirebbe verso i 2.000 miliardi di dollari, mentre la spesa annua sull’efficienza energetica arriverebbe ai 550 miliardi di dollari. Cifre così alte finiscono spesso per confondere, per non dar conto realisticamente di quanta energia stiamo parlando. È sufficiente però pensare che all’inizio del millennio, quasi 15 anni fa, gli investimenti per l’approvvigionamento energetico su scala mondiale non arrivavano a 800 miliardi di dollari, per toccare i 1.000 miliardi solo nel 2004.

A essere interessante però è come si investono i capitali, e in particolare chi investe in che cosa. È qui che emergono le divergenze tra i due scenari, talvolta più, altre volte meno grandi; tuttavia, anche con le differenze che li distinguono, incrociare entrambi questi due scenari futuri, il NPS e lo Scenario 450, permette comunque di individuare – anche senza la pretesa di descriverla con precisione apodittica – qual è la direzione verso cui stiamo andando. Tratteggiare insomma i percorsi del “chi investirà e in che cosa”.

Riguardo agli investimenti sul carbone, sembra saranno l’Asia e l’Oceania a trainare l’economia. A seguire gli investimenti che riguardano il petrolio, che secondo le stime continueranno a interessare soprattutto il nord America. Per quanto riguarda invece gli investimenti sui biocarburanti, le cifre rispetto ai miliardi di dollari investiti su carbone, petrolio, gas ed elettricità sono ancora praticamente inesistenti e in questo caso le differenze presentate dall’uno e dall’altro scenario sembrano importanti.

Saranno però gli investimenti per la produzione di energia elettrica a rappresentare l’impronta più significativa dei nostri futuri investimenti. In particolare nella regione dell’Asia-Oceania, che in entrambi gli scenari pare rappresenterà il traino della produzione mondiale. Secondo lo scenario 450 infatti, gli investimenti in questa forma di energia saranno in media di molto maggiori rispetto a quelli prospettati dal NPS: 304 miliardi di dollari nel nord America rispetto ai 100 stimati dal NPS, 137 miliardi di dollari investiti in Europa, a fronte di 37 miliardi citati nel NPS. E ancora 151 miliardi su 63 in Asia-Oceania.

Raggiungere gli obiettivi dello scenario 450 significherebbe infatti un diverso tipo di investimenti. Esso richiederebbe 53 trilioni di dollari di investimenti cumulativi da qui al 2035, di cui circa 40 per alimentazione energetica, una cifra comparabile ai numeri forniti da NPS, ma con minori investimenti sui combustibili fossili e maggiori sulle energie rinnovabili. I rimanenti 14mila miliardi di dollari andrebbero invece a costituire la spesa per l’efficienza energetica. È però nel settore della produzione di energia elettrica che si misurerà la virata verso le risorse rinnovabili e, a livello mondiale, secondo le stime di entrambi gli scenari, da qui al 2035 gli investimenti maggiori riguarderanno l’eolico. Tremila miliardi di dollari investiti nell’eolico su scala mondiale, il doppio di quelli che in entrambi gli scenari si prospetta saranno gli investimenti nel settore nucleare. Al secondo posto sostanzialmente alla pari gli investimenti su idroelettrico e carbone, mentre il solare si attesta solo al quarto posto. Anche l’Europa rifletterà secondo queste stime grosso modo la situazione mondiale, con il netto dominio dell’eolico, tuttavia gli investimenti nel settore dell’energia solare saranno in proporzione di più rispetto alla media mondiale.

In generale comunque in Europa da qui al 2035 gli investimenti sembra saranno orientati per la maggiore verso il settore delle rinnovabili, questo almeno secondo gli scenari dipinti dall’IEA. Interessante in questo senso è anche incrociare i dati relativi al miliardi di dollari investiti nel settore, in generale e su scala mondiale, con quelli relativi alla produzione di impianti suddivisi per continente a seconda del tipo di fonte utilizzata, forniti dal NPS. Verranno investiti 726 miliardi di dollari dai Paesi dell’area asiatica e in Oceania per nuovi impianti nel settore dell’eolico, mentre nel Nord America non si arriverebbe a 400 miliardi. In questo senso pare che il Vecchio Continente supererà, seppur di poco, i cugini americani.

Quello che emerge globalmente è che riguardo alle risorse rinnovabili i continenti più poveri, cioè l’Africa e l’America Latina, investiranno molto meno rispetto alle aree cosiddette più industrializzate. Nel solare per esempio il Nord America investirà, secondo le previsioni IEA, 234 miliardi di dollari, mentre nel continente africano si toccheranno a malapena i 50 miliardi e in Sud America i 32 miliardi di dollari. I Paesi che il mondo sta tenendo sott’occhio però non sono né in Nord America, né in Europa. Sono i cosiddetti BRIC, acronimo di Brasile, Russia, India e Cina, che insieme ai neo entrati Sudafrica e Turchia sono considerati oggi “Paesi emergenti”, che secondo le aspettative mondiali e le premesse fin qui registrate, domineranno la scena economica mondiale nei prossimi vent’anni.

Partiamo dal Brasile. Il più grande tra i Paesi sudamericani concentrerà i propri investimenti energetici sul petrolio: una media di 2mila miliardi di dollari a fronte dei 550 miliardi in media per la produzione di energia elettrica. La Russia invece sembra fornire una situazione più equilibrata, tra petrolio, energia elettrica e il tanto discusso gas. In India gli investimenti si concentreranno per la maggiore sulla produzione di energia elettrica – circa quanto il Brasile investirà nel petrolio – mentre la Cina si conferma leader indiscussa per gli investimenti sull’energia elettrica, con una media di quasi 4mila miliardi di dollari.

Anche per i Paesi BRIC si confermano inoltre le differenze tra l’andamento prospettato dal NPS e quello dipinto dallo scenario 450: secondo quest’ultimo gli investimenti per la produzione di energia elettrica saranno di molto maggiori rispetto a quelli stimati dal NPS, anche se a differenza del main trend mondiale, pare che i BRIC a eccezione della Cina non punteranno sull’eolico, ma maggiormente su idroelettrico (Brasile e India), nucleare (Russia e India) e carbone (India e Cina).

Per quanto riguarda le economie emergenti dunque, pare che il promettente settore del solare non sarà tra i motori trainanti della futura economia. Resta da vedere quanto queste previsioni rispecchieranno la realtà.

Cristina Da Rold
(Fonte: «Scienza in Rete»)
(Approfondimenti: http://www.iea.org/
http://www.worldenergyoutlook.org/)

Report Ue, 37mila morti l’anno per infezioni ospedaliere

25 giugno 2014

«Ogni anno nell’Unione Europea circa 4,1 milioni di pazienti hanno un’infezione ospedaliera e almeno 37.000 di loro muoiono per le conseguenze». È quanto rileva il report della Commissione Ue sulla “Sicurezza del paziente e infezioni ospedaliere”. Il rapporto che è accompagnato da altri due documenti e rappresenta una valutazione dei progressi fatti nell’ambito della sicurezza dei pazienti dalla raccomandazione sul tema del 2009 del Consiglio. Ma gli ostacoli da rimuovere (tagli al budget, scarsa consapevolezza del problema, “cultura della colpa” e non dell’analisi delle cause, scarso coinvolgimento pazienti) sono ancora molti.

«La buona notizia – ha dichiarato Tonio Borg, Commissario Ue per la Salute – è che la maggior parte degli Stati ha attuato programmi per la sicurezza dei pazienti. La cattiva è che, nonostante i progressi, nelle strutture sanitarie continuano a registrarsi eventi sfavorevoli e la sicurezza dei pazienti è raramente contemplata nella formazione del personale sanitario».

Le stime segnalano come l’8-12% dei pazienti ricoverati in ospedale subisce un evento avverso, come un’infezione associata all’assistenza sanitaria (approssimativamente il 25%). Si calcola che in un dato giorno almeno 1 paziente su 18 ricoverati in ospedali europei ha una infezione ospedaliera. Si stima inoltre che il 20-30% delle infezioni nosocomiali può essere evitato applicando programmi intensivi di igiene e controllo delle infezioni.

«Non si tratta solo di una questione di salute pubblica – si legge nel report – questo problema rappresenta un notevole onere economico». Per quanto riguarda l’Italia (per la quale hanno partecipato alla consultazione il Centro GRC della Regione Toscana e il ministero della Salute) è indietro sulla formazione degli operatori sanitari e sull’”empowerment” del cittadino (fornire informazioni sulle misure di sicurezza, il diritto al consenso informato, le procedure di reclamo e i meccanismi di ricorso), mentre sono stati segnalati parziali avanzamenti sui programmi e politiche per la sicurezza e sui sistemi di reporting.

Da evidenziare anche il dato che vede il 71% dei cittadini europei affermare che la qualità della sanità nel loro Paese è buona (seppur con differenze considerevoli tra i vari Paesi). Mentre nel caso dell’Italia la percentuale scende al 56% e il 35% ritiene che la propria sanità sia peggiore.

(Fonte: «Doctor 33»)

«La famiglia sia tutelata e difesa non solo dallo Stato, ma anche dall’intera società». Mons. Silvano Tomasi interviene alla 26° sessione del Consiglio dei diritti umani di Ginevra

25 giugno 2014

“La famiglia è una cellula fondamentale della società umana”. Lo affermava San Giovanni Paolo II e lo ha ribadito mons. Silvano Maria Tomasi, Osservatore permanente della Santa Sede presso l’Onu di Ginevra, intervenendo il 24 giugno alla 26° sessione del Consiglio dei diritti umani. Nel suo discorso – di cui ampi stralci sono stati riportati dalla Radio Vaticana – l’arcivescovo ha sottolineato come la famiglia continui a dimostrare “un vigore maggiore”, nonostante gli attacchi di coloro che cercano di relegarla ad “una reliquia del passato, un ostacolo all’emancipazione dell’individuo o alla creazione di una società libera, felice e paritaria”.

Tomasi ha sottolineato quindi il “legame reciproco” tra famiglia e società e le rispettive “funzioni complementari nella tutela e nella promozione del bene di ciascuno e dell’umanità intera”. “La dignità ed i diritti dell’individuo non vengono sminuiti dall’attenzione posta nei confronti della famiglia” – ha poi rimarcato – ma anzi, molte persone proprio “in un contesto familiare forte e sano, fondato sul matrimonio tra un uomo e una donna, trovano protezione, nutrimento ed energia”.

Un discorso, questo, che riguarda soprattutto i bambini, bisognosi di “un contesto familiare armonioso, in cui ricevere la formazione e l’educazione sulla base di un modello genitoriale sia maschile che femminile”. Solo nella famiglia naturale, ha insistito il delegato vaticano, le nuove generazioni possono conoscere valori come “l’amore, l’educazione, il sostegno reciproco e la trasmissione del dono della vita”. E tale visione si ritrova “nella storia di tutte le culture”, così come nella Dichiarazione universale dei diritti umani, la quale – ha ricordato il presule – riconosce infatti “i diritti e i doveri unici, profondi e non negoziabili della famiglia fondata sul matrimonio tra uomo e donna”.

L’appello è quindi che la famiglia non sia “divisa o emarginata”, bensì “tutelata e difesa non solo dallo Stato, ma anche dall’intera società”.

(Fonte: «Zenit»)

La sicurezza dei farmaci nell’era della comunicazione globale

26 giugno 2014

Nell’era digitale le persone cercano sempre più su Internet informazioni sulla salute e questa è un’opportunità senza precedenti per gli operatori sanitari, specie nel campo della sicurezza dei farmaci. Lo afferma John Seeger, farmacologo dell’Harvard medical school di Boston e coautore di un editoriale pubblicato sul «New England journal of medicine».

A questo proposito il crescente accesso a siti come Wikipedia e WebMD ha fatto emergere una questione importante: in che modo vengono messe in rete le segnalazioni degli effetti avversi di un farmaco? Per rispondere gli autori hanno verificato le comunicazioni sulla sicurezza dei farmaci emessi dalla US Food and drug administration (Fda) tra il 1° gennaio 2011 e il 31 dicembre 2012 esaminando i contenuti di Wikipedia, la risorsa sanitaria più consultata, 60 giorni prima e dopo l’annuncio. Le avvertenze di sicurezza riguardavano 22 farmaci per malattie come l’ipertensione, la leucemia mieloide cronica e l’epatite C, prodotti che tutti assieme hanno attivato 13 milioni di ricerche su Google e 5 milioni su Wikipedia per ognuno dei due anni di studio.

«L’emissione dei warning da parte della Fda ha aumentato in media dell’82% le ricerche su Google la settimana dopo l’annuncio e del 175% le visite a Wikipedia il giorno della pubblicazione» riprende Seeger. Ma le informazione che gli utenti trovano sono tempestive? Ebbene, il 41% delle pagine di Wikipedia vengono aggiornate entro 2 settimane dalla diffusione del warning Fda, percentuale che sale al 58% se i farmaci curano malattie con elevata prevalenza e scende al 23% per farmaci poco diffusi.

«Ma in alcuni casi Wikipedia non viene aggiornata anche per un anno» puntualizza il farmacologo. E questi risultati hanno implicazioni pratiche: le nuove tecnologie offrono la possibilità di raggiungere pazienti e medici in modo efficiente, ma il primo passo dovrebbe essere quello di migliorare l’accessibilità delle informazioni sui farmaci sul sito web della Fda, non lasciando il compito ai soli portali d’informazione medica. «Data la frequenza con cui i pazienti cercano su Internet notizie di salute, è tempo per la Fda di farsi garante dell’accesso immediato a informazioni sanitarie accurate e complete, inclusi gli aggiornamenti tempestivi sulla sicurezza dei farmaci» conclude Seeger.

(Fonte: «Farmacista 33»)

La società democratica della conoscenza

28 giugno 2014

Comunicare tutto a tutti. Abbattere in concreto il paradigma della segretezza e ogni ostacolo che si oppone alla libera circolazione della conoscenza scientifica. Tutti i risultati della ricerca devono essere open access: accessibili a chiunque. Di più, tutte le informazioni scientifiche comunque raccolte devono essere condivise da tutti con tutti: open data. Sono queste le proposte avanzate da un numero crescente di ricercatori in tutto il mondo.

E sono queste le proposte che la Royal Society di Londra – una delle più antiche accademie scientifiche del mondo, quella che pubblicando le «Philosophical Transactions» ha inventato nel XVII secolo il moderno sistema di comunicazione della scienza – ha messo autorevolmente sul tavolo nel 2012, pubblicando il rapporto «Science as an open enterprise. Open data for open science», redatto da un vasto gruppo di lavoro diretto da Geoffrey Boulton, professore emerito di Geologia dell’Università di Edimburgo.

Il rapporto fa implicito riferimento a un valore fondante dell’impresa scientifica. Il grande storico delle idee scientifiche, Paolo Rossi, sosteneva infatti che la scienza moderna è nata, nel Seicento, abbattendo un paradigma consolidato: il “paradigma della segretezza”. Comunicando, appunto, tutto a tutti. Un valore, quello di far conoscere tutto a tutti, che il sociologo Robert Merton ha definito “comunitarismo” e che ha almeno due grandi virtù.

La prima è quella di trascinarsi dietro un altro valore fondante della scienza, quello – per dirla ancora con Merton – dello “scetticismo sistematico” che, grazie alla totale trasparenza della comunicazione scientifica, consente a tutti di essere critici di tutti e di impedire a chiunque di ergersi ad autorità ermetica e assoluta.

La seconda virtù consiste nella condivisione della conoscenza che è in sé un fattore di sviluppo. Perché la conoscenza è un bene molto particolare – un bene “più che non rivale”, come rileva Andrea Cerroni – che aumenta tanto più velocemente quanto più è condiviso. Il mancato accesso alla conoscenza è invece un fattore di esclusione, sia nella comunità scientifica (il ricercatore che ha un accesso limitato alla conoscenza gioca con le mani legate) sia nella società nel suo complesso.

Ne deriva che l’open science, l’accesso libero e gratuito alla conoscenza scientifica, e l’open data, la condivisione di tutti i dati, sono un bene in sé. Perché liberando del tutto lo scambio di conoscenza, ne consentono l’aumento. Per questo, come rilevano Benedikt Fecher e Sascha Friesike, vi sono movimenti o, se si vuole, scuole di pensiero che propongono l’open science sia per motivi ideali (la democratizzazione della conoscenza), sia per motivi pratici (l’efficienza e l’efficacia della ricerca).

D’altra parte, il rapporto della Royal Society su questi punti è chiaro fin dal titolo: la scienza è e deve essere un’impresa aperta. L’indagine trasparente è il suo cuore pulsante. La comunicazione pubblica delle nuove conoscenze scientifiche consente a tutti di analizzarle, farle proprie, criticarle, rigettarle del tutto o utilizzarle per nuove indagini e per produrre nuova conoscenza. I successi della scienza dipendono dalla sua potente capacità di autocorrezione. E la potente capacità di autocorrezione della scienza dipende a sua volta dalla totale trasparenza del suo sistema.

NON C’È SCIENZA SENZA COMUNICAZIONE DELLA SCIENZA
L’open science teorizzata dalla Royal Society è, dunque, una scienza che crea più velocemente nuova conoscenza aumentando e non diminuendo il suo spirito laico e critico. Ma comporta anche una rivoluzione nel sistema di comunicazione e, quindi, nel modo di lavorare degli scienziati. John Ziman, un fisico teorico studioso proprio del “lavoro degli scienziati”, come recita il titolo di un suo libro, sosteneva che la scienza è un’attività sociale che tende a raggiungere un “consenso razionale d’opinione” sul più vasto campo possibile. Nella descrizione che ne fa Ziman, l’attività scientifica ha due dimensioni ineludibili e consequenziali: una privata (osservare la natura, elaborare spiegazioni teoriche), l’altra pubblica (comunicare i risultati dell’indagine, sperimentale o teorica che sia). La seconda dimensione del “fare scienza” è altrettanto importante della prima. Ne deriva che “non c’è scienza senza comunicazione della scienza” e infatti – sostiene Ziman – il sistema di comunicazione è l’istituzione sociale fondamentale della comunità scientifica. Questa istituzione sociale è caratterizzata fin dalla nascita della “nuova scienza”, nel XVII secolo, dalla totale trasparenza e accessibilità.

La proposta dell’open access fatta propria dalla Royal Society tende a rendere effettivi e a scala globale gli originari valori di trasparenza e accessibilità. Mentre la proposta degli open data – condividere tutti i dati, anche quelli non pubblicati, per sfruttare la proprietà di “bene più che non rivale” della conoscenza – chiede qualcosa di più: non solo trasparenza e disinteresse, ma una profonda complicità tra gli scienziati.

Un modo nuovo di lavorare, appunto. Per quanto dirompente, la proposta della Royal Society non è un fulmine a ciel sereno. È piuttosto l’espressione di un processo esteso e nato da tempo che coinvolge, sia sul piano teorico sia sul piano della pratica, una parte crescente della comunità scientifica internazionale tanto da diventare oggetto della politica della ricerca di governi, come quello inglese o statunitense, che tradizionalmente puntano sulla scienza come motore dello sviluppo civile ed economico della società.

David Willets, ministro della ricerca nel governo conservatore di David Cameron, ha fatto proprie sia le proposte della Royal Society sia quelle analoghe del Working Group on Expanding Access to Published Research Findings, il comitato diretto dalla sociologa Dame Janet Finch, creato apposta per fornire indicazioni all’esecutivo britannico sulla politica da seguire nella comunicazione della scienza.
Anche sull’altro lato dell’Atlantico, i motivi di fondo addotti per l’open science sia dal presidente Barack Obama sia dall’OSTP, l’Ufficio per la politica della scienza e della tecnologia diretto da John Holdren (uno scienziato), sono di tipo utilitaristico. Una maggiore circolazione dei risultati scientifici, dicono alla Casa Bianca, ha molte utilità: favorisce la creazione di nuova conoscenza, rende possibile un più rapido trasferimento del know how e, ultimo ma non ultimo, alimenta l’innovazione tecnologica, che è il motore dell’economia nell’era della conoscenza. Per lungo tempo l’istituzione sociale fondamentale della comunità scientifica – il sistema di comunicazione della scienza – si è basato sostanzialmente sull’uso di riviste peer review (con l’analisi critica ex ante da parte di colleghi esperti dell’autore) in abbonamento su supporto cartaceo.

Il primo esempio storico di questo sistema di comunicazione tra scienziati risale alle «Philosophical Transactions», pubblicate a partire dal 1665 proprio dalla Royal Society. La rivista in abbonamento scarica sull’utente (l’abbonato) il costo del sistema di comunicazione. Il processo ha consentito di rispettare il valore del “comunitarismo” per almeno tre secoli: finché la comunità scientifica è stata relativamente piccola, il numero di riviste relativamente contenuto, i costi di abbonamento relativamente bassi, gli utenti relativamente ricchi.

COMUNICARE TUTTO A TUTTI

Oggi ci sono almeno quattro fattori nuovi che impongono di ridargli forma in modo da conservare la sostanza del valore e della prassi di “comunicare tutto a tutti”. Il primo fattore è l’enorme crescita della comunità scientifica: in poco più di un secolo il numero di ricercatori è aumentato di ben due ordini di grandezza, passando da circa 80.000 alla fine del XIX secolo agli oltre 7 milioni attuali.

La crescita è stata accompagnata da un processo accentuato di specializzazione: sono nate nuove discipline e, quindi, nuove comunità scientifiche. La crescita della comunità scientifica è stata accompagnata negli ultimi anni anche da una rapida internazionalizzazione. Sia nel senso che si fa scienza in maniera significativa in molti più Paesi, sia nel senso che a fare scienza e a portare avanti un comune progetto di ricerca sono sempre più gruppi di persone provenienti da Paesi diversi.
Tutto ciò ha portato a un incremento enorme della comunicazione: sia nel numero di articoli pubblicati, sia nel numero delle riviste che li pubblicano. Ma tutto ciò, combinato con lo sviluppo delle tecnologie, ha comportato un aumento ancora più esplosivo della quantità di dati prodotti e conservati. Il secondo fattore risiede proprio nel profondo cambiamento nelle tecnologie della comunicazione. Ora con i computer e le reti di computer è davvero possibile comunicare tutto a tutti in tempo reale. Questi due fatti rendono, nel medesimo tempo, necessario e possibile sia l’open access, l’accessibilità integrale alla conoscenza scientifica, sia gli open data, la condivisione integrale di tutti i dati e di tutte le informazioni.

Tuttavia a ostacolare la comunicazione di tutto a tutti ci sono gli altri due nuovi fattori. Il primo è l’enorme aumento sia del numero sia del costo medio delle riviste su carta, un incremento che pone reali problemi di accesso alla comunicazione. È impossibile – sia per problemi di spazio fisico, sia per problemi di costi di abbonamento spesso molto grandi – che una qualsiasi istituzione possa allestire biblioteche capaci di contenere tutta la comunicazione scientifica stampata su carta. Il secondo fattore che impedisce di continuare ad abbattere in maniera sistematica il “paradigma della segretezza” riguarda l’ingresso massivo delle imprese nel sistema della ricerca. Se ancora negli anni Sessanta del secolo scorso vigeva negli Stati Uniti e in Europa il rapporto “two to one” (2:1) tra ricerca finanziata con fondi pubblici e ricerca finanziata con fondi privati, oggi il rapporto è specularmente ribaltato: oltre 1.000 dei circa 1.500 miliardi di dollari investiti nel 2013 in ricerca e sviluppo provengono dalle imprese. Il che significa che in media nel mondo, per ogni dollaro pubblico speso in ricerca, ce ne sono due privati.

Questa condizione non è neutrale. Le imprese portano con loro una diversa cultura scientifica e la comunità di ricerca che lavora nelle o per le imprese, è portatrice di una griglia di valori diversa – talvolta opposta – a quella classica mertoniana della comunità scientifica finanziata con fondi pubblici. In questa nuova griglia valoriale non è contemplato il valore del “comunitarismo”, ma al contrario viene esaltato il valore del “segreto”. Le imprese tendono a conservare per sé la conoscenza. Nella nuova griglia non c’è neppure un altro valore mertoniano, il “disinteresse”.
Al contrario le imprese fondano, legittimamente, la loro attività sull’interesse, con risultati possibilmente immediati.
La pressione delle imprese private che, ormai, finanziano larga parte della ricerca nel mondo – ma anche di molti Stati, per motivi di sicurezza – è a tenere segreti piuttosto che a comunicare i risultati della ricerca; è a finalizzare verso obiettivi immediati e interessati l’attività di ricerca invece che lasciarla curiosity-driven (guidata dalla curiosità) e disinteressata. In una parola la cultura scientifica delle imprese non va verso l’open science. Semmai propone una closed science, una scienza chiusa.

Questi quattro fattori nuovi intervenuti nella vita della comunità scientifica sono in contraddizione tra loro ed è giunto il tempo di sciogliere i nodi. Come sostiene anche la Royal Society, i nodi possono essere sciolti in un unico modo: ripristinando la totale trasparenza della scienza. Comunicando tutto a tutti. Le tecnologie ce lo consentono: basta creare riviste in rete e open access. Occorre la volontà e un minimo di risorse.
La open science, con riviste in rete e open access, ma anche con gli open data, la condivisione dei dati, può e deve diventare un obiettivo sia dell’intera comunità scientifica sia delle istituzione politiche: dei governi europei o, magari, dell’Unione Europea.

Secondo la Royal Society ci sono almeno otto diversi motivi che rendono necessaria l’open science. Sei riguardano la comunità scientifica: la sua vita interna, i suoi valori, le sue metodologie.
I sei motivi interni sono:
1) conservare la capacità di autocorrezione senza la quale non c’è scienza;
2) rendere accessibili le informazioni a tutti i ricercatori, perché questo è il motore per la produzione di nuova conoscenza;
3) creare un sistema che consenta di incrociare l’enorme quantità di dati disponibili (l’incrocio di una quantità enorme di dati potrebbe portare addirittura a un nuovo paradigma nella scienza, il quarto, dopo i classici due – l’elaborazione delle teorie e la ricerca sperimentale – e dopo il recente avvento della simulazione al computer);
4) pubblicare non solo gli articoli, ma tutti i dati che hanno consentito la loro elaborazione (fatto impossibile su supporto cartaceo);
5) sperimentare nuove forme di simulazione al computer;
6) sperimentare tecnologie che facilitano la creazione di nuove forme di collaborazione e la formazione di nuovi network di ricerca.

Gli altri due motivi che militano a favore dell’open science sono più generali e riguardano i rapporti tra scienza e società. La trasparenza assoluta è una condizione essenziale per aumentare la fiducia dei cittadini non esperti nella scienza. Inoltre la comunicazione in rete e open access consente un più fitto dialogo tra comunità scientifica e cittadini. In questo ultimo ambito il coinvolgimento dei cittadini non esperti potrebbe riguardare anche la raccolta e la condivisione di dati. La scienza, la capacità di innovazione tecnologica e la conoscenza diffusa hanno regalato per mezzo millennio al vecchio e piccolo continente un ruolo primario nel mondo. Se l’Europa vuole uscire dalla sua crisi economica e di identità è dalla scienza, dall’innovazione tecnologica, dalla conoscenza diffusa che deve ripartire.

Pietro Greco
(Fonte: «Scienza in Rete»)

Facebook manipola i post e dimostra che le «emozioni sono contagiose»

29 giugno 2014

“I dati di Facebook rappresentano il più ampio studio sul campo nella storia del mondo”. Forse con un pizzico di esagerazione, ma in fondo cogliendo nel segno, Adam Kramer – membro del Data science team del social network – aveva spiegato anni fa la scelta di entrare nel gruppo californiano. Lo studio appena pubblicato su «Proceedings of the national academy of sciences» e condotto insieme ad altri scienziati della University of California e della Cornell gli dà ragione. È infatti attraverso quella sterminata arena sociale planetaria che ha potuto dare sostanza a ciò che in molti sospettavano: ciò che gli altri postano su Facebook, e che noi visualizziamo in bacheca, ci influenza emotivamente.

Tanto da spingerci, nel periodo successivo, a pubblicare a nostra volta contenuti sulla stessa lunghezza d’onda. O meglio, ad allinearci al clima che si respira sulla nostra newsfeed. L’obiettivo era esattamente quello: capire se l’esposizione a manifestazioni verbali affettive possa condurre “a espressioni verbali simili”. In altre parole, se ciò che leggiamo sulla piattaforma di Menlo Park – frutto di un certosino lavoro di algoritmi e non del caso, bisogna ricordarlo – possa contagiarci emotivamente.

Due i test condotti nel gennaio 2012. Nel primo i ricercatori guidati da Kramer hanno ridotto l’esposizione degli utenti inclusi nel gruppo sperimentale ai contenuti positivi degli amici. Nel secondo hanno proceduto allo stesso tipo di schermatura ma con post e frasi contenenti elementi di negatività. Decidendo quali dei tre milioni di aggiornamenti di stato lasciar passare attraverso un software di analisi testuale, il Linguistic inquiry and word count, e analizzando poi le pubblicazioni per una settimana.

In effetti dai 689mila account inclusi nel monumentale esperimento è uscito quanto già intuiamo – altrimenti perché faremmo fuori hater di professione, rompiscatole o frustrati incalliti? – ma in precedenza poche indagini avevano provato in modo così significativo. Veicolare certi tipi di contenuti, escludendo termini e parole positivi o negativi, ha condotto a una conseguente riduzione dello stesso tenore nei post delle varie cerchie prese in esame. In particolare quando sono state artificialmente ridotte le positività.

La ricerca è stata realizzata in base alle autorizzazioni fornite dagli utenti nella Data use policy al momento dell’iscrizione e senza dunque sottoporre a ricercatori in carne e ossa alcun contenuto effettivo. Almeno così assicura il team che ci ha lavorato. Il dato interessante sta tuttavia, oltre che nel merito – già sondato per esempio da un’indagine di Ke Xu, professore di computer science all’università di Pechino, sui social cinesi – anche e soprattutto nel metodo. Inquietante quanto, appunto, in fondo già ampiamente noto.

Dimostra infatti gli effetti che si possono ottenere manipolando gli algoritmi che scelgono cosa mostrarci quando accediamo a Facebook. Non solo, dunque, atteggiamenti, scelte e profilazione per indirizzare acquisti e preferenze: lo studio uscito su «Pnas» prova come anche le emozioni siano non solo contagiose – non serve la scienza, basta uscire la sera con un amico giù di corda o un altro particolarmente brillante per capirlo – ma di fatto manipolabili. Almeno in quell’universo parallelo ma sempre più intrecciato delle piattaforme sociali. Siamo troppo suggestionabili, cantava Paolo Benvegnù qualche anno fa, per riuscire a sottrarci alla dittatura degli algoritmi. Che ci ritagliano il mondo a loro uso e consumo.

Non mancano le polemiche su questo esperimento fatto sul social network più popolare. In passato erano stati fatti altri studi comportamentali ma i ricercatori avevano lavorato sulla semplice analisi del flusso naturale. Questa volta è stato diverso: per la prima volta sono stati alterati i dati per registrare le reazioni. Facebook ribadisce che lo studio è assolutamente legale. Ma alla domanda su quanto sia etico una risposta ancora non c’è.

Simone Cosimi
(Fonte: «La Repubblica»)

La Corte di Strasburgo strizza l’occhio alle maternità surrogate

30 giugno 2014

Dopo il caso-eutanasia di Vincent Lambert, la Francia è di nuovo sotto i riflettori con sentenze questa volta europee che pongono interrogativi e allertano di nuovo le associazioni. La Corte europea dei diritti dell’uomo ha condannato la Francia perché la giustizia francese si è rifiutata di trascrivere nei registri dello stato civile gli atti di nascita di bambini nati all’estero ricorrendo alla maternità surrogata (tecnicamente chiamata Gpa, meglio conosciuta come utero in affitto).

La Corte si è espressa rispondendo al ricorso che le era stato presentato da due coppie eterosessuali, i coniugi Mennesson e Labasse. Entrambe si erano recate negli Stati Uniti per accedere alla tecnica della Gpa che la legge francese, e in particolare la legge Toubira sul cosiddetto “mariage pour tous”, tuttora impedisce. Dalla Gpa sono nati tre bambini per i quali la legge francese non ha riconosciuto la filiazione.

La prima a sollevare dubbi sulla sentenza di Strasburgo è stata Aude Mirkovic: è docente di diritto privato all’Università di Evry ed è la portavoce dell’associazione “Juristes pour l’enfance” che riunisce nella comune aspirazione di difendere i bambini, magistrati, avvocati, docenti universitari. “Condonare l’uso della Gpa – dice con fermezza – significa condannare molti altri bambini ad essere ordinati, fabbricati, consegnati. Che siano poi amati, non cambia la natura intrinsecamente perversa della Gpa che rende il bambino un oggetto che si può ordinare e consegnare in cambio di soldi”.

La Corte europea dice che i coniugi Mennesson si occupano delle loro gemelle come dei veri genitori fin dalla loro nascita e che i quattro vivono insieme come una vera famiglia. Dove è il problema?

“Il problema è che con la sua decisione la Corte europea di Strasburgo invia un messaggio molto chiaro: potete far fabbricare un bambino in qualsiasi modo. Certo il fatto che poi questo bambino venga cresciuto in una famiglia normale, in qualche modo farà chiudere gli occhi sulle condizioni con le quali lo si è ottenuto. In altre parole, i cosiddetti interessi del bambino vengono utilizzati per convalidare la violazione dei suoi diritti fondamentali. È una decisione molto grave che alimenterà purtroppo il mercato e il traffico di bambini e una volta che i bambini vengono cresciuti in Europa, la giustizia dovrà necessariamente chiudere gli occhi. Le persone che soffrono per non poter avere figli, hanno sicuramente buone intenzioni. Ma è proprio questo il motivo per cui la legge deve rimanere garante degli interessi dei bambini, anche contro i desideri stessi di cui sono oggetto”.

Ritenete che la decisione della Corte possa condurre la Francia a un riconoscimento implicito delle madri in affitto? È cioè una sorta di legalizzazione implicita della Gpa “dall’alto”?

“Questa decisione non richiede direttamente alla Francia o a qualsiasi altro Stato di legalizzare la Gpa. Questa decisione vieta di sanzionarla qualora la Gpa venga fatta all’estero. Da un male però si può trarre un bene: questa decisione rende ancora più evidente che gli Stati devono intraprendere misure efficaci per combattere a priori l’accesso alla Gpa, ed evitare che i francesi facciano ricorso a questa pratica all’estero. Perché una volta che i bambini sono nati e che le donne sono state usate come macchine di riproduzione, non vi è alcuna altra soluzione, sia per il bambino sia per la madre surrogata e sia la famiglia. Dobbiamo quindi agire prima, per evitare che le donne e i bambini siano sottoposti a questi trattamenti, adottando sanzioni penali che impediscano il ricorso alla Gpa, anche quando questa è eseguita all’estero”.

La legge Toubira nega l’accesso alle pratica Pms e Gpa. La decisione della Corte di Strasburgo può avere delle conseguenze sulla legislazione francese?

“La decisione della Corte non ha alcun effetto diretto sulla Procreazione medicalmente assistita o sulla maternità surrogata per le coppie dello stesso sesso. Ma i francesi in questa situazione sono incoraggiati dalla Corte europea ad andare all’estero per ricorrere da una parte alla procreazione medicalmente assistita, permettendo alle donne di avere figli senza un padre, e dall’altra alla gestazione per altri (utero in affitto), permettendo agli uomini di avere figli senza una madre. La Corte incoraggia ad andare all’estero per aggirare la legislazione francese impunemente”.

Come reagire quindi a livello nazionale?

“La Francia deve essere ferma nel proposito di proteggere i bambini contro queste pratiche che li privano deliberatamente di un genitore, in violazione dei diritti proclamati dalla Convenzione delle Nazioni Unite sui diritti del fanciullo. Ma il governo francese non vuole protegge i bambini ed ha annunciato che non farà ricorso contro questa decisione ingiusta, che ci costringe ad accettare una Gpa poiché ha avuto luogo all’estero. Ciò che sorprende è che la Corte europea dei diritti dell’uomo è diventata paradossalmente un ostacolo alla tutela dei diritti umani e in particolare dei bambini. Si è messa cioè a servizio del diritto al bambino, in violazione dei diritti dei bambini. Si dovrà senza dubbio denunciarlo se vogliamo, ancora una volta, proteggere i bambini!”.

Maria Chiara Biagioni
(Fonte: «Sir»)

© Bioetica News Torino, Luglio 2014 - Riproduzione Vietata