TUTTOSCIENZE 2 luglio 97


MITI MODERNI L'epopea della civiltà marziana
Autore: PRESTINENZA LUIGI

ARGOMENTI: AERONAUTICA E ASTRONAUTICA, ASTRONOMIA, LIBRI
NOMI: SHEEHAN WILLIAM, MAGGINI MENTORE, RUGGIERI GUIDO, DE MOTTONI GLAUCO
ORGANIZZAZIONI: UNIVERSITY OF ARIZONA PRESS
LUOGHI: ITALIA
NOTE: Missione Mars Pathfinder

MARTE, questo mondo a noi vicino così strettamente legato alla leggenda e alla fantasia, questo «fratello minore» della Terra di cui stanno forse per cadere gli ultimi enigmi con l'arrivo delle sonde Pathfinder e Mars Global Surveyor, non s'è visto dedicare un saggio completo e soddisfacente, nella nostra copiosa letteratura divulgativa, dopo «Il pianeta Marte» di Mentore Maggini, stampato da Hoepli nel 1939. Un capolavoro della divulgazione, che uscì però in un momento sfortunato, alla vigilia della seconda guerra mondiale. Il libro di Maggini era già introvabile nell'immediato dopoguerra, nè Hoepli volle ristamparlo: avrebbe successo anche oggi, come un «classico» della letteratura astronomica. Dopo, di Marte si è parlato in tutte le salse, ma libri dedicati a questo mondo problematico e affascinante dalle nostre parti non ne ricordo più di due: una traduzione di Arthur E. Smith (Muzzio '92) e, molto prima, l'eccellente libro di Guido Ruggieri «La scoperta del pianeta Marte», che uscì da Mondadori nel '71, in una collana economica. Ruggieri se ne andò anche lui prematuramente, senza aver dedicato al pianeta il libro compiuto; e se ne andò senza averlo scritto anche Glauco De Mottoni, lo studioso di Genova che lavorava in tandem col famoso osservatorio planetario del Pic du Midi e che la Nasa aveva fra i propri consulenti: le sue carte «fotovisuali» erano state adottate dall'Unione astronomica internazionale. Ora un nuovo saggio «globale» sul «pianeta rosso» (esplorazione e realtà d'oggi) da mettere accanto a quello di Maggini ci viene da un divulgatore molto bene informato e felicemente incisivo: l'americano William Sheehan. Per il momento, soltanto in inglese, per i tipi dell'University of Arizona Press di Tucson. E' uscito nel '96 ed è già stato tradotto in portoghese: dovrebbe far gola anche da noi per efficacia e compiutezza. Sheehan non è un topo di biblioteca: è un osservatore che ha fatto le sue prove al telescopio e ha avuto in mano un grande telescopio di fine Ottocento, il 91 centimetri di Lick, tuttora il secondo rifrattore del mondo, per controllare le sue esperienze. Di più: ne ha tratto un altro libro, «Planets and perception», che mette a fuoco gli errori e le illusioni di chi cerca di «vedere troppo», al di là delle possibilità dello strumento che adopera, come accadde al nostro grande Schiaparelli, comunque vero pioniere di una completa cartografia marziana. Su questi presupposti, rafforzati da una puntigliosa documentazione e da una ricca bibliografia, Sheehan ha costruito un ottimo testo, agile e istruttivo. Si inizia con le osservazioni di Fontana e di Huy gens; poi ecco le prime carte ottocentesche del pianeta, immaginato ancora con «terre» e «mari», fra cui si allungavano i sottili equivoci tracciati dei «canali», già segnalati da padre Secchi e di cui Schiaparelli e poi Lowell fecero la chiave d'interpretazione di una civiltà moribonda, capace di mobilitarsi per trasportare l'acqua delle nevi polari sino all'equatore: l'astronomo di Brera con prudenza, a titolo d'ipotesi, in tutto esplicitamente Percival Lowell. Di qui il «romanzo» dei marziani, le «guerre dei mondi» e tutto quel che ne è seguito: sino agli sfuggenti «Ufo» che non si contentano di sfrecciare, ma atterrano, rapiscono terrestri e li riportano a casa: una leggenda su cui tirarono il sipario l'inglese Maunder, il nostro Cerulli e quello straordinario osservatore che fu il franco-greco Eugene Antoniadi, ben prima che i «Mariner» e i «Viking» ci mostrassero crateri, altipiani, vulcani, solchi sinuosi come di grandi fiumi in secca, del vero Marte, quello delle carte Nasa. Con i suoi ultimi enigmi celati, forse, nel sottosuolo; con le testimonianze di una fiammella di vita che bruciò, e probabilmente si estinse, molto tempo fa. Luigi Prestinenza


I PROGETTI Quando toccherà all'uomo?
Autore: RIOLFO GIANCARLO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA
NOMI: TRAFTON WILBUR
ORGANIZZAZIONI: NASA
LUOGHI: ITALIA
NOTE: Missione Mars Pathfinder, Mars Global Surveyor

CRONACHE marziane. Il titolo del romanzo di Ray Bradbury è stato preso in prestito dalla Nasa per il sito Internet dedicato alle due missioni in viaggio verso il Pianeta Rosso. All'indirizzo www.jpl. nasa.gov/mars si possono leggere le notizie aggiornate sulle sonde Mars Path finder (che arriverà il 4 luglio) e Mars Global Surveyor (che entrerà in orbita intorno a Marte a settembre). Via via che queste sonde si avvicinano alla meta, cresce l'attenzione dei media. Del resto Marte era già finito in prima pagina lo scorso agosto, quando l'amministratore della Nasa, Daniel Goldwin, annunciò la scoperta di tracce di batteri fossili su un meteorite marziano. Una notizia sensazionale, ma basata su indizi che lasciano spazio al dubbio. L'agenzia spaziale americana ha peccato, forse, di eccessivo entusiasmo, e dietro al suo comportamento qualcuno ha visto il tentativo di spingere sull'opinione pubblica per ottenere nuovi finanziamenti. Una cosa è certa: l'esplorazione di Marte potrebbe essere al primo posto fra i compiti della Nasa nei primi anni del terzo millennio. Sono già annunciate due nuove missioni robotizzate, che partiranno nella primavera del 2001: «Mars Surveyor Lander» e «Mars Surveyor Orbiter». Il loro scopo sarà raccogliere tutte le informazioni necessarie per decidere se mandare l'uomo. Per questa ragione il programma è condotto in collaborazione dalle due divisioni della Nasa che si occupano dell'esplorazione dei corpi celesti e del volo umano. Ed è la prima volta che ciò avviene dai tempi delle missioni lunari Apollo. Per quanto riguarda le attività con astronauti, il progetto più ambizioso è oggi la stazione spaziale internazionale. «Nei primi anni Duemila - dice Wilbur Trafton, responsabile della divisione Volo spaziale della Nasa - questo laboratorio orbitale sarà finalmente una realtà. E il passo successivo potrebbe proprio essere lo sbarco su Marte». Esistono diversi studi per mandare uomini sul Pianeta Rosso. Il più accreditato prevede l'impiego di un'astronave priva del propellente per il ritorno, che verrebbe ricavato dall'atmosfera marziana grazie a un laboratorio automatico inviato in precedenza. Uno degli esperimenti a bordo del «Surveyor Lander» riguarderà proprio la produzione di metano e ossigeno. Inoltre la sonda sbarcherà un veicolo robotizzato molto più progredito di quello che vedremo in azione nei prossimi giorni, capace di muoversi nel raggio di decine di chilometri dal punto di atterraggio. Il «Lander» avrà a bordo anche strumenti per analizzare il suolo marziano e le radiazioni presenti nell'ambiente. Ad accompagnare questa missione sarà il «Surveyor Orbiter». Lanciata separatamente, questa sonda verrà catturata nell'orbita di Marte per studiare le radiazioni e disegnare la mappa geologica del pianeta. Potrà anche servire come ponte radio per comunicare con il Lander e con gli altri veicoli automatici che saranno mandati in futuro. Giancarlo Riolfo


MISSIONE PATHFINDER Su Marte invasione terrestre Venerdì la Nasa paracaduterà un robot
Autore: DI MARTINO MARIO

ARGOMENTI: AERONAUTICA E ASTRONAUTICA
ORGANIZZAZIONI: NASA
LUOGHI: ITALIA
TABELLE: D. Le fasi della missione Mars Pathfinder sul pianeta Marte

L'assalto a Marte è iniziato. Fra due giorni, se tutto andrà secondo i piani, la sonda «Mars Pathfinder» toccherà il suolo marziano. Sono trascorsi 21 anni da quando le due navicelle «Viking» si posarono sulla superficie di Marte inviandoci le immagini di un pianeta senza vita con una superficie desertica color ruggine, spazzata periodicamente da violente tempeste di polvere. Furono effettuate anche analisi di campioni del suolo, prelevati da un braccio meccanico, che non rivelarono alcuna attività biologica presente o passata. Come dice il nome («pathfinder» significa esploratore), questa missione aprirà la strada a una flotta di sonde che con cadenza biennale verranno inviate verso il pianeta rosso per effettuare un suo approfondito studio, preliminare all'esplorazione umana che dovrebbe iniziare nei primi decenni del prossimo secolo. Una delle tappe principali di questo programma sarà quella di riportare a terra, non prima del 2005, campioni del suolo marziano. Dopo quasi sette mesi di viaggio e oltre 160 milioni di chilometri, qualche giorno fa i controllori del Jet Propulsion Laboratory di Pasadena (California) hanno inviato a Pathfinder i comandi necessari per eseguire una complessa serie di manovre che si spera portino a un atterraggio dolce che non comprometta il funzionamento degli strumenti di bordo. L'arrivo sul suolo marziano è previsto intorno alle 20 (ora italiana) di venerdì 4 luglio. A differenza delle Viking, che entrarono in orbita attorno al pianeta prima di liberare i due «lander», Pathfinder si dirigerà subito verso l'atmosfera di Marte e raggiungerà i suoi strati più rarefatti, ad un'altezza intorno ai 130 chilometri, con una velocità di circa 26.000 chilometri orari. La navicella è protetta da uno scudo termico che servirà anche a rallentare la sua velocità, che passerà a 1400 km/ora in meno di tre minuti. Un sensore di bordo valuterà la decelerazione, che raggiungerà un valore massimo di 20 g, e a 9 chilometri dal suolo farà aprire un paracadute che nella tenue atmosfera marziana (la sua densità è inferiore all'1 per cento di quella terrestre) rallenterà Pathfinder sino a poco più di 200 chilometri all'ora. A un'altezza di 6 chilometri, 20 secondi dopo l'apertura del paracadute e dopo l'abbandono dello scudo termico, dal modulo principale si sgancerà la sonda vera e propria, che attaccata a una «briglia» lunga 20 metri penzolerà sotto il paracadute e la parte inferiore del modulo di ingresso. Il radar altimetro del lander inizierà a «sentire» il terreno a un'altezza di 1,5 chilometri e a circa 300 metri tre speciali «air bag» del diametro di 5 metri inizieranno a gonfiarsi; 4 secondi più tardi, a 50 metri dalla superficie, verranno accesi tre razzi che rallenteranno ulteriormente la discesa sino a fermare il lander a 15 metri dal suolo. A questo punto la briglia verrà tagliata e i razzi, continuando a funzionare, allontaneranno ciò che resta del modulo di ingresso e il paracadute. Il lander, avvolto dal suo grosso involucro protettivo, cadrà al suolo, rimbalzando sino a fermarsi. Nell'ora successiva gli air bag verranno sgonfiati e parzialmente retratti verso il lander, dopodiché i tre petali metallici, entro cui è racchiusa la sonda, inizieranno a aprirsi. Questa operazione permetterà a Pathfinder di porsi «in piedi» qualunque sia la posizione in cui venisse a trovarsi dopo i rimbalzi sul terreno. A questo punto un «microrover», denominato «Sojourner», agganciato ad uno dei petali, verrà esposto per la prima volta all'ambiente marziano. Dopo che le telecamere del lander avranno esplorato il terreno circostante e trasmesso le immagini a terra, i controllori della missione invieranno dei comandi al rover che immediatamente inizierà il suo lavoro. Sojourner è un concentrato dei più recenti sviluppi nel campo delle microtecnologie. Ha una massa di 11,5 chilogrammi (su Marte quindi pesa poco meno di 4,5 kg) ed è dotato di 6 ruote indipendenti del diametro di 13 centimetri, che gli permettono di superare ostacoli di uguale altezza. Le dimensioni sono di 48x63 centimetri e il suo dorso superiore è ricoperto da cellule solari che insieme a nove batterie forniscono l'energia necessaria al movimento ed al funzionamento degli strumenti di bordo. Il rover, che può raggiungere una velocità massima di 24 metri all'ora, è dotato di due telecamere (una anteriore e l'altra posteriore), un laser per la determinazione della distanza degli ostacoli, ed uno spettrometro a raggi X, che analizzerà la composizione del suolo marziano. La durata nominale della missione di Sojourner è di una settimana, ma è probabile che possa essere prolungata. Naturalmente anche il lander, oltre a raccogliere i dati inviati da Sojourner per poi trasmetterli alle stazioni di terra, è dotato di telecamere e di una serie di strumenti che, dopo aver analizzato l'atmosfera marziana durante la discesa, serviranno come stazione meteorologica. L'atterraggio, a causa delle incertezze dovute alla navigazione interplanetaria e all'ingresso nell'atmosfera, avverrà entro una ellisse di 100x200 chilometri attorno al punto designato. La regione scelta è denominata Ares Vallis e si trova nell'emisfero Nord di Marte a circa 20o di latitudine. Si tratta di una pianura alluvionale dove sino ad uno o due miliardi di anni fa confluivano le acque degli altipiani circostanti. Si pensa quindi che in quest'area siano presenti rocce di diversa origine trasportate dai fiumi marziani e, se anche non sarà possibile stabilire l'esatta origine dei vari campioni, la loro analisi potrà fornire preziose informazioni sulla mineralogia di Marte. I dati raccolti dalla missione Mars Pathfinder saranno preziosissimi per l'esplorazione futura del pianeta rosso: c'è solo da sperare che la sfortuna che ha segnato il fallimento delle precedenti missioni, le sovietiche «Phobos» 1 e 2 e l'americana «Mars Surveyor», non si accanisca anche su «Pathfinder». M. Di Martino Osservatorio di Torino


SCIENZE FISICHE. MUSICA & TECNOLOGIA E' Rubinstein? No è Midi Interpretazioni pianistiche dentro il computer
Autore: OSELLA LEONARDO

ARGOMENTI: MUSICA, TECNOLOGIA
NOMI: GOBBI LORENZO
ORGANIZZAZIONI: GOETHE INSTITUT, COMPOSITORI ASSOCIATI
LUOGHI: ITALIA, EUROPA, ITALIA, TORINO (TO)
NOTE: «Pianoforte Midi» (Musical Instruments Digital Interface)

LA tecnologia al servizio della musica non è una novità, ma i rapporti fra i due mondi si intensificano giorno per giorno. Una delle sorprese più recenti è il «Pianoforte Midi», che permette di accumulare una quantità enorme di dati riguardo ad una esecuzione musicale, di ripeterla quante volte si vuole in modo assolutamente identico all'originale, persino di farla eseguire dal pianoforte preparato da solo (come si faceva con la pianola di antica memoria), ma soprattutto di parametrarla e studiarla scientificamente. Il Goethe Institut di Torino è stato sede di una dimostrazione «ad hoc» , promossa dai Compositori Associati allo scopo di sondare il terreno in vista della creazione di un archivio informatizzato delle interpretazioni pianistiche. Di che si tratta? Occorre dire prima di tutto che Midi è un acronimo ottenuto dalle iniziali delle parole Musical Instruments Digital Interface. Con la «midizzazione» è possibile trasmettere velocemente da uno strumento detto «master» una serie di messaggi a un altro strumento detto «slave», che li interpreta. Spiega Leonzio Gobbi, coordinatore artistico dei Compositori Associati e ideatore dell'archivio informatico: «Nel caso del pianoforte si applicano, sotto i tasti e i pedali, dei convertitori analogico-digitali (sensori a solenoide e a fibre ottiche) in grado di tradurre in codici numerici, attraverso variazioni di tensioni elettriche, la pressione fisica che l'interprete esercita sullo strumento mentre esegue il brano». Questi codici vengono rappresentati attraverso software installati sul computer che riceve i dati dal pianoforte. «I vantaggi a scopo scientifico - prosegue Gobbi - sono chiari: possiamo visualizzare in maniera estremamente precisa la posizione delle note, la loro durata, la pressione esercitata sopra ogni singolo tasto (la dinamica), e l'uso dei pedali in una esecuzione». Volendo, come si è detto, si può far suonare il pianoforte da solo: ricorrono a questo «trucco» certi grandi alberghi, per trasmettere un sottofondo musicale nella hall risparmiando il compenso da dare allo strumentista. Una precisazione a questo punto si impone, a scanso di equivoci. Non si tratta di pianoforti elettronici, ma di normali pianoforti acustici a corde percosse da martelletti: «Sono stati midizzati - afferma Gobbi - strumenti di varie grandi case produttrici come la Yamaha, la Bosendorfer, la Steinway and Sons». E' evidente la differenza qualitativa di un simile sistema rispetto a una pur accuratissima registrazione audio. Ma non è tutto poiché, per una documentazione ancora più efficace dell'esecuzione, si ricorre a riprese video che mostrano su schermo il pianista durante l'esecuzione. Si collega in un «unicum» sistematico l'esito sonoro, la parametrazione elettronica e la visione; si potrà così comprendere come è stato raggiunto un determinato effetto: tipo di tocco, posizione del polso e del braccio, diteggiatura, incrocio di mani e così via. Il materiale raccolto, invitando anche illustri pianisti ad appositi Master di interpretazione su Pianoforte Midi, costituirebbe l'archivio informatico, cioè un patrimonio didattico assai prezioso a disposizione degli studiosi. Alcuni cenni, brevi ma assai eloquenti, sul funzionamento di questo pianoforte (per la cronaca, è uno Yamaha Disklavier) sono confluiti in un video prodotto dalla Juma di Torino. Infine, una curiosità. Proprio quest'anno cade il centenario dell'invenzione, da parte dell'americano Votey, del pianoforte pneumatico, la vecchia pianola a nastri perforati. In questo caso i tasti venivano azionati da una corrente d'aria sospinta da un mantice a pedali come nell'armonium. Questo strumento, successivamente perfezionato da Emil Welte, permise di effettuare registrazioni su nastro di brani eseguiti da grandi pianisti, ma anche dai compositori stessi (tra gli altri Strauss, Debussy, Mahler, Grieg). Il «nipotino» Midi si pone sulla stessa strada della «nonna pianola», ma con ben altri requisiti tecnologici. Si potranno ora conservare le testimonianze più attendibili dell'arte dei massimi interpreti, anche se rimarrà sempre il rammarico di non aver potuto immortalare «midizzandole» le inarrivabili esecuzioni di un Rubinstein, di un Horowitz o di quel sublime originale che fu Glenn Gould. Leonardo Osella


SCAFFALE Bassoli Romeo: «Portiamo anche i bambini», Feltrinelli
AUTORE: BIANUCCI PIERO
ARGOMENTI: DIDATTICA
LUOGHI: ITALIA

IL viaggio è sempre stato una esperienza di iniziazione. Lo è a tutte le età, ma una volta, ai tempi dell'Alfieri o del D'Azeglio, la si faceva più o meno all'età in cui ci si laurea, e il viaggio era, in certo senso, una laurea. Il discorso vale anche oggi, con un ulteriore abbassamento dell'età di soglia. Si può viaggiare con divertimento e insieme facendo un'esperienza culturale anche a 5-10 anni, accompagnati dai genitori. Ma bisogna sapersi organizzare in modo che il viaggio non diventi una tortura nè per i viaggiatori adulti nè per quelli minorenni. Bassoli in questo libro ci dà i consigli giusti. Tra le mete suggerite, molte sono scientifiche: la Grande Galerie de l'Evolution a Parigi, l'Acquario di Genova, l'Orto Botanico di Palermo, il Museo della Scienza e della Tecnica di Milano, la Città della Scienza di Napoli, i parchi naturali. Di tutti sono forniti telefono, orari, dati di servizio.


SCAFFALE Cossard Guido e Ferreri Walter: «Comete», Musumeci
AUTORE: BIANUCCI PIERO
ARGOMENTI: ASTRONOMIA
LUOGHI: ITALIA

La cometa Hale-Bopp ha risvegliato l'interesse popolare per questi corpi celesti che, secondo gli studi più recenti, sarebbero i fossili della nebulosa dalla quale, quasi 5 miliardi di anni, ebbero origine il Sole e i pianeti. Con questo libro sottile ma ricco di bellissime foto e di informazioni, Guido Cossard e Walter Ferreri ci offrono una panoramica sulle comete storiche, sulle comete più vistose e recenti, sulle tecniche di scoperta e di osservazione e sui rapporti tra comete e meteore.


SCAFFALE Papuli Gino: «L'ingegno e il congegno», Edizioni del Grifo
AUTORE: BIANUCCI PIERO
ARGOMENTI: TECNOLOGIA
LUOGHI: ITALIA

Ogni epoca lascia la sua eredità. L'epoca dell'industrializzazione ci sta lasciando macchine e stabilimenti che spesso, oltre al valore di documento tecnologico e architettonico, hanno il significato di una testimonianza storica e sociale. L'era industriale non è certo chiusa, come potrebbe far pensare l'abuso dell'aggettivo post-industriale. Ma siamo entrati in un tempo nel quale è il software ad assumere un ruolo prevalente rispetto all'hardware: siamo, si dice, nell'era della dematerializzazione. E' un motivo di più per studiare e proteggere quelle macchine e quei luoghi che sono diventati archeologia industriale. Papuli, docente di queste cose all'Università di Lecce, ci dà un libro prezioso: documenti sulle industrie estrattive, di trasformazione, manifatturiere, energetiche; e indicazioni per la tutela, il recupero e la fruizione di questi beni culturali altamente emblematici del nostro tempo.


SCAFFALE «Quark 2000», ed. Le Scienze
AUTORE: BIANUCCI PIERO
ARGOMENTI: STORIA DELLA SCIENZA
LUOGHI: ITALIA

E' il catalogo della mostra «Quark 2000» realizzata a Roma nella scorsa primavera dall'Infn, ma è anche un libro che riassume un secolo di fisica fondamentale, dalla scoperta delle prime particelle atomiche ai quark, dalla relatività alla meccanica dei quanti, alle prospettive di ricerca del prossimo secolo. Tra gli autori, Tullio Regge, Nicola Cabibbo, Carlo Bernardini, Giorgio Bellettini.


SCAFFALE Grassini Gian Paolo e Russo Edoardo: «Gli Ufo», Armenia
AUTORE: BIANUCCI PIERO
ARGOMENTI: RICERCA SCIENTIFICA
LUOGHI: ITALIA

Gli Ufo hanno 50 anni: ufficialmente il primo avvistamento avvenne il 24 giugno 1947 nello Stato di Washington. Gli autori ripercorrono mezzo secolo di osservazioni, discutendo criticamente il fenomeno.


SCAFFALE Autori vari: «L'immaginazione della natura», Bollati Boringhieri,
AUTORE: BIANUCCI PIERO
ARGOMENTI: RICERCA SCIENTIFICA
LUOGHI: ITALIA

Tredici scienziati presentano gli ultimi sviluppi della loro disciplina nel passaggio dal riduzionismo allo studio della complessità. Tra gli autori Sacks, Edelman, Penrose, Barrow.


SCAFFALE Autori vari: «Dizionario di antropologia», Zanichelli
AUTORE: BIANUCCI PIERO
ARGOMENTI: ANTROPOLOGIA E ETNOLOGIA
LUOGHI: ITALIA

Coordinato da Ugo Fabietti e Francesco Remotti, questo «Dizionario di antropologia» merita uno spazio nella biblioteca di ogni persona colta. Voci agili, non troppo ampie ma con una solida informazione di base. Piero Bianucci


SCIENE FISICHE. IL «TRUCCO» DI MERCATORE La sfera pianificata L'arduo problema dei cartografi
Autore: ODIFREDDI PIERGIORGIO

ARGOMENTI: GEOGRAFIA E GEOFISICA
NOMI: KREMER GERHARD «MERCATORE»
LUOGHI: ITALIA

PIANIFICARE la sfera, ridurre cioè la sua superficie ad un piano, è come voler quadrare il cerchio. Ma mentre ridurre un cerchio a un quadrato è un problema che può anche sembrare astratto, pianificare la sfera è molto concreto: si pensi alle carte geografiche. Oltre ad essere utile, la soluzione del problema è anche difficile: poiché richiede una vera e propria divinazione matematica, il nome di cartomanzia sarebbe più indicato in questo caso che in quello della divinazione ciarlatanesca con le carte da gioco. A prima vista, il problema sembra non sussistere: volendo riportare delle figure disegnate su una sfera trasparente, basta inserire una lampadina circolare nel centro della sfera, arrotolare a cilindro un foglio attorno all'equatore della sfera, accendere la lampadina, e riportare con una matita le proiezioni sul foglio. La cosa è però insoddisfacente, anzitutto perché due calotte sferiche vengono escluse dalla carta: per proiettare tutta la sfera ci vorrebbe un cilindro infinito. Inoltre, più ci si avvicina ai bordi del foglio, più le figure della sfera si deformano: in particolare, gli angoli sulla carta non sono uguali a quelli sulla sfera. I marinai richiedono alle loro carte due condizioni, di cui solo la prima è soddisfatta dalle proiezioni cilindriche: le direzioni verso il Nord devono essere tutte rappresentate da linee verticali; inoltre, le direzioni fornite dalla bussola devono essere rappresentate correttamente rispetto alla direzione Nord (ad esempio, se un fiume scorre in direzione Nord-Est, sulla carta esso deve risultate a 45o). Una soluzione al problema venne trovata nel 1569 dal fiammingo Gerhard Kremer, detto Mercatore (perché il suo cognome significa «mercante»), ed essa si trova su tutti gli atlanti. La sua idea fu la seguente: poché i meridiani sono alla distanza massima all'equatore e minima ai poli, ma sulla carta devono venir rappresentati da due linee equidistanti, la scala lungo i paralleli deve progressivamente crescere verso i poli; poiché tutti i paralleli sono rappresentati sulla carta da segmenti della stessa lunghezza, la scala lungo un parallelo è determinata dal rapporto fra la sua lunghezza e quella dell'equatore; e affinché gli angoli vengano preservati, le scale lungo i meridiani devono crescere della stessa quantità di cui crescono quelle lungo i paralleli. Ciò rende unica la rappresentazione di una carta adatta ai marinai, e a Mercatore non rimase che disegnarla. Poiché l'appetito vien mangiando, ci si può chiedere se, invece di preservare gli angoli, una carta possa preservare le distanze: in altre parole, se esista una carta della sfera, o anche solo di una sua porzione, a scala non variabile (come in quella di Mercatore), ma fissa (come nelle mappe delle città). Che la risposta sia negativa si può intuire da una esperienza familiare: se cerchiamo di stendere sul tavolo una porzione di sfera, ad esempio un pezzo di buccia d'arancia, finiamo per romperla. Dimostrare matematicamente la cosa non è molto più complicato: lo fece per la prima volta nel 1775 il Bach dei matematici, Leonard Euler. L'osservazione cruciale è che su una sfera la distanza fra due meridiani passanti per due punti sull'equatore decresce andando verso i poli, e tracciare le direzioni dei meridiani richiede soltanto l'uso del compasso, cioè misure di distanze. Il che è una buona notizia, perché significa che non è necessario uscire dalla Terra e fotografarla dallo spazio per accorgersi che è una sfera. La stessa cosa dovrebbe però succedere anche in una carta in scala: ma sul piano i meridiani passanti per due punti sono rette parallele, e quindi sempre alla stessa distanza. Il che è una cattiva notizia, perché significa che tutte le carte a scala fissa, come quelle stradali o geografiche, sono sbagliate: ma, poiché per territori piccoli le distorsioni sono minime, solo i latifondisti avranno dei problemi, come è giusto che abbiano. Piergiorgio Odifreddi Università di Torino


SCIENZE FISICHE. AERONAUTICA L'idea del convertiplano ha radici italiane Gabrielli ci aveva pensato
Autore: BOFFETTA GIANCARLO

ARGOMENTI: TRASPORTI, TECNOLOGIA
NOMI: GABRIELLI GIUSEPPE
ORGANIZZAZIONI: FIAT AVIO, FARFADET
LUOGHI: ITALIA

IL nuovo rivoluzionario velivolo che può decollare verticalmente come un elicottero e proseguire il volo come un aereo, il convertiplano illustrato su «Tuttoscienze» il 14 maggio scorso, non è nato solo dalla genialità di progettisti americani: in Europa, negli stessi anni o addirittura prima, avevano volato prototipi analoghi. Il primo in assoluto è stato probabilmente il Farfadet francese della Sud-Ouest che aveva la sagoma di un normale aereo monomotore con in più un'elica tripala sulla cabina e che si è alzato in voto nel maggio 1953, seguito l'anno successivo dal McDonnell XV1, molto simili nell'architettura. La differenza fondamentale tra Europa e Usa, ciò che in realtà ha permesso agli americani di arrivare per primi al lancio di una produzione di serie, sta nei 5 miliardi di dollari investiti in questa ricerca grazie ai fondi governativi. Anche noi italiani siamo stati con i primi a studiare e sperimentare velivoli a decollo verticale. Giuseppe Gabrielli era particolarmente attirato da questi studi perché prevedeva, in un futuro sia pur lontano, l'avvenire del trasporto aereo basato su aeroplani in grado di alzarsi verticalmente. Avevo accompagnato Gabrielli in una visita a Farnborough alla fine degli Anni 50 e ricordo bene quando, dopo aver assistito al decollo verticale di uno strano aereo - lo Short Sc1 - si rivolse a noi, giovani ingegneri, dicendo: «Ricordate questo decollo: oggi avete assistito a un volo importante come quello dei fratelli Wright; un giorno gli aeroplani decolleranno così dall'interno delle città». Gli studi di Gabrielli si erano poi concretati nello sviluppo del Fiat G 95 e del Focke Wulf-Fiat VAK 191. Presso il museo Gabrielli della Fiat Aviazione di Torino sono conservati molti documenti con gli studi teorici effettuati su questi progetti fra i quali è molto interessante quello illustrato a Hot Spring (Usa) nel 1966 al Congresso Internazionale di tecnologia aeronautica. Ma è soprattutto il G222, velivolo da trasporto bimotore, l'aereo che aveva aperto la porta a una speranza di realizzare il primo velivolo italiano a decollo verticale. Tra i «convertibili» aerei che utilizzano gli stessi motori per la sostentazione in decollo e la propulsione in volo e i «combinati» dove la forza sostentatrice e quella propulsiva sono affidate a motori diversi, per il G222 era stato scelto quest'ultimo tipo. L'idea originale di Gabrielli era quella di costruire un aereo che potesse esser assemblato in modo diverso a seconda delle necessità dell'utilizzatore: convenzionale come quello oggi in servizio, oppure a decollo corto, e infine il G222 a decollo verticale che avrebbe portato in ciascuna delle due gondole motore altri tre motori più piccoli dedicati al sostentamento durante il decollo e l'atterraggio. Purtroppo i mezzi dei bilanci governativi, della Ricerca e della Difesa, erano ben lontani da quelli americani e non era pensabile che una azienda privata, fosse pur grande come la Fiat, potesse da sola intraprendere un progetto del genere. Così ci si fermò ad uno studio teorico. Giancarlo Boffetta


LETTERA APERTA Gli enigmi del ministero
AUTORE: LOLLI GABRIELE
ARGOMENTI: RICERCA SCIENTIFICA
LUOGHI: ITALIA

In questi giorni sono impegnato, come molti miei colleghi, a compilare moduli e a scervellarmi per scoprire come fare le dichiarazioni per... non l'Ici, ma il finanziamento del ministero alla Ricerca. Il primo impatto è deprimente, perché le disposizioni sono così complicate e vaghe che si dispera di riuscire a capirle, e sembra che sia fatto apposta, cioè che il nostro ministero volesse proprio trasmettere questo chiaro messaggio: «Il ministero ti finanzia se, e solo se, tu credi che non ti finanzierà». Se uno interiorizza questo messaggio si trova in difficoltà, perché se spera (o crede) che il ministero lo finanzi allora crede anche che non lo farà; d'altra parte se pensa che non lo farà, allora deve credere che lo farà. La via d'uscita è che «credere di credere» non equivalga a «credere». Ci si può vendicare di questa sofferenza imposta. Le ricerche devono avere una presentazione sulla cui base il ministero decide se finanziarle; i criteri non sono chiari, si può parlare di bontà o scarso valore della ricerca, di ragionevolezza o di scarsa credibilità; per semplificare, distinguiamo i due casi con la verità o falsità della dichiarazione di presentazione (che sono tutte belle e allettanti). L'ipotesi ufficiale è che il ministero finanzia se e solo se la dichiarazione è vera. Ora io ho deciso che manderò una richiesta con la seguente descrizione della ricerca: «Questa ricerca non sarà finanziata dal ministero». Ora sarà il ministero a essere in difficoltà, perché se me la finanzia, la dichiarazione è falsa e quindi non dovrebbe finanziarmela; ma se non me la finanzia, allora la dichiarazione è vera, e dovrebbe finanziarmela. In realtà secondo alcuni il principio ispiratore è che «il ministero finanzia se e solo se qualcun altro finanzia», con la benevola interpretazione politica del cofinanziamento; tuttavia alla lettera questo criterio nasconde una contraddizione che permetterà al ministero di non finanziare nulla; infatti, se nessun altro finanzia, allora il ministero non finanzia; ma se qualcun altro finanzia, il ministero non finanzia per non vanificare il fatto che deve essere un altro a finanziare. A quanti sono alle prese con le domande, non resta che esercitarsi con un allenamento logico preventivo sui libri di Raymond Smullyan (Qual è il nome di questo libro?, Zanichelli, o Fare il verso al pappagallo, Bompiani). Gabriele Lolli Università di Torino


SCIENZE DELLA VITA. ALLARME ANFIBI Il massacro delle rane
Autore: LATTES COIFMANN ISABELLA

ARGOMENTI: ZOOLOGIA
LUOGHI: ITALIA

UNA triste realtà di cui dobbiamo prendere atto: rane, rospi, salamandre e tanti altri anfibi stanno scomparendo dalla scena del mondo a ritmo allarmante. Quali le cause? Sono molte. Innanzitutto la scomparsa dell'habitat per il graduale prosciugamento degli ambienti umidi, la presenza sempre più massiccia dei veleni chimici (concimi, pesticidi, insetticidi e simili) diffusi nelle campagne, l'aumento del traffico stradale, l'inquinamento della falda freatica, secondo alcuni studiosi anche le piogge acide e l'aumento delle radiazioni ultraviolette dovuto al buco dell'ozono. E perfino il prelevamento non trascurabile di animali vivi per le scuole e per la ricerca scientifica. E poi, last but not least, la golosità umana, in nome della quale viene sacrificato ogni anno un numero incalcolabile di rane. Sono molto apprezzate dai buongustai le robuste cosce degli arti posteriori, quelle che consentono alle rane di compiere balzi prodigiosi. Quando saltano sembrano quei giocattoli meccanici che scattano non appena si carica la molla. Ebbene quelle cosce hanno una carne bianca particolarmente appetitosa. Il consumo delle cosce di rana è in vertiginoso aumento in Belgio, Olanda, Francia, Germania e anche da noi, in Italia. Si prelevano dalla natura tonnellate e tonnellate di rane] Ma come si fa a raccoglierne un contingente così imponente? Ebbene, è più facile di quanto non si creda. In natura questi animali trascorrono la stagione più rigida affondati nel fondo fangoso degli stagni o nascosti in anfrattuosità della sponda in uno stato di torpore molto simile al letargo dei mammiferi ibernanti. Poco prima che l'inverno abbia termine, le rane si risvegliano e si mettono in cammino per raggiungere le località di deposizione. Attraversano le strade rimanendo spesso schiacciate dalle vetture in transito. Finalmente eccole giunte a destinazione. Si radunano a migliaia, stipate in poco spazio: qualche decina di metri quadri. I maschi più piccoli delle femmine si riconoscono, oltre che per le dimensioni, anche per le callosità delle dita anteriori, le cosiddette «callosità nuziali». Servono per abbracciare più forte la femmina, quando le salgono in groppa. Nonostante le apparenze, la fecondazione è solo esterna. Ossia il maschio non introduce lo sperma entro il corpo femminile. Con il suo vigoroso abbraccio si accontenta di stimolare la compagna a deporre il suo carico di uova. E ogni femmina depone dalle duemila alle quattromila uova che il maschio irrora prontamente di sperma. Questi assembramenti durano da una a due settimane. Ora, data la fedeltà delle rane ai luoghi dei loro rendez-vous amorosi - anno dopo anno sono sempre gli stessi - i raccoglitori li individuano facilmente e non debbono far altro che aspettare il momento propizio, la fine dell'inverno per la rana temporaria o la primavera per la rana esculenta, le due specie più apprezzate dai buongustai. Raccoglierle poi è facilissimo. Perché l'abbraccio del maschio è talmente focoso che i due rimangono legati a filo doppio. Non è facile distaccare i partner l'uno dall'altro. Ben lo sanno i predatori naturali, le civette, i colubri, le puzzole, le lontre, gli aironi, le cicogne, che colgono la magnifica occasione per fare man bassa tra le coppie in amore. E i raccoglitori umani ne hanno sempre approfittato per cogliere due piccioni con una fava. Ma in passato le cose erano diverse. Il prelievo dei predatori non solo non incideva sulla consistenza delle popolazioni, ma serviva da valido freno alla proliferazione eccessiva delle rane. Gli equilibri naturali erano rispettati. Le cose però sono cambiate da quando si ricorre al congelamento. Questa nuova tecnica consente di disporre di carne fresca tutto l'anno e incentiva l'ecatombe delle rane. I due amanti passano tragicamente dall'amore alla morte quando una impietosa cesoia taglia loro le zampe posteriori, l'unica parte del corpo considerata degna del palato umano. E' facile immaginare come si presenta lo stagno dopo la barbara esecuzione in massa. Un'ammucchiata di corpi mutilati in preda agli spasmi dell'agonia. Davanti alla domanda crescente del mercato, i prelievi locali si sono rivelati insufficienti e si è dovuto ricorrere all'importazione. Cosi, da un po' di tempo a questa parte, ogni anno dall'India e dal Bangladesh vengono importati in Europa centoquaranta milioni di rane, che ci arrivano sotto forma di cosce congelate. Ci si potrebbe chiedere come mai, per tutelare la sopravvivenza delle rane in natura, non si sia pensato di allevarle artificialmente, come già si sta facendo con altre specie animali commestibili. Certo, sarebbe più saggio. Ma nel mondo degli uomini la saggezza conta meno dell'utile economico. L'inconveniente è che il ciclo vitale della rana è assai lungo e carico di rischi. Generalmente maschi e femmine diventano sessualmente maturi soltanto a tre o quattro anni e bisogna aspettare che arrivino ai quattro o cinque anni di età prima che raggiungano una dimensione commerciabile. E' quindi molto più semplice e sbrigativo far man bassa in natura. La rarefazione degli anfibi può avere notevoli ripercussioni sulla stabilità degli ecosistemi. Bisogna tener presente che gli anfibi sono esseri «sui generis»: non hanno penne o peli che li proteggano e le uova non sono racchiuse entro solidi gusci. La loro pelle è estremamente permeabile, assorbe perciò facilmente le sostanze che inquinano l'acqua. Quando si trovano allo stadio larvale (quello di girini) gli anfibi rimuovono grandi quantità di alghe dagli stagni e dai ruscelli. Quando diventano adulti, sempre affamati, divorano moltissimi insetti e altri invertebrati. Questo doppio ruolo ecologico fa di loro degli eccellenti bioindicatori. La loro situazione cioè riflette perfettamente lo stato di salute generale dell'ambiente. Ecco perché il loro declino è un segnale molto preoccupante. Isabella Lattes Coifmann


SCIENZE DELLA VITA. BIOTECNOLOGIA Anche il Dna in microchip
Autore: ROBINO CARLO

ARGOMENTI: BIOLOGIA, TECNOLOGIA
LUOGHI: ITALIA

FATE un esperimento. Prendete un ragazzino appassionato di informatica e un genetista e domandate loro che cosa contiene un microchip. Il primo, con tono tra il professionale e l'annoiato, salmodierà: «Circuiti miniaturizzati incisi su materiale semiconduttore». Quanto al secondo, è probabile che vi lanci uno sguardo esaltato e poi risponda: «Centinaia di migliaia di molecole Dna]». Non si tratta di delirio scientifico, ma di una nuova biotecnologia. Il Dna chip, per l'appunto: una sottile tessera di silicio di appena 1-2 centimetri quadrati sulla quale è possibile legare un numero enorme di brevi frammenti di Dna (oligonucleotidi) nella disposizione preferita. Per fare ciò si ricorre ad una tecnica, la fotolitografia, comunemente utilizzata per fabbricare i microprocessori. In microelettronica, la fotolitografia sfrutta la luce per orientare nello spazio la formazione simultanea di una grande quantità di circuiti elettrici; nei Dna chip serve, invece, a dirigere la sintesi degli oligonucleotidi, in modo che ciascuno di essi abbia la sequenza desiderata di basi - le quattro unità chimiche che costituiscono «l'alfabeto» del Dna: adenina, timina, citosina e guanina - e sia collocato in un punto ben determinato e noto del supporto di silicio. Avere a disposizione migliaia di oligonucleotidi fissati ad un unico substrato consente di eseguire in contemporanea migliaia di reazioni di «ibridizzazione». Con questo termine si intende, in genetica, la capacità di due filamenti di Dna e/o di Rna tra loro «complementari» di appaiarsi a formare una doppia elica; di comportarsi, in pratica, come le metà di una microscopica cerniera lampo, che si uniscono solo se i rispettivi dentini s'incastrano alla perfezione. Nel Dna e nell'Rna, anziché file di dentini, troviamo sequenze di basi: a ciascuna adenina di un filamento deve corrispondere, nell'altro, una timina (uracile nell'Rna) e viceversa; ad una citosina, una guanina e viceversa. La capacità di frammenti anche brevi di Dna di riconoscere, tra molte sequenze, solo quelle complementari e di legarle in modo stabile è la chiave delle moderne tecniche di biologia molecolare: lo sforzo degli scienziati per localizzare («mappare») e comprendere nelle loro funzioni gli oltre 80.000 geni contenuti nel patrimonio ereditario umano passa quotidianamente attraverso laboriose e ripetute reazioni di ibridizzazione. Nonostante le difficoltà, moltissimi geni sono stati isolati, per intero e in frammenti incompleti, e le loro sequenze, almeno in parte, precisate. L'uso dei Dna chip permetterà in futuro di sveltire il mappaggio e l'analisi di sequenza, mentre già oggi consente di rinvenire con facilità minime mutazioni patologiche (anche quelle puntiformi, dove è modificata una singola base) in geni di sequenza nota. Un esempio? Mutazioni nel gene pr del virus Hiv determinano la comparsa di ceppi virali resistenti a certi farmaci anti- Aids, come gli inibitori della proteasi. Grazie ai Dna chip, è possibile riconoscere la presenza dei virus mutanti in pazienti sieropositivi e, di conseguenza, personalizzare la terapia. Allo scopo, la sequenza normale («wild- type») del gene pr è stata analizzata a tavolino e scomposta in migliaia di oligonucleotidi, che si è poi provveduto a sintetizzare su un unico Dna chip. Di ogni oligonucleotide il chip contiene, accanto alla forma wild-type, anche tutte le possibili varianti che si discostano dalla sequenza normale per una sola base. Il gene virale pr isolato dal sangue del paziente viene replicato in milioni di copie, marcate con una sostanza fluorescente (rossa, ad esempio). Le copie fluorescenti, una volta ibridate con il Dna chip, si legano solo agli oligonucleotidi a loro complementari, emettendo un segnale colorato. La disposizione («pattern») con cui i segnali di ibridizzazione si accendono sul chip rispecchia in modo specifico la sequenza di basi del gene pr presente nel paziente. Il pattern ottenuto può essere paragonato con quello prodotto, sullo stesso Dna chip, da copie del gene pr wild-type che siano state marcate con una fluorescenza di colore diverso (verde, poniamo). Il risultato finale del confronto comparirà, in pochi minuti, sullo schermo di un computer, sotto forma di gradevole scacchiera variopinta, in cui le eventuali mutazioni spiccano come macchie rosse sul sottofondo uniforme (verdepiùrosso). Se si pensa che i tradizionali metodi di sequenza, oltre che lenti, appaiono di un desolante bianco e nero, non resta che salutare con piacere l'avvento dei Dna chip: anche in genetica, l'occhio vuole la sua parte. Carlo Robino


SCEINZE DELLA VITA. SECONDO I GEORGOFILI Toscani sanguigni e mordaci Pare che tutto il merito sia della bistecca alla fiorentina
Autore: GRANDE CARLO

ARGOMENTI: ALIMENTAZIONE
ORGANIZZAZIONI: ACCADEMIA DEI GEORGOFILI
LUOGHI: ITALIA

MA perché il carattere dei toscani è così spesso sanguigno, mordace, predisposto al buon umore? La risposta, sorprendente, giunge da una gloriosa istituzione scientifica italiana, l'Accademia dei Georgofili: una parte del merito, oltre che al vino rosso, sarebbe da attribuire ad alcune sostanze contenute nella famosa bistecca alla fiorentina. Recentemente, presso la sede fiorentina dei Georgofili, si è tenuto un convegno sulla razza Chianina, nobilissima schiatta di bovini che da oltre duemila anni pascola sulle colline della Toscana e dell'Umbria: nell'antichità i candidi buoi chianini venivano impiegati per trainare i carri degli imperatori romani, quando sfilavano per il trionfo. Oggi i vitelloni di questa razza forniscono la carne per la bistecca alla fiorentina, alimento che stando ai risultati di una ricerca quinquennale svolta nell'ambito del progetto «Raisa» del Cnr, avrebbe qualità straordinariamente salutari per l'alimentazione umana: è molto magra, ha un'elevata proporzione di fosfolipidi e acidi grassi polinsaturi, ma soprattutto, ha spiegato il prof. Francesco Antonini, ha forte capacità antiossidante nel sangue, molto simile, come quantità e durata, a quella del vino rosso. Tutto ciò produce un effetto non solo nutritivo, ma anche terapeutico, che ne incoraggia il consumo contro tutte le forme di ossidazione che si verificano di solito durante la digestione e nel metabolismo associato. Le virtù del vino rosso sono dovute alla presenza di polifenoli e flavonoidi contenuti ed estratti dalla buccia dell'uva durante la fermentazione, mentre l'effetto antiossidante della carne, che non era fino ad oggi conosciuto, non si sa ancora a quali elementi vada attribuito. Probabilmente è da attribuire a un dipeptide, la L- carnosina, di cui è molto ricco il muscolo striato dei bovini adulti. Quel che è certo, hanno spiegato al convegno, è che il patrimonio genetico della razza chianina è molto particolare, perché gli animali presentano un metabolismo indirizzato verso la sintesi delle proteine piuttosto che verso la deposizione di grasso. Proprio per questa loro naturale capacità, gli stimolatori di crescita applicati a questa particolare razza di bovini sono inefficaci: ciò garantisce quindi la qualità della loro carne, l'assenza di residui di tali prodotti, così spesso impiegati nella zootecnia. La razza chianina, inoltre, ha un altro vantaggio: viene allevata con un sistema «estensivo», all'aperto, tanto più in ambienti eccezionali come le zone collinari e montane. La Regione Toscana, per tutelare e valorizzare la chianina, ha presentato un programma di ricerca quadriennale. Un'altra dimostrazione di quanto sia importante difendere le razze nostrane, frutto di una selezione genetica naturale, andata avanti nel corso dei secoli. «La lunga tradizione alimentare toscana - spiegano i Georgofili - non è attribuibile solo al caso; anche l'allegria, spesso eccessiva, che è considerata caratteristica dei nostri ristoranti, potrebbe trovare in questi cibi una ragione d'essere rispetto ad altri paesi dove si preferiscono pietanze e bevande di altro genere». Carlo Grande


SCIENZE DELLA VITA. COMPUTER E HANDICAP I programmi per i disabili Lenta l'evoluzione: se ne discute su Internet
Autore: REVIGLIO FEDERICO

ARGOMENTI: INFORMATICA
LUOGHI: ITALIA

TRA sviluppi dell'informatica e multimedialità, sembra che il computer diventi sempre più facile e piacevole da usare. Ma per qualcuno è vero il contrario. Sono i disabili, le persone con difficoltà di movimento o con qualche privazione sensoriale. Per molti di loro, l'arrivo del computer era stato meraviglioso: bastava utilizzare il programma adatto, e un cieco poteva leggere, perché la macchina trasformava le parole scritte in suoni; chi non poteva utilizzare le mani o le braccia, poteva scrivere, perché la macchina trasformava i suoni in parole scritte; chi non era in grado di sfogliare un giornale, poteva chiedere al computer di farlo per lui, ritrovando un certo articolo e magari leggendolo con una voce sintetica, o traducendolo su una barra Braille, e così via (come è possibile, fin dal 1988, proprio per «La Stampa», che è l'unico quotidiano italiano ad avere una edizione per disabili diffusa gratuitamente via Televideo in collaborazione con la Rai). Per molti disabili, l'arrivo in casa di un computer era stato il più bel regalo immaginabile, di quelli che davvero cambiano la vita. Tutto finito o quasi, proprio grazie ai progressi della macchina nella piacevolezza per le persone che non hanno problemi. Per dare un comando oggi non bisogna più scrivere una parola, come succedeva qualche anno fa: basta un clic del mouse su un disegnino da qualche parte dello schermo. E' ottimo e riposante, a patto di poter vedere dov'è il disegnino, e di poter spostare il mouse fino a intercettarlo: ma se non si hanno queste capacità? E cosa dire di chi, privo dell'udito, cerca sul computer un articolo di enciclopedia e trova - prodigio multimediale - che l'editore ha trattato il tema non con un testo, ma con un film commentato solo da una voce fuori campo? O di chi, non vedendo, fa cercare dal computer il testo di un articolo perché gli venga letto in suoni, e scopre che la macchina si blocca impotente perché a metà del testo trova una bella foto, cioè un'informazione non fatta di parole? Il guaio è che i programmi tradizionali per disabili sono strumenti sì molto sofisticati, ma in grado di funzionare bene solo se applicati a informazioni in forma elementare: lettere dell'alfabeto e numeri, espressi elettronicamente nel modo più semplice. Se si comincia con disegni, foto, filmati, animazioni, suoni e quant'altro, molti programmi si inchiodano, non capiscono letteralmente più quel che stanno «vedendo». Certo, anche i programmi per disabili cercano di migliorare, e di affrontare informazioni più complesse: per esempio, si inventano programmi in grado di «guardare» uno schermo identificandone le diverse zone; si chiamano «screen reader», e ottengono già ottimi risultati, pur se imperfetti. E' comunque un'evoluzione molto difficile, lenta, e in qualche caso probabilmente impossibile. Intanto, se ne discute (ovviamente, su Internet). Gli indirizzi utili sono ormai centinaia, oltre a molti newsgroup. Limitiamoci a un paio in Italia, che dispongono di ottime liste per visitare altri siti. Anzitutto, le ormai storiche pagine del Cnr di Firenze. http://area.fi.cnr.it/hcap/first.htm; è poi anche assai buona la pagina per disabili di McLink (www.mclink. it/mclinck/handicap/index.htm). Da questi due trampolini, si può arrivare dappertutto. E le istruzioni (dettagliatissime) per progettare un servizio informatico che non respinga i disabili? C'è tutto a http://trace.wisc.edu/HTMLgide/. Se state realizzando un sito web, andate subito a vedere. Federico Reviglio


SCIENZA DELLA VITA. NUOVI FARMACI Il mistero emicrania Ne soffre il 15% dell'umanità
Autore: PINESSI LORENZO

ARGOMENTI: MEDICINA E FISIOLOGIA, CHIMICA, FARMACEUTICA
ORGANIZZAZIONI: INTERNATIONAL HEADACHE SOCIETY
LUOGHI: ITALIA

NUMEROSI studi epidemiologici hanno dimostrato che il quindici per cento della popolazione mondiale soffre di emicrania. L'emicrania è, spesso, una malattia curata in modo inadeguato o addirittura non diagnosticata. Solo un terzo dei pazienti si rivolge al medico per una terapia corretta, gli altri provano a curarsi da sè o si limitano ai consigli del farmacista. I costi sociali della malattia, sia di tipo diretto (la cura) sia indiretto (assenze dal lavoro), sono enormi. Si è recentemente svolto ad Amsterdam l'ottavo congresso della International Headache Society. Specialisti e ricercatori di tutto il mondo hanno cercato di fare il punto sulle più recenti acquisizioni sulla malattia emicranica e sulle sue prospettive terapeutiche. I neurogenetisti hanno presentato le nuove ricerche sulle basi molecolari dell'emicrania. Numerose evidenze in questo settore indicano come l'emicrania debba essere classificata tra le canalopatie, tra quelle malattie neurologiche, cioè, che sono causate dalla mutazione di geni che codificano per canali ionici di membrana. Il primo gene ad essere stato clonato in una rara forma di emicrania (emicrania emiplegica familiare - Fhm) è quello che codifica per la subunità alfa1A del canale del calcio. Alterazioni dello stesso gene sono risultate, successivamente, responsabili di altre malattie neurologiche come una forma di atassia episodica (Ea-type 2) ed una forma di atassia degenerativa (Sca 6). Nell'animale da laboratorio, alterazioni dello stesso canale ionico sono responsabili della comparsa di crisi epilettiche. Più recentemente è stato localizzato sul cromosoma 1 un secondo gene correlato ad un'altra forma ereditaria di emicrania. Le ricerche di neurofisiologia clinica, condotte con sofisticate metodiche come i potenziali evocati evento-correlati e il brain mapping, hanno rivelato nei soggetti emicranici una alterazione dell'eccitabilità della corteccia cerebrale, alterazione che può essere corretta dai farmaci betabloccanti, spesso utilizzati nella profilassi della malattia. Varie relazioni si sono occupate dei nuovi farmaci in grado di bloccare l'attacco emicranico. La terapia dell'emicrania era, anni fa, basata sull'utilizzo dei farmaci antinfiammatori non steroidei (Fans) e dei derivati degli ergot alkaloids (ergotamina e diidroergotamina). Farmaci, questi, discretamente efficaci nell'attacco emicranico, ma gravati dalla presenza di numerosi effetti collaterali e da diverse controindicazioni. Alla fine degli Anni 80 venne commercializzata una nuova molecola, il sumatriptan, caratterizzata da un effetto selettivo sui recettori per la serotonina, in particolare i recettori 5-ht1. Soprattutto per somministrazione sottocutanea il farmaco è risultato particolarmente utile sia nell'emicrania che nella cefalea a grappolo, altra forma particolarmente grave di cefalea. Il sumatriptan è, rapidamente, divenuto il farmaco di prima scelta nella terapia delle forme gravi di emicrania. Anche questo prodotto, tuttavia, ha evidenziato effetti collaterali (in particolare di tipo cardiovascolare) ed ha dimostrato una breve durata di azione. Per superare questi limiti i laboratori di ricerca hanno sviluppato, a partire dal sumatrip tan, una nuova generazione di farmaci antiemicranici. Tra questi, il Rizatriptan, il Naratriptan, lo Zolmitriptan e l'Elitriptan stanno per fare il loro ingresso anche sul mercato italiano. Diversi studi negli animali da esperimento e numerose sperimentazioni cliniche internazionali hanno dimostrato l'efficacia di queste nuove molecole, i triptani, che causano un minor numero di effetti collaterali e hanno una più rapida e prolungata azione antiemicranica. L'efficacia è in rapporto ad una azione selettiva sui recettori serotoninergici localizzati sulle arterie craniche, ed alla loro capacità di attraversare la barriera emato-encefalica inibendo, così, l'attivazione dei meccanismi cerebrali del controllo del dolore (specificatamente il sistema trigemino-vascolare). Lorenzo Pinessi Direttore del Centro Cefalee Università di Torino


SCIENZA DELLA VITA. ANALGESICI Continua la guerra al dolore
Autore: DI AICHELBURG ULRICO

ARGOMENTI: MEDICINA E FISIOLOGIA, CHIMICA, FARMACEUTICA
ORGANIZZAZIONI: OMS
LUOGHI: ITALIA

IL dolore non è una sensazione come le altre, la sua intensità non è valutabile con metodi obiettivi, perciò studiarlo è sempre stato difficile. Tuttavia negli ultimi tempi le conoscenze della neurobiologia del dolore si sono approfondite, e come conseguenza si hanno idee più chiare sulla utilizzazione dei mezzi antalgici. L'Oms (Organizzazione mondiale della sanità) ha proposto di collocare gli antalgici in tre piani, una gerarchia in relazione al livello di efficacia e dei rapporti vantaggi-inconvenienti. Al primo piano troviamo i non morfinici, detti a torto analgesici minori, rappresentati dall'aspirina e dai Fans (farmaci antinfiammatori non steroidei, ossia non cortisonici); al secondo le associazioni dei precedenti con morfinici deboli quale la codeina; al terzo la morfina. Detto in maniera molto semplificata, l'aspirina ed i Fans agiscono inibendo l'enzima ciclo-ossigenasi, da cui una diminuzione della sintesi delle prostaglandine le quali hanno un ruolo importante nella comparsa del dolore; la morfina (e gli oppiacei in genere) inibisce la liberazione della sostanza P, un neuropeptide che funge da messaggio dolorifico. Non trascurabili sono poi i farmaci co-analgesici come gli antidepressivi, gli anti-epilettici, i miorilassanti, gli ansiolitici, i cortisonici, gli antispastici, sovente utili, talora essenziali contro il dolore. A proposito della morfina, l'effetto indesiderabile più preoccupante potrebbe ritenersi la farmaco-dipendenza, rischio potenziale tuttavia minimo: vedi per esempio la ricerca degli americani Porter e Jick su 12 mila pazienti, dei quali quattro soltanto ebbero dipendenza. Va aggiunto che, in confronto all'aspirina o alla morfina, pressoché centenarie, la farmacopea dispone di molte altre recenti sostanze (ogni anno vengono studiate migliaia di nuove molecole analgesiche) le quali però non hanno sinora portato a evoluzioni radicali della lotta contro il dolore. Invece si sono profondamente modificati i metodi neurochirurgici a indicazione antalgica. Qui ci sono veramente novità. Per esempio la neurostimolazione mediante l'applicazione sulla cute di elettrodi che generano corrente, utilizzabile anche per parecchie ore al giorno in certi tipi di dolore, ha il fine di rafforzare il funzionamento delle fibre inibitrici dei nervi periferici, e di bloccare gli stimoli dolorifici. Gli elettrodi possono essere impiantati anche internamente in corrispondenza di tratti del midollo spinale in rapporto con le zone sedi del dolore, o di aree del cervello quale il talamo. La stessa morfina può essere introdotta in corrispondenza del midollo spinale, in dosi assai inferiori a quelle necessarie per le consuete vie di somministrazione. Veri e propri interventi di neurochirurgia riguardano i nervi cranici (nevralgie del trigemino e altri dolori facciali di varia origine), oppure il midollo spinale, il mesencefalo ecc. La «drezotomia» microchirurgica (DREZ per Dorsal Root Entry Zone) consiste nella distribuzione selettiva di piccole fibre nervose conduttrici del dolore, agendo sulla zona d'entrata delle radici dorsali del midollo. Il grande numero e la grande varietà dei mezzi neurochirurgici contro il dolore danno oggi una migliore possibilità di trattamenti adeguati e di risultati soddisfacenti. Quanto ai farmaci è sperabile un progresso poiché le piste da seguire sono numerose e riguardano concetti nuovi implicanti interazioni con i sistemi di controllo del dolore, sempre meglio noti. La messa a punto d'un nuovo analgesico è però lunga poiché non basta dimostrare sperimentalmente che una molecola ha proprietà antalgiche. La strategia terapeutica del dolore è estremamente complessa, la differenza fra dolori acuti e cronici è fondamentale, particolarità diverse riguardano il bambino, l'anziano, la donna, l'operato, il grande ustionato, il malato di Aids, il malato di tumore, i dolori neurologici (emicrania, zoster, parkinsoniani, algoneurodistrofie dopo traumi anche banali, arti fantasma). Ulrico di Aichelburg


SCIENZA DELLA VITA. QUANTO E COSA CONSUMA Il cervello è un muscolo? Il rebus delle energie cerebrali
Autore: GIACOBINI EZIO

ARGOMENTI: BIOLOGIA
ORGANIZZAZIONI: ISTITUTO WEIZMAN
LUOGHI: ITALIA

FINO a una decina di anni fa i neuroscienziati erano convinti non solo che il cervello fosse assolutamente dipendente da un continuo consumo di ossigeno e glucosio ma anche che il consumo aumentasse notevolmente con la funzione. Si credeva, allora, che appena una parte del cervello fosse entrata in azione (ad esempio facendo un calcolo) si sarebbe automaticamente verificato un aumento del consumo di energia e di ossigeno rispetto ai livelli di riposo. Il volume totale di ossigeno consumato dal cervello non è trascurabile se messo in rapporto al peso dell'organo. Pur pesando un ventesimo del corpo, il cervello rappresenta quasi un quinto del consumo totale a riposo dell'intero organismo. Pari a quello della muscolatura. E' pure noto che il cervello è molto sensibile a una diminuzione di ossigeno (ipossia) e che l'occlusione temporanea dell'apporto di sangue ossigenato (ischemia) produce in pochi secondi la perdita della coscienza e danni irreparabili dopo pochi minuti (si pensi alle embolie cerebrali). Il combustibile preferito dal cervello è il glucosio. La sua mancanza causa rapidamente sintomi come confusione mentale, convulsioni e coma. Ad un congresso in Svezia nel 1985 i neuroscienziati americani Raichle e Fox comunicavano che secondo i loro calcoli usando la tecnica Pet si notava solo un aumento minimo del consumo di ossigeno nelle aree sensoriali cerebrali di soggetti umani stimolati. Aumentava la circolazione cerebrale locale (del 50%) ma il consumo di ossigeno era praticamente stabile (solo il 5% in più). Ciò significava non solo che la funzione cerebrale (pensare, calcolare, vedere) può svolgersi con un consumo bassissimo di energia, ma anche che tale energia non deriva necessariamente dal metabolismo del glucosio ma dall'acido lattico (un prodotto di degradazione del glucosio), che non ha bisogno di ossigeno per produrre energia. Dopo un periodo di dubbi sull'umiliante degradazione del cervello a muscolo non solo come produzione ma anche come consumo (di lattato), questa ipotesi finì per consolidarsi. In aprile si è avuta una nuova scossa che ha fatto oscillare il pendolo nella direzione opposta. Due scienziati dell'Istituto Weizman di Rehovot in Israele, Grinvald e Malonek, erano riusciti a dimostrare un aumento del 100% del consumo di ossigeno della corteccia cerebrale visiva di un gatto la cui retina era stata stimolata da un'immagine. L'effetto, osservabile già 2 decimi di secondo dopo la stimolazione, si manteneva per diversi secondi. Era una prova definitiva che il cervello consuma più ossigeno lavorando che a riposo? Per la prima volta si era potuto osservare in modo diretto il passaggio dell'ossigeno legato all'emoglobina dal sangue al tessuto nervoso durante l'attività nervosa, cioè nell'atto di vedere un oggetto. Per quanto riguarda il consumo di lattato (anziché del più nobile glucosio), il neuroscienziato svizzero Magistretti ha proposto che la provenienza di questo combustibile cerebrale non sia di origine neuronale ma gliale, cioè da cellule satelliti dei neuroni. Questa ipotesi porterebbe alla conclusione un po' sconcertante che l'immagine che osserviamo con la Pet non sia il risultato di una attività chimica delle cellule nervose ma delle numerose cellule (non nervose) che le contornano. Pur restando il valore per la ricerca e l'utilità per la clinica dei metodi di visualizzazione cerebrale, c'è da capire che cosa significhino esattamente le immagini prodotte da queste tecniche dal punto di vista della funzione del cervello. Ezio Giacobini


SCIENZA DELLA VITA. TELEMEDICINA E TERZO MONDO Pronto soccorso via computer La telematica al servizio delle zone più remote
Autore: ROTA ORNELLA

ARGOMENTI: INFORMATICA, MEDICINA E FISIOLOGIA, COMUNICAZIONI
NOMI: LAOUYANE AHMED
ORGANIZZAZIONI: ONU, OMS
LUOGHI: ITALIA

UN computer può salvare la vita: questa, la ragione della telemedicina nei Paesi del Terzo e Quarto Mondo. Nelle zone rurali immense e sperdute, il computer infatti rende per la prima volta possibile qualcosa che finora non era neppure pensabile: chiamare un medico quando ce n'è bisogno. Ideale, un centro comunitario di telemedicina: fisso, per costituire punto di riferimento di parecchi villaggi, oppure mobile, in grado di dispensare cure anche nei posti più lontani. Via computer, il sanitario, pur distante centinaia o migliaia di chilometri, riceverà dati, formulerà diagnosi e terapia, dirigerà le operazioni degli infermieri locali, impartirà nozioni indispensabili soprattutto nei casi di pronto soccorso. E l'impatto sui costumi sarà altrettanto importante di quello sulla salute. Per gli ospedali dei centri urbani del terzo e quarto mondo, la possibilità di consultare, via computer, specialisti magari molto lontani, di avvalersi di tecniche sofisticate spesso non ancora in dotazione, migliorerà il livello professionale non soltanto dei medici ma in generale degli addetti alla sanità. Per usare al meglio le opportunità offerte dalla tecnologia di oggi, i vari Paesi, a cominciare dai più industrializzati, dovrebbero però decidersi a mettere i risultati delle rispettive ricerche a disposizione del «villaggio globale»: un presupposto che, all'apparenza lapalissiano, nei fatti rimane un'utopia. Su questa esigenza ha insistito il primo Simposio mondiale di telemedicina ai Paesi in via di sviluppo, che si è svolto in luglio, a Lisbona, organizzato dall'Union Internationale des Telecommunications (Uit, organismo dell'Onu specializzato nel settore). Altro problema, individuare le tecnologie più appropriate, diverse a seconda delle aree (con i relativi costi). A tali ricerche si dedicano, da tempo, esperti dei ministeri della Sanità e delle Telecomunicazioni di oltre quaranta Paesi. Organizzate dall'Uit di concerto con i governi interessati, alcune missioni hanno di recente compiuto sopralluoghi in Butan, Camerun, Mozambico, Uganda, Uzbekistan, Tanzania, Thailandia, Ucraina, Vietnam. Alla riunione plenaria degli specialisti, che si svolgerà in settembre a Ginevra, guardano con grande attenzione l'Organizzazione Mondiale della Sanità e l'Unione Europea. Di fianco alle difficoltà scientifiche, tecnologiche, economiche e politiche, un altro ostacolo è costituito «dalla mentalità di Paesi nei quali», dice Ahmed Laouyane, direttore dell'ufficio di sviluppo delle telecomunicazioni all'Uit, «la telemedicina rimane troppo sovente un concetto astratto, tanto fra la gente quanto fra le autorità preposte alla salute pubblica». Situazione peraltro diffusa in tutto il mondo, industrializzato e non; ovunque, una considerevole fetta di popolazione diffida delle novità proprio in quanto tali. Al pari degli altri pregiudizi, anche questo può essere superato con la conoscenza. «Due strategie supplementari», prosegue Laouyane, «dovrebbero integrarsi. La prima utilizzando tutti i mezzi di comunicazione possibili per informare governi e cittadini sulle opportunità offerte dalla telemedicina. La seconda, realizzando progetti-pilota capaci di dimostrare in concreto l'efficienza di queste nuove tecnologie». Ornella Rota




La Stampa Sommario Registrazioni Tornén Maldobrìe Lia I3LGP Scrivi Inizio