Il chilogrammo è ormai da molto tempo una unità di riferimento per la comparazione del peso tra oggetti diversi. La sua misurazione è vecchia di ben 150 anni e fa riferimento ad un cilindro di platino e iridio di 39 millimetri chiamato Grand Kilo, realizzato nel 1875 e conservato preziosamente al Bureau International des Poids et Mesures di Parigi.
Questo cilindro, essendo un elemento unico, è conservato gelosamente in una teca di vetro e non può essere toccato neppure per spolveralo perché potrebbe esser danneggiato. Ragion per cui, da molto tempo si sta studiando un metodo alternativo per misurare con assoluta precisione il peso di un chilo indipendentemente dal cilindro custodito a Parigi. Già da diversi anni si sta studiando in Italia, ma anche in altri paesi il modo per poter superare questo limite.
Proprio nel nostro paese, l’INRIM, ossia l’Istituto Nazionale di RIcerca Metrologica, ha sviluppato un sistema che definisce il chilogrammo come un preciso numero di atomi di silicio 28, mentre nel continente americano, un team statunitense e canadese, sta pensando di far definire il chilo a partire dalla costante di Planck, ossia dal numero che governa i quanti.
Approfondisco: il termine quanto (in latino quantum = quantità) indica una quantità indivisibile di una certa grandezza.
La necessità di calcolare la costante con cui stabilire definitivamente la misurazione matematica del chilo e la nuova formula da adottare per il calcolo ha dato vita ad una competizione internazionale che dovrà concludersi nel luglio del 2017 quando i risultati presentati dalle varie equipe saranno analizzate da un computer per stabilire quale ricerca definirà i nuovi parametri di misurazione di questa unità di misura.
Il NIST, Istituto americano di standard e tecnologie, ha ideato una nuova tecnica denominata Watt Balance. Si tratta di una bilancia iper-tecnologica in grado di comparare il peso di una massa con la forza elettromagnetica necessaria per bilanciarla. In questo modo la forza elettromagnetica può essere utilizzata per calcolare la costante di Planck con grande precisione. La percentuale di errore possibile in questo modo nella misurazione sarebbe pari a 34 parti per miliardo, tali da essere perfettamente all’interno degli standard previsti per definire la misurazione di una quantità in modo definitivo.
Una delle maggiori preoccupazioni quando si realizza un edificio soprattutto in zone a clima caldo è il suo rinfrescamento durante le ore diurne e estive. Il costo del sistema di condizionamento, può diventare uno dei maggiori per la gestione dell’edificio e va tenuto in considerazione già in fase di progettazione. Nuove soluzioni vengono escogitate dai progettisti, al fine di ridurre l’impatto sui costi, ad ogni nuovo progetto.
Ma forse la soluzione definitiva viene ancora una volta dai ricercatori del MIT, i quali hanno sperimentato un nuovo materiale capace di cedere calore e di rinfrescando l’ambiente cui è esposto.
Normalmente, un materiale convenzionale trovandosi in un ambiente a temperatura più bassa, si raffredda cedendo parte del suo calore. In pratica si tratta di un pannello, molto simile a quelli fotovoltaici, ma la cui combinazione è molto diversa. Un wafer di silicio dello spessore di 10 centimetri nei quali si alternano strati di vetro a strati di afnio. Tali pannelli, sono in grado di disperdere nello spazio circostante circa il 97% dell’energia solare (quindi anche termica) che li colpisce.
Il principio è quello che il nostro pianeta utilizza per la dispersione del calore in eccesso, chiamato finestra termica spaziale. La nostra atmosfera, riesce a dissipare parte del calore terrestre nello spazio, quando questo è emesso a particolari frequenze. Il materiale del MIT funziona allo stesso modo e sfrutta le stesse frequenze delle onde termiche che utilizza il nostro pianeta. Con questo principio, il pannello diventa più freddo dello spazio circostante disperdendo una grande quantità di calore.
Shanhui Fan, il ricercatore del MIT che ha già realizzato un modello funzionante della finestra termica, ha dimostrato che questo sistema è perfettamente efficiente anche durante il giorno, nel momento in cui è pienamente colpito dai raggi solari. In pratica, Shanhui Fan avrebbe realizzato un campione della dimensione di un piatto e vorrebbe realizzare un pannello di circa un metro quadro per dimostrare la sua assoluta efficienza. Shanhui è convinto, se riuscirà a convincere gli sponsor e trovare i finanziamenti, di poter dimostrare che ricoprendo un tetto con pannelli di questo materiale super riflettente, sarà possibile eliminare del tutto il fabbisogno di aria condizionata, con un risparmio in termini energetici e di inquinamento incredibili.
Si tratterebbe di un grande risultato ed anche i costi di produzione potrebbero essere contenuti utilizzando le tecniche già oggi utilizzate per la realizzazione delle finestre a taglio termica.
Anche in campo elettrico, la ricerca procede a vele spiegate. Nuovi materiali vengono sperimentati ogni giorno nel tentativo di realizzare il conduttore perfetto. Questi nuovi materiali hanno una struttura bidimensionale (silicone, germanene, fosforene) e sono solo alcuni dei nuovi materiali definiti 2D perché con spessore di un solo atomo. Ma ognuno di essi presenta comunque dei limiti; anche se ottimi conduttori, parte dell’energia elettrica che li attraversa viene trasformata in calore a causa delle resistenza opposta al suo passaggio. In pratica questo accade perché gli elettroni nella loro corsa all’interno della materia si scontrano con le altre particelle e in questo sfregamento eccitandole, generano per attrito lo sviluppo di calore. Ma la soluzione a questo problema sembra a portata di mano.
Lo statene, materiale anch’esso bidimensionale prodotto a partire dallo stagno, consentirebbe agli elettroni di percorrere la sua superficie senza scontrarsi con altri elettroni o atomi evitando la dispersione di elettricità sotto forma di calore.
Questa proprietà dovrebbe essere possibile in virtù del fatto che lo statene è un isolante topologico, ossia un materiale che si comporta come un isolante elettrico al suo interno e come un conduttore sulla sua superficie. In questo modo gli elettroni non posso attraversare il suo centro ma possono muoversi liberamente sulla sua superficie ossia su di un piano.
In pratica, gli elettroni possono mantenere una direzione coerente e la corrente elettrica non viene dissipata sotto forma di calore perché tutte le impurità dello statene non influiscono su questo moto, non rallentandoli, come avviene negli altri materiali.
Un materiale del genere, si proporrebbe come il candidato ideale per la realizzazione di circuiti elettronici se non fosse per il fatto che i suoi scopritori non hanno ancora dimostrato questa incredibile capacità.
Peide Ye e gli altri ricercatori della Purdue University di West Lafayette in Indiana negli Stati Uniti, stanno ancora lavorando per poter dimostrare questa incredibile capacità dello statene, forse non ancora dimostrata a causa di un processo di produzione errato che potrebbe aver compromesso le proprietà di isolante topologico.
L’uomo, è dotato di un sistema di visione detto stereoscopico. In pratica si tratta di una visione binoculare, ossia da due differenti punti di vista. Quando noi guardiamo un oggetto, non solo ne vediamo chiaramente i contorni e la forma, ma in più ne cogliamo immediatamente la distanza essendo così in grado di dirigere correttamente il nostro corpo per afferrarlo o evitarlo. Ciò è dovuto al fatto che guardiamo un oggetto con due occhi differenti che forniscono al nostro cervello contemporaneamente la sua descrizione da due punti di vista diversi. E’ proprio il nostro cervello che interpreta queste due immagini, le sovrappone, le raddrizza e ne restituisce una, corretta e dotata anche di profondità per come percepiamo la realtà. Se chiudiamo un occhio, l’immagine che giunge al cervello è una sola, per cui questo la riconosce e la descrive, ma non è in grado di stabilirne la distanza perché non ha la seconda immagine da rapportare alla prima con la quale fornirci il campo, ossia lo spazio nel quale gli oggetti stazionano.
L’idea di trasferire questa possibilità anche al cinema non è recente, rivalutata soprattutto nel momento di profonda crisi del grande schermo nel momento in cui la televisione e le sue grandi produzioni la facevano da padrona.
I primi esperimenti di 3D cinematografico sono, però, molto più antichi risalendo all’inizio del secolo scorso ma alti costi e l’immaturità di questa tecnologia la fecero naufragare. Un nuovo tentativo lo si intravede proprio nel momento di crisi del cinema, ma ancora una volta ne il mercato ne la tecnologia erano pronti per il grande salto. L’avvento del digitale e nuove tecnologie di ripresa, alla soglia del 2000, lanciano finalmente e definitivamente il 3D nel mondo di celluloide prima e della tv dopo.
Videocamera per riprese 3D
Nel cinema, la visione tridimensionale, è prodotta attraverso l’uso di una particolare videocamera (o due) che riprende una scena contemporaneamente da due punti di vista posti tra di loro a una distanza pari a quella degli occhi umani. In sala il miracolo avviene perché la scena è proiettata contemporaneamente da due diversi proiettori sincronizzati. L’immagine che perviene allo spettatore è come quella dello schema illustrativo sopra, infatti se proviamo a guardare la scena la vedremo come sovrapposizione di due immagini leggermente sfalsate tra di loro. E’ come se, in questo caso, il cervello non stesse facendo la sua operazione di correzione e sovrapposizione. Ne verrà fuori una immagine come quella qui sotto:
Immagine stereoscopica non corretta
La correzione di questo leggero sfalsamento avviene attraverso degli appositi occhialini, che compensano questo disallineamento; le immagini vengono filtrate in modo che l’occhio sinistro veda soltanto l’immagine girata dalla cinepresa sinistra e l’occhio destro quella girata dalla cinepresa destra. In questo modo il nostro cervello interpreta la visione come effettuata con i nostri occhi e ci fornisce la percezione di profondità tridimensionale della realtà.
GLI OCCHIALINI 3D
Schema 3D ad anaglifi
Inizialmente questa correzione veniva effettuata con uno stratagemma e la tridimensionalità realizzata attraverso i colori. Il proiettore cinematografico, mandava contemporaneamente 2 immagini, una colorata di blu per l’occhio sinistro e una di rosso per l’occhio destro. Gli occhialini a lenti colorate o anaglifi (ossia con filtri colore), bloccavano una delle due immagini per lasciar giungere agli occhi solo quella giusta. Questo artefatto, consentiva di creare immagini con effetto 3D, ma di qualità molto bassa e con colori sfasati e poco brillanti.
I limiti della tecnologia a anaglifi è stata superata con la creazione delle lenti polarizzate o passive.
Schema a lenti polarizzate
Normalmente le onde luminose oscillano in tutte le direzioni, ma con appositi accorgimenti tecnici si possono costringere a oscillare nelle direzioni che vogliamo. Per esempio in verticale e in orizzontale. Questo tipo di luce si chiama luce polarizzata. Appositi filtri di cui sono dotati gli occhialini, consentono il passaggio di un solo di questi tipi di onda luminosa. Per cui, in base al filtro, l’occhio destro vede solo le onde di luce polarizzate verticalmente, mentre quello sinistro solo quelle polarizzate orizzontalmente. Questo tipo di tecnologia, richiede due proiettori sincronizzati capaci di proiettare separatamente, sullo schermo, le immagini per l’uno e per l’altro occhio. Anche in questo sistema, passa una sola immagine che interpretata dal cervello permette la visione della profondità. Molta luce viene trattenuta dagli occhiali, per cui lo schermo deve essere particolarmente luminoso per compensare questo assorbimento. Con questa tecnologia i colori sono molto brillanti e realistici e l’effetto 3D molto più efficace.
Schema a lenti Shutter Glass
Un’altra tecnologia, alternativa alle lenti polarizzate, è quella che utilizza lenti chiamate shutter glass o occhiali a lenti attive. Il nome shutter deriva dal fatto che funzionano come l’otturatore (shutter) della macchina fotografica.
Il principio è abbastanza semplice: questi occhiali sono dotati di lenti a cristalli liquidi che si scuriscono prima in un occhio e poi nell’altro con una repentinità incredibile, fino a circa 300 volte al secondo in base al tipo di schermo. E’ fondamentale, in questo caso, la sincronizzazione tra il proiettore e l’otturatore della lente. Le immagini per l’occhio destro e sinistro, vengono proiettate sullo schermo in sincronia con la velocità di otturamento della lente. In questo modo è come se vedessimo la scena aprendo solo l’occhio sinistro o solo quello destro alternativamente, così velocemente da sovrapporre otticamente le due immagini.
Queste nuove tecnologie di lenti e l’avvento del digitale, hanno di fatto quasi eliminato i problemi di sfasamento dei colori e quanto metteva sotto stress l’occhio dell’osservatore a causa della differente profondità di ogni sequenza. Oggi la tecnologia chiamata 3ality consente di far transitare la profondità di scena tra una sequenza e l’altra senza disturbare l’esperienza filmica per lo spettatore.
Questo nuovo livello del 3D ha rilanciato il cinema, e lo spettatore è disposto anche a pagare di più per vedere un film in 3D rispetto ad uno classico in 2D, perché l’esperienza è notevolmente realistica e coinvolgente. E’ ovvio che anche le sale cinematografiche hanno dovuto aggiornarsi per rendere l’esperienza veramente accattivante. Audio, poltrone, dimensione dello schermo, tutto è cambiato per poter immergere lo spettatore nello spazio virtuale ricreato dalle immagini.
LA TV 3D
Il successo cinematografico, non ha però avuto l’effetto volano sulla TV. Dopo un inizio promettente, l’esperienza TV del 3D sta pian piano naufragando a vantaggio di altre tecnologie (UltraHD, schermi curvi, ecc.).
Le tecnologie utilizzate per la TV sono essenzialmente due: il 3D attivo e il 3D passivo.
Nel 3D Attivo, esiste una forte interazione tra gli occhialini di tipo polarizzato e il televisore. In pratica, l’occhialino, più costoso che necessita di batterie per l’alimentazione e ricarica dopo ogni spettacolo, mostrano l’immagine alternativamente nella lente destra e in quella sinistra circa 60 volte al secondo.
Nel 3D Passivo, invece, si possono utilizzare degli occhialini non ricaricabili, anche in plastica e dal costo molto ridotto. Il lavoro per la tridimensionalità è svolto dal televisore; questo possiede un filtro al suo interno che polarizza ogni riga dell’immagine mostrando le righe diaspari ad un occhio e quelle pari all’altro.
Volendo fare una valutazione, nessuno dei due sistemi supera prepotentemente l’altro, per cui non esiste un sistema migliore da scegliere. Nel caso del 3D Attivo la risoluzione delle immagini e maggiore, nel caso del 3D Passivo le immagini sono più luminose e i neri più netti. La differenza la potrebbero fare i costi dei due dispositivi di visione (occhialini).
I VISORI 3D
Il mondo delle consolle e dei video giochi, al contrario, stanno attingendo a piene mani da questa tecnologia, creando nuovi dispositivi in grado di rendere assolutamente realistica e coinvolgente l’esperienza di gioco. Tutte le maggiori case di produzione di consolle e videogame, si sono lanciate in questo vastissimo e innovativo mercato proponendo o annunciando incredibili dispositivi.
Le esperienze sono simili, ma un aspetto che bisogna tenere presente pensando ad un visore 3D è il suo utilizzo per la realtà virtuale o la realtà aumentata.
Nella realtà virtuale, l’esperienza di coinvolgimento è totale. Lo spettatore è immerso in un mondo virtuale in cui ogni oggetto è parte della realtà e con esso si può interagire.
Nella realtà aumentata, l’approccio è leggermente diverso. Il mondo reale viene potenziato arricchendolo di informazioni che possono migliorare l’esperienza, come ad esempio sovrapporre nomi di strade o informazioni di percorso direttamente sull’immagine in base al luogo in cui vi trovate, oppure ricreando oggetti perfettamente funzionanti e utilizzabili nella realtà ricreata come ad esempio una tastiera.
Respirare per ore sott’acqua? Forse sarà presto possibile. Infatti, i ricercatori della University of South Denmark hanno realizzato uno speciale cristallo ottenuto con sali di cobalto capace di assorbire ossigeno dall’aria e dall’acqua. Ma la caratteristica straordinaria di questo cristallo è la sua capacità di assorbirne una quantità molto elevata, fino a 160 volte quella che respiriamo. E le sorprese non sono finite qui: infatti, questo cristallo in particolari condizioni, ossia in presenza di calore, o in luoghi in cui la concentrazione di tale gas è particolarmente bassa, è in grado di rilasciare l’ossigeno assorbito. A seconda dei parametri in cui si trova il cristallo, ossia temperatura, pressione e contenuto, l’assorbimento dell’ossigeno può avvenire o istantaneamente o in un paio di giorni.
Cristallo di cobalto: a sinistra rosso con bassa concentrazione di ossigeno, a destra nero con alta concentrazione
Gli scenari che questo nuovo materiale apre sono incredibili.
La stessa ricercatrice Christine McKenzie, ne suggerisce alcuni che potrebbero rappresentare una soluzione in alcune circostanze. Ad esempio questo materiale potrebbe consentire di realizzare nuovi dispositivi per la respirazione subacquea di dimensioni ridottissime e quasi senza peso. Pochissimi granelli, infatti, potrebbero contenere tutto l’ossigeno necessario alla respirazione anche per lunghi periodi e ricaricarsi autonomamente traendo l’ossigeno direttamente dall’acqua o dall’aria circostante.
In campo energetico, questi sali potrebbero rifornire di ossigeno le celle combustibili delle batterie consentendone di ridurne il volume e il peso.
Oppure potrebbero aumentare l’autonomia dei respiratori utilizzati dai pazienti con problemi di ventilazione.
Siamo ancora alla fase di sperimentazione e lontani dai risultati auspicati dal team di ricercatori, ma questo cristallo apre nuove frontiere e fa ben sperare per il prossimo futuro.
Al Massachusetts Institute of Technology (MIT), l’ormai notissimo istituto di ricerca americano, sede di innumerevoli scoperte scientifiche e tecnologiche, si sta testando un nuovo materiale, un polimero in grado di accumulare l’energia radiante sprigionata dal sole e di rilasciarla solo quando specificatamente richiesto.
Si tratta di un film, una pellicola polimerica trasparente, applicabile su molteplici superfici e in grado di immagazzinare l’energia solare e di trasformarla e rilasciarla sotto forma di calore o di elettricità.
I possibili impieghi sono tantissimi; basti pensare al parabrezza di un’automobile congelato per il freddo durante l’inverno, capace di scongelarsi da solo per effetto del rilascio termico della pellicola applicata al vetro. O la produzione di energia elettrica applicando la pellicola sulla superficie delle finestre.
Le molecole che compongono il materiale, se colpite dalla luce del sole di possono disporre in due diverse conformazioni, a bassa o ad alta energia.
Quando colpito dal sole, il polimero assume una forma molecolare stabile capace di trattenere l’energia accumulata per un tempo indeterminato, e può rilasciare questa energia solo attraverso uno stimolo esterno come ad esempio una corrente elettrica. Nel momento in cui rilascia l’energia, il polimero ritorna alla conformazione iniziale rilasciando una ondata di calore.
Analoghi tentativi erano già stati effettuati anche al MIT su materiali chiamati S.T.F. ossia solar thermal fuels che però avevano lo svantaggio di essere allo stato liquido. Questo nuovo polimero si presenta invece allo stato solido, offrendo così enormi vantaggi dal punto di vista dell’utilizzo.
Ancora deve essere fatta strada per perfezionare questo materiale. Al MIT, stanno cercando di ottimizzare il rilascio di calore per fare in modo che il polimero possa innalzare la temperatura di almeno 20°C rispetto agli attuali 10°C e di fare in modo da ottenere una assoluta trasparenza in modo da poterlo applicare stabilmente anche su superfici trasparenti come finestre e lucernai.
La gomma, è estratta da piante facendone coagulare il lattice prodotto dall’incisione della corteccia. In particolare l’albero da cui viene estratto il caucciù (derivato dal francese caoutchouc), chiamato anche secreto, è l’Hevea brasiliensis, una pianta alta anche 30 metri diffusa particolarmente nella foresta amazzonica.
La gomma, è un materiale molto sensibile sia ai cambiamenti di temperatura che alla luce:
si ammorbidisce con il caldo
si irrigidisce con il freddo
il colore varia se esposto alla luce diretta
La gomma estratta dalla pianta, ha caratteristiche specificatamente plastiche, poco idonee alle necessarie lavorazioni.
La vulcanizzazione è quel processo termo-indurente che viene applicato nella lavorazione delle gomme naturali. Questo processo fu scoperto e utilizzato per la prima volta da Charles Goodyear nel 1855 e consiste nel far reagire a caldo la gomma con lo zolfo e altri derivati capaci di cambiarne radicalmente le caratteristiche chimico-fisiche.
In origine, le molecole della gomma non hanno legami trasversali, per cui il materiale si presenta come una termoplastica, ossia un materiale che se sottoposto a calore rammollisce. Con l’aggiunta dello zolfo, invece, in percentuali variabili dallo 0,5% al 3%, la gomma diventa più soffice ed elastica e rammollisce solo a temperature elevate.
Dopo il trattamento termico, lo zolfo crea legami chimici tra le catene molecolari della gomma; queste appaiono divise tra di loro e lo zolfo crea dei ponti o legami chimici, ossia un vero e proprio reticolo stabile che conferisce al nuovo materiale proprietà elastiche e indeformabilità quando sottoposto al calore.
La vulcanizzazione avviene quasi esclusivamente a caldo, sottoponendo la gomma all’azione dello zolfo in forni a temperatura di circa 140-170°C o, più raramente, a freddo sottoponendo la gomma all’azione di sostanze in grado di cedere zolfo come il monocloruro di zolfo, l’idrogeno solforato, ecc.
Se la percentuale di zolfo è maggiore, ossia compresa tra il 25-30%, si ottiene un materiale duro, chiamato ebanite, caratterizzato da un numero elevato di legami molecolari e si utilizza per la realizzazione di oggetti come ad esempio i boccagli per gli strumenti musicali.
La lavorazione avviene per stampaggio, sia per iniezione che per compressione. Viene realizzato un apposito stampo in acciaio che riproduce un numero di impronte determinato dal volume del pezzo o dalla quantità di elementi da realizzare.
Stampaggio per iniezione
Stampaggio per compressione
Una volta questo procedimento si applicava solo alle gomme naturali, ma oggi il termine vulcanizzazione ha assunto un significato più ampio perché coinvolge anche le resine sintetiche.
L’oggetto più importante per diffusione, prodotto con la gomma, è lo pneumatico. La sua realizzazione richiede un preciso procedimento caratterizzato da una serie di fasi da realizzare in sequenza.
La prima operazione prende il nome di mescola; in questa fase diversi tipi di gomma e altri componenti vengono selezionati e miscelati all’interno di enormi macchine miscelatrici fino a creare un composto di colore nero pronto per la fase successiva: la macinatura.
In questa fase, la gomma viene raffreddata e tagliata a strisce che costituiranno la struttura di base dello pneumatico.
La terza fase, la produzione, è quella in cui viene costruito lo pneumatico partendo dall’interno verso l’esterno. Prima gli elementi in tessuto, poi le cinture di acciaio, i talloni, la tela e infine il battistrada. Vengono tutti insieme inseriti in una macchina che li assembla creando quello che prende il nome di pneumatico crudo.
Infine, la vulcanizzazione, nella quale lo pneumatico crudo viene inserito all’interno di stampi incandescenti dove tutti i componenti vengono compressi conferendogli la forma definitiva comprensiva del disegno del battistrada e delle diciture del produttore sulla banda laterale.