martedì 19 aprile 2011

ahhahahahahaha

Fukushima, tutte le verità (e le smentite)
di Governo, Tepco ed esperti nucleari
"La situazione è molto diversa da Chernobyl", diceva il premier nipponico. "La nostra preoccupazione è che possa anche superare Cernobyl", rispondevano dalla società di gestione dell'impianto. Dal Giappone ancora nessuna notizia certa su come potrà evolvere la situazione attorno alla centrale atomica
Un manifestante durante una protesta anti-nucleare a Tokyo
A più di un mese dal terremoto e dal conseguente tsunami che hanno provocato la crisi – non ancora rientrata – alla centrale nucleare di Fukushima, gli attori nipponici della gestione del disastro non riescono a mettersi d’accordo. Neanche con sé stessi e persino nello stesso giorno. Il 12 aprile, ad esempio, il governo giapponese innalzava la valutazione di gravità dell’incidente nucleare al livello 7, lo stesso del disastro ucraino di Chernobyl. Secondo il primo ministro nipponico, invece, Naoto Kan, “la situazione a Fukushima si sta stabilizzando passo dopo passo, le radiazioni stanno diminuendo”.  “La quantità complessiva di materiale radioattivo liberato nell’incidente è pari al 10% di quello rilasciato nel caso di Chernobyl”, specificava l’Associazione giapponese per la sicurezza nucleare e industriale (Nisa). Ma nello stesso giorno i timori della Tepco – azienda che gestisce la centrale – andavano in direzione opposta: ”La perdita radioattiva non si è ancora arrestata completamente e la nostra preoccupazione è che possa anche superare Chernobyl”.

Il futuro della centrale: chiuderà, forse no. Ristabilita entro 9 mesi, se solo ci si potesse entrare.Agenzia per la sicurezza atomica nipponica frena, dopo aver riscontrato livelli di radioattività ancora più alti dei precedenti. “In questa situazione è molto difficile per i tecnici della centrale poter svolgere il proprio lavoro dall’interno”, ha spiegato il portavoce dell’Agenzia, Hidehiko Nishiyama. E altrettanto incerto è il futuro dell’intero impianto nipponico, compreso quello dei reattori 5 e 6, che non hanno subito danni. Dal 20 marzo – e più volte nelle settimane successive – il premier giapponese e il capo gabinetto Yukio Edano si erano detti sicuri della chiusura di Fukushima, una volta superata la crisi. “Non ci sono altre soluzioni – ha dichiarato Kan – E’ chiaro, guardando alle circostanze, che questa è la percezione” confermava Edano. Ma pochi giorni fa, la Nisa torna sui passi del governo, dichiarando che l’eventuale smantellamento non è certo, ma sarà “da decidere dopo aver ascoltato i residenti dell’area”.

Le analisi sulle sostanze radioattive: questione di zeri e di chilometri. Impossibile vivere a Fukushima, “per il momento”. “Si potrebbe trattare di un periodo tra i 10 e i 20 anni”, ha spiegato pochi giorni fa Kenichi Matsumoto, uno dei collaboratori del premier nipponico. Eppure, dai dati diffusi dalle autorità giapponesi, è difficile capire quale sia la reale contaminazione della regione. Il 25 marzo il governo nipponico invitava alla ”evacuazione volontaria” fino a 30 km dalla centrale nucleare, ”per migliorare la qualità della vita quotidiana e non legata a motivi di sicurezza”. Qualche settimana dopo, a un mese esatto dal disastro, per la stessa zona si è invece provveduto all’evacuazione sistematica. Esclusi da questo provvedimento, gli abitanti del villaggio di Itate - distante 40 chilometri dal’impianto – nonostante l’Agenzia atomica internazionale avesse ammonito il governo: a Itale le radiazioni superano i limiti di guardia. E i dati non aiutano a fare chiarezza. Il 27 marzo scorso la Tepco annuncia livelli di radioattività al reattore n. 2 di Fukushima 10 milioni di volte maggiori alla norma. E’ allarme. Ma l’indomani la società si corregge: sarebbero ‘solo’ 100mila volte. E l’Agenzia giapponese per la sicurezza nucleare non è da meno: da un giorno all’altro, il livello di superamento della norma della radioattività in mare di fronte alla centrale nucleare aumenta di 600 volte.

Il cibo è contaminato. Ma solo un po’. Riso al curry con carote, broccoli e patate. Tutte coltivate a Fukushima. Intorno al tavolo, il ministro degli Esteri nipponico, Takeaki Matsumoto, e una decina di altri esponenti politici giapponesi. Deputati che comprano asparagi e pomodori della zona dell’impianto. Yukio Edano, portavoce del governo, che mangia una fragola in un mercato della provincia della centrale. Campagne d’immagine e accorati appelli per evitare che i cittadini giapponesi boicottino i prodotti alimentari della regione di Fukushima per timore delle radiazioni. Eppure, appena quattro giorni fa, era stato proprio il ministero della Sanità nipponico a rilanciare l’allarme: undici diversi tipi di verdure e pescato – provenienti dalla zona della centrale – superano da sei a 25 volte la soglia massima di radioattività stabilita per legge. Il richiamo non arriva inatteso. Una settimana dopo il disastro, le analisi non lasciavano dubbi: latte, broccoli, spinaci superavano i limiti legali. Tanto che lo stesso premier Kan era stato costretto a vietare la vendita di diversi alimenti. Ancora l’8 aprile, l’Unione Europea decideva di rafforzare i controlli sulle importazioni dal Giappone, dopo che numerosi paesi – tra questi, Russia, Cina e India – avevano già predisposto il blocco. Lo stesso giorno però il governo nipponico decide di invertire la rotta e allentare le restrizioni alla vendita di prodotti alimentari coltivati in alcune aree intorno alla centrale nucleare di Fukushima.
Solo ieri la Tepco presentava il suo piano per la stabilizzazione della centrale nucleare. Tre mesi per fermare del tutto la perdita di radioattività e da sei a nove mesi per il recupero totale dei detriti e la copertura degli edifici che ospitano i reattori, danneggiati dalle esplosioni. 
 
-------------- 

Regole per il Cloud computing
"nuvola" sicura per l'utente

All'evento Skills 4 Cloud, si sono confrontati mondo politico, istituzionale e aziende del settore.Obiettivo: evitare il rischio far west in un mondo digitale che ci ha già cambiato e continua a cambiarci la vita. Il problema delle norme nazionali applicate a un fenomeno locale di ALESSANDRO LONGO

IL CLOUD computing ha bisogno di nuove leggi, a tutela degli utenti e a guida delle aziende. Per evitare il "far west" e per sostenere lo sviluppo di un mercato oggi stimato 16,5 miliardi di dollari nel mondo, ma con un potenziale di 55 miliardi nel 2014 (secondo l'osservatorio di ricerca Idc). E' il tema, più politico che tecnico, affrontato oggi a Roma all'evento Skills 4 Cloud, organizzato da Microsoft nella sede del Parlamento Europeo in Italia, con un confronto tra mondo politico, istituzionale e delle aziende del settore. A conferma che se ne deve parlare: probabilmente molti stanno già usando servizi "cloud" anche se non lo sanno. Con questo termine s'intendono infatti quei servizi che permettono di accedere, via internet, a risorse di vario tipo: foto, posta elettronica, persino potenza di calcolo. Tutto ciò che prima bisognava tenere sui propri pc, per poterlo usare, ora può essere spostato su internet: sulla "nuvola" (da qui il termine "cloud").

Forse il servizio cloud più noto agli utenti comuni è la web mail: usare la posta tramite sito web invece che con un programma installato sul proprio pc. Facciamo cloud computing, però, anche quando archiviamo foto o file vari su siti web, per esempio su Flickr o Facebook. Questi servizi infatti sostituiscono la funzione "non cloud" dei nostri hard disk. Considerato il successo di Facebook e della web mail, forse il numero di utenti cloud al mondo non è molto lontano da 2 miliardi, cioè il totale di quelli
che vanno su internet.

"Questo fenomeno sta cambiando il mondo e quindi non è solo tecnico ma anche culturale", dice Marco Scurria, uno degli euro parlamentari presenti al convegno. "Abbiamo quindi deciso di avviare tavoli di lavoro per giungere a un disegno di legge sul cloud. Lo scopo è duplice", continua Scurria: "Da una parte, evitare che la politica resti indietro e magari arrivi a formulare leggi che non rispecchiano il mercato. Dall'altra, scongiurare il rischio che le aziende corrano avanti da sole, facendo solo i propri interessi e non quelli degli utenti".

A questo proposito, sono due i punti caldi affrontati al convegno: privacy e sicurezza dei dati presenti sulla cloud. Il 68 per cento delle aziende spaventate dal cloud lo è per via di questi due problemi, secondo la London School of Economics. Sicurezza vuol dire che il dato dell'utente deve essere ben protetto dal rischio che cada in mani sbagliate. Deve essere inoltre trattato correttamente, nel rispetto delle norme sulla privacy.

Quali norme? E' qui il cuore del problema: le norme oggi sono nazionali, ma il fenomeno è globale. Noi italiani possiamo mettere i nostri dati su servizi cloud che funzionano tramite computer sparsi nel mondo. A nostra tutela, valgono le norme del Paese dove sono presenti fisicamente i dati. Le Autorità europee garanti della privacy sostengono quindi, per prima cosa, che l'utente ha il diritto alla trasparenza. A sapere dov'è il proprio dato (nome, cognome, foto, preferenze personali...) e com'è protetto. "Noi appoggiamo la posizione dei garanti a favore della massima trasparenza", dice Pietro Scott Jovane, amministratore delegato di Microsoft Italia. "Microsoft già dice dov'è geograficamente il dato, dov'è il suo back up e com'è protetto (ne comunica le certificazioni di sicurezza utilizzate). Sono tre aspetti che dovrebbero essere trasparenti in ogni offerta cloud", continua.

Francesco Pizzetti, presidente dell'Autorità Garante della Privacy italiana guarda oltre: "La direttiva Ue sulla privacy è ormai obsoleta, bisogna rivederla con un accordo internazionale. E, nell'attesa, sarebbe opportuno che i fornitori "notificassero" (cioè sottoponessero) i propri servizi cloud ai Garanti europei". In estate la Commissione europea presenterà appunto una proposta di modifica della normativa privacy e già annuncia una rivoluzione: di imporre alle aziende di trattare i dati dei cittadini europei secondo le regole europee. A prescindere da altre considerazioni, come la nazionalità dell'azienda o la posizione geografica del dato. Significa cambiare tutto, perché le regole europee per la privacy sono le più rigide, a tutela dell'utente.

La sfida sarà proteggerlo senza tarpare le ali a un mercato promettente, che secondo Idc crescerà anche in Italia: del 41% sul 2010 per poi arrivare a 671 milioni di euro nel 2014. Con una ricaduta benefica anche sull'ecosistema. Secondo Microsoft, il cloud computing mondiale aggiungerà almeno 800 miliardi di dollari di ricavi nelle economie locali entro il 2013. In Europa creerà oltre 100 mila nuove piccole e medie imprese e farà crescere dello 0,3 per cento il prodotto interno lordo.
(18 aprile 2011)
 
------------- 

Core i7-2600K a 5 GHz, overclock senza sacrificare l'efficienza

I nostri benchmark confermano che questo processore basato su architettura Sandy Bridge rimane efficiente anche ad alte frequenze. Il processo costruttivo a 32 nanometri diventerà il paradiso degli overclocker?

Introduzione

Vi ricordate i giorni in cui overcloccare era davvero una sfida? Bisognava cercare il processore adatto, come l'Intel Celeron "Mendocino" o l'AMD Duron "Spitfire" oppure il Pentium D 805. Queste soluzioni erano in grado di raggiungere frequenze il 50 percento superiori rispetto a quella base, ma dovevate dotarvi anche di una scheda madre flessibile, una memoria che si overcloccava bene e un po' di fortuna nel trovare le impostazioni migliori grazie a prove, errori e un po' di pazienza. Erano giorni in cui, più spesso di oggi, l'hardware defunto era il prezzo da pagare per cercare di raggiungere i limiti. Erano giorni molto divertenti, e oggi ne parliamo quasi come "i bei tempi andati".

L'approccio non è cambiato, ma l'industria offre schede progettate specificatamente per l'overclock, e moduli di memoria ad alta frequenza, che aiutano ad alleviare i colli di bottiglia sulle piattaforme che richiedono l'overclock del sistema/FSB per raggiungere frequenze più elevate.


Sfortunatamente Intel ha deciso di integrare il generatore di clock della nuova piattaforma nel chipset, il che significa che il P67 Express (Cougar Point) non è più facilmente overcloccabile con incrementi della frequenza base. Questo si ripercuote anche sulla frequenza PCI Express. Perciò chiunque abbia ambizioni di overclock sulla piattaforma LGA 1155 dovrebbe puntare dritto a un processore Core i5/i7 della serie K. Il costo aggiuntivo rispetto alle CPU regolari è accettabile, e abbiamo riscontrato che i processori Sandy Bridge Core i5/i7 di fatto introducono un cambiamento di paradigma.
Con la seconda generazione di processori Core a 32 nanometri di Intel, nome in codice Sandy Bridge, i processori orientati all'overclock iniziano a essere una scelta sensata anche nella fascia media. Grazie al Turbo Boost 2.0 e all'unità di controllo dei consumi, che monitora l'energia usata e le temperature, Sandy Bridge rende l'overclocking una pratica molto più semplice, accessibile anche ai meno esperti e meno rischiosa. Con Sandy Bridge che persino i neofiti possono overcloccare in sicurezza, lasciando che la piattaforma faccia il resto.
Per dimostrare queste affermazioni, abbiamo overcloccato un Core i7 2600K usando il dissipatore standard e una ventola. La nostra analisi include prestazioni ed efficienza, che scala in modo impressionante su un Sandy Bridge quando si mantengono frequenze elevate.

 http://www.tomshw.it/cont/articolo/core-i7-2600k-a-5-ghz-overclock-senza-sacrificare-l-efficienza/30492/1.html

Nessun commento:

Posta un commento