Visualizzazione post con etichetta HighPerformanceComputing. Mostra tutti i post
Visualizzazione post con etichetta HighPerformanceComputing. Mostra tutti i post

Meta rende OPEN SOURCE la sua IA

Meta rende OPEN SOURCE molte delle sue tecnologie di Intelligenza Artificiale, 

tra cui i suoi modelli linguistici di grandi dimensioni, 

e istituzioni pubbliche e ricercatori stanno già utilizzando 
questi modelli per accelerare la ricerca medica...



Inutile dirlo... sono EUFORICO!!!




L'Ormone della Felicità


Longevity

Questa molecola presente in tutti i mammiferi, Uomo compreso, agisce contrastando l’indebolimento delle difese immunitarie dovuto all’avanzare dell’età. 

La ricerca è stata pubblicata sulla rivista dell’Accademia americana delle scienze (Pnas).

Leggi l'articolo sul "Fatto Quotidiano".


La "Stupida macchina" con cui sto giocando a scacchi, ne sono certo, non l'avrà mai.


Sfida Umano - Macchina



Il computer quantistico.

E' Realtà.

VS




E'h.
 La scienza dell'HPC approda a una nuova fantastica frontiera.
La "Stupida Macchina" ora ragiona esattamente come noi.

Bene. Sfido pubblicamente GOOGLE stessa e il suo Computer.
In palio?
nothing
NULLA. 0. NIET. NADA. un emerito cazzo.

Oggi è domenica 10/01 e mi va di svagarmi.

Appuntamento a scelta di GOOGLE.
Modalità Combattimento: a scelta di GOOGLE.

START
Ore 17:11
10/01
2016
Ends...................NEVER

Anonymous

Non lo nego.
Il passato 5 novembre (2013) ho fatto anche io parte di Anonymous.


Semplicemente, il mio profilo Facebook per un giorno è stato quello di un programmatore consapevole del sistema in cui lavora, e della fondamentale importanza delle menti che stanno dietro i programmi  per computer, smartphone, e tablet che rendono possibile tutto ciò che ci circonda, nel Bene, ma purtroppo e soprattutto, nel Male.

Non ho hackerato nulla, solo creato un po' di scompiglio, 
e verificato che tutto ciò che viene scritto in rete è passato al vaglio parola per parola. 
Sono arrivate le risposte e le conferme che mi aspettavo. 

TUTTO QUI

Sappiate che nulla, ma proprio NULLA, è "privato".

Il primo processore quantistico a stato solido

Il gruppo di ricercatori dell'Università di Yale nel Connecticut, che fa capo a Robert Schoelkopf, ha reso noto sulle pagine del progetto la realizzazione di un primo, rudimentale processore quantistico, un passo importante nella direzione della effettiva possibilità di realizzare il computer quantistico.

Il gruppo ha creato due "atomi artificiali", detti qubits (quantum bits), composti da miliardi di atomi di alluminio, ognuno dei quali può cambiare stato, zero e uno, come nei processori tradizionali, molto rapidamente. I due qubits comunicano tra loro tramite un "bus quantico" di fotoni, quindi sostanzialmente con la luce, a velocità impensabili con le attuali tecnologie di produzione.
Non si tratta, però, solo di velocità. Il bus quantico permette ad un qubit di modificare lo "stato quantico" dell'altro al quale è accoppiato, anche a distanza. La quantità d'informazioni, infine, aumenta esponenzialmente, con il numero di qubits utilizzati perché, grazie ad una sorta di giustapposizione, tutte le combinazioni possibili (00, 01, 11, 10) possono coesistere.
Fino ad oggi questo tipo di calcolo non è stato possibile perché non si era trovato il modo di far durare i qubits più di qualche nanosecondo, problema che il gruppo di Schoelkopf ha risolto, raggiungendo la durata di un microsecondo, sufficiente per eseguire alcuni semplici algoritmi, fornendo una prima dimostrazione, che viene discussa in modo dettagliato sulla versione online di Nature.
E' la prima volta che si realizza un risultato del genere con un dispositivo elettronico abbastanza simile a un processore come quelli cui siamo abituati, anche se rimangono da superare diverse difficoltà, che derivano dagli stessi presupposti della meccanica quantistica applicata all'informatica.

In particolare, va considerato il problema della durata dell'informazione, la quale, al momento, è troppo ridotta per poter effettuare operazioni complesse; una volta superato questo ostacolo, si potrebbero raggiungere potenze di calcolo impressionanti e tali da costituire una seria preoccupazioni per le applicazioni crittografiche attualmente ritenute sicure e inattaccabili.

Fonti: Programmazione.it - Tom's Hardware

Aquasar

L'Istituto Federale Svizzero per la Tecnologia (ETH) di Zurigo e IBM hanno annunciato il progetto per la costruzione di Aquasar, un supercomputer raffreddato ad acqua che, primo nel suo genere, riutilizzerà il calore in eccesso per il riscaldamento dei palazzi dell'università. Il sistema diminuirà l'impronta ecologica del sistema fino all'85% e si stima farà risparmiare fino a 30 tonnellate di CO2 all'anno in confronto a sistemi simili dotati delle tecnologie attuali.
L'intero sistema di raffreddamento è a circuito chiuso: l'acqua di raffreddamento viene riscaldata costantemente dai chip e quindi raffreddata fino alla temperatura voluta durante il passaggio attraverso uno scambiatore di calore passivo, con il risultato di trasferire il calore rimosso direttamente al sistema di riscaldamento dell'università in questa fase sperimentale. Questo elimina la necessità di moduli di condizionamento molto onerosi dal punto di vista energetico.
(Fonte)

Un'idea semplice e quasi ovvia, ma mai messa in pratica. Qualsiasi sistemista conosce bene l'importanza di una bassa temperatura nella sala server, i processori generano una quantità di calore che in rapporto alla superficie, si avvicina a quella di una centrale nucleare. Tipicamente si spende parecchia energia per climatizzare l'ambiente (i supercomputer attuali sono tutti raffreddati ad aria) e abbattere il calore prodotto dalle macchine. Ed ecco appunto che la soluzione di un raffreddamento a liquido non solo elimina la spesa (economica e ambientale) della climatizzazione, ma permette anche di risparmiare sul riscaldamento.
Ovviamente, in estate, l'aria condizionata andrà usata comunque.

Rack di 23 schede video per il Folding@home



Il rack nel video è composto da 4 schede madri MSI con 4 slot PCIex 16x, che ospitano ognuno una nVidia GTX 295 (dual gpu, 480 stream processor totali), più altre schede video in attesa di montaggio.


E' sicuramente un sistema estremo quello mostrato, che ha implicato un esborso economico non indifferente. L'autore è del resto spinto alla ricerca con Folding@Home dalla propria esperienza personale, avendo il padre che soffre della malattia di Huntington e desiderando contribuire con questo calcolo distribuito a incrementare la ricerca scientifica su malattie di questo tipo.

Articolo: HardwareUpgrade

Moltiplicatore al grafene, CPU a 1000 GHz

I ricercatori del MIT hanno realizzato, sperimentalmente, un moltiplicatore di frequenza dal grafene.
Il moltiplicatore è un componente capace di ricevere un segnale elettrico a una specifica frequenza e produrre un'uscita che è un multiplo della frequenza originaria. I moltiplicatori attuali producono segnali "rumorosi" che richiedono i filtri e consumano molta energia, mentre il nuovo moltiplicatore di frequenza al grafene consiste in un singolo transistor e produce un segnale d'uscita pulito con un'efficienza altamente superiore, che potrebbe portare in futuro a sistemi capaci di operare tra 500 e 1000 GHz.

Articolo: Tom's Hardware

OpenCL diventa ufficialmente uno standard


Nel corso dei giorni passati Khronos Group ha ufficialmente annunciato la ratifica dello standard OpenCL, con la pubblicazione delle specifiche 1.0.
OpenCL si pone così come il primo standard aperto, libero da canoni di concessione e multipiattaforma destinato in modo particolare alla programmazione parallela delle GPU di ultima e futura generazione.
Il nuovo standard aperto, infatti, permetterà agli sviluppatori di approcciarsi alla programmazione parallela general purpose delle GPU senza la necessità di dover imparare ed utilizzare un linguaggio specialistico per la programmazione di processori grafici (come ad esempio sono OpenGL e DirectX). Mediante le librerie e il linguaggio di programmazione di OpenCL, basato sul linguaggio di programmazione C, i programmatori potranno sfruttare la potenza elaborativa delle moderne GPU allo stesso modo in cui si affronta lo sviluppo di software per una normale CPU.

Articolo: Hardware Upgrade

Jaguar: il nuovo computer più potente al mondo



Il Jaguar del Oak Ridge National Laboratory è al momento il supercomputer più potente del mondo: con i suoi 45mila Opteron quad-core, 326 terabyte di RAM e 10 petabyte di spazio disco, è in grado di raggiungere e superare il quadrilione di operazioni al secondo (mille milioni di milioni) toccando la punta massima di 1,64 petaflop di potenza. Il tutto grazie ai 578 terabyte di ampiezza di banda della sua memoria, che si sommano ai 248 gigabyte di bandwidth messi a disposizione attraverso i suoi ingressi e uscite I/O.
Jaguar è il più potente supercomputer per uso scientifico mai realizzato nella storia dell'informatica, e sarà liberamente accessibile a chiunque ne faccia richiesta (naturalmente attraverso i consueti canali accademici e di ricerca).
Esiste un solo compu-mostro più grande, il Roadrunner di IBM, ma questo svolge simulazioni per i laboratori segreti di Los Alamos.

DNA-Computing


Alcuni scienziati giapponesi hanno dichiarato di essere riusciti a creare il primo DNA artificiale del mondo, una novità che apre nuovi orizzonti e che avvicina a passi da gigante il DNA computing, tecnologia a cui la sfera scientifica mira da molto tempo.
I componenti usati per queste architetture dal sapore fortemente avveniristico, fondamentalmente, sono due: gli enzimi, che svolgono il ruolo di hardware, e il DNA, che costituisce il software. Ad oggi, miscelando sapientemente questi due elementi e monitorando i risultati, gli scienziati possono già svolgere semplici elaborazioni.

Qualora la tecnologia individuata si rivelasse usabile e corretta, ci potranno essere computer basati su DNA dalla potenza di calcolo inimmaginabile, che farebbe impallidire un attuale supercomputer.
Stupirà anche sapere che la capacità di memoria del DNA, in prospettiva, sarebbe di gran lunga superiore a quanto si possa minimamente immaginare: basterebbe mezzo chilo di DNA per memorizzare i dati contenuti in tutti gli hard disk esistenti oggi sulla faccia della Terra.
Senza contare i consumi, inferiori di molteplici ordini di grandezza.

Articolo: Punto Informatico


Tutto molto affascinante e avveniristico, ma mi sorgono interrogativi e preoccupazioni.
Perché la scienza si sforza a replicare artificialmente la natura? Questo può valere per gli OGM, ma qui parliamo di computers.
Sono molti anni ormai che gli scienziati lavorano allo sviluppo dell'intelligenza artificiale, copiando, di fatto, i meccanismi di apprendimento e di elaborazione del cervello umano, per poter creare un vero e proprio computer "pensante", che apprende dai propri errori, che immagazzina esperienza. Stesso concetto si ritrova nelle reti neurali, riproduzioni approssimate della rete dei neuroni del nostro cervello.
Allo stesso modo, si tenta di riprodurre, a livello fisico, automi robotici antropomorfi, ovvero basati sulle forme umane, e via dicendo.

Quello che mi chiedo è perché, prima di conoscere a fondo i misteri del nostro cervello (che è ancora oggetto di studio, ne conosciamo una minima parte) insegniamo ad una macchina i suoi principi.
Ora, a costo di sembrare fantascientifico, vorrei fare mente locale sulla trama di base di tutte le storie e i film di fantascienza: gli umani costruiscono macchine, sempre più sofisticate e "pensanti", fino a quando queste prendono il sopravvento e decidono di sterminarci.
Se si ragiona bene e lucidamente, è lo scenario attuale: Robot da guerra sono già in uso in Iraq, e se ne vogliono di nuovi, anche solo con funzioni di sorveglianza.
Tutto qui? No. Chi ha visto il film Terminator, ricorderà che la storia narra che nel 1997 (che a quel tempo era futuro) scoppierà una guerra nucleare comandata da Skynet, un potente network di difesa progettato e gestito dal governo degli Stati Uniti, e che in pochi anni arriverà ribellarsi contro gli uomini, gestendo anche un potente esercito segreto di Terminator, in progettazione proprio in quegli anni.
Sembra incredibile, ma Skynet, esiste! E si, ha proprio quella funzione!!!

Tornando al nostro DNA e alla notizia, anche qui siamo davanti a qualcosa di praticamente sconosciuto, che cela incredibili sorprese che spiegano i fantastici poteri della nostra specie, e invece di indagare a fondo su questo punto di vista, ci costruiamo una bella macchina.

C'è una cosa comunque che mi fa stare tranquillo sul fatto che le macchine non potranno mai prendere il sopravvento: non hanno e non possono avere coscienza di , e per quanto meravigliosa possa essere la macchina Uomo, questo è nulla in confronto a che cos'è l'Anima.

Abbattuto il muro del PetaFlop

Fino ad oggi, il supercomputer più potente al mondo era l'IBM BlueGene/L (Top500), con una potenza di poco inferiore a mezzo Petaflop. (1 Peta Flop = un milione di miliardi di operazioni in virgola mobile al secondo).

IBM si supera, e non di poco.
La sua nuova creazione è Roadrunner, un supercomputer ibrido composto da 6.948 chip AMD Opteron dual-core e 12.960 processori Cell (una versione modificata del processore della Playsation 3), capace di superare il Petaflop di potenza di calcolo continuata (1,6 di picco), e quindi, di fatto, raddoppiare le prestazioni dell'attuale "Re" dei computer.
Dotato di 80 terabyte di memoria, è alloggiato in 288 rack IBM BladeCenter, ciascuno delle dimensioni di un frigorifero industriale, occupando quindi una superficie di circa 577 metri quadri.
Rispetto ad architetture di supercomputer più tradizionali, quella ibrida di Roadrunner garantisce consumi "ridotti" (3,9 megawatt) e fornisce un'efficienza da record: 376 milioni di operazioni in virgola mobile per ciascun watt consumato.
Il sistema operativo e software di base sono Open Source RedHat Linux.

FASTRA

L’università di Antwerp si è cimentata in un esperimento che, sebbene non del tutto nuovo, farà scuola nel settore. Come potrete vedere nel video in calce al post, il problema è rappresentato dalla ricostruzione dei dati prodotti da una macchina tomografica (una TAC per intenderci).

La notizia è che i ricercatori dell’università belga hanno sostituito un cluster di 4 computer con CPU quad core, con un assemblato equipaggiato da CPU Phenom 9850 e 4 schede video GeForce 9800GX2, con un costo inferiore ai 4000€ e battezzato FASTRA.

L'idea è utilizzare gli stream processor delle schede video per la computazione (ne abbiamo 2x128 per ognuna delle 4 schede) al posto delle unità di calcolo del processore. La recente decisione di Nvidia di rilasciare la piattaforma CUDA agli sviluppatori ha reso possibile questo progetto.

Risultato: i tempi di ricostruzione dei dati acquisiti dalla TAC, ossia l’assemblamento di numerosissimi piani di sezione in un solido, sono passati, a seconda della complessità del modello, dalle ore ai secondi, dai giorni ai minuti. Per alimentare la bestiolina serve un’unità da 1500w: poco se si pensa che per raggiungere le uguali prestazioni via cluster sarebbe forse servito qualcosa di simile a 1Mw.



Home Progetto FASTRA