Talk su dark silicon e big data di uno di epfl che e` molto interessante. Sostanzialmente il problema e` questo: lasciamo perdere i calcoli, i dati stanno crescendo esponenzialmente e con un esponente molto spinto (~10x/anno), il silicio scala come sempre (~1.5x/anno) MA non riesce piu` a scalare i consumi. La situazione e` esplosiva.
Angelo,
van der Baarft,
Haukr,
simone1268,
Non sono Bob,
Lorenzo R v rs,
eslr,
mschwarz,
Elvira,
Francesco M.,
Ciocci,
M.,
Smb3M,
and
Von
liked this
discuss
- d☭snake
intel non è tanto d'accordo
- quel *** di Luca
Quindi si buttano via i dati o meglio si evita di raccoglieri? Occorrerà una selezione su cosa sia più importante? Considerando che al momento i datacenter sono sottoutilizzati, con server li a far nulal per gestire i picchi, utilizzare questo spreco computazionale no?
- SteveAgl-May WP be with u
allora
- d☭snake
luca: espandimi subito cosa intendi che tra pochi minuti si possono fare domande
- d☭snake
cmq per ora ha fatto vedere delle ottimizzazioni di infrastruttura che sono interessanti, tipo che monitorando bene la temperatura si risparmia il 50% di energia, oppure on chip cooling (questo lo sappiamo fare anche noi!). Pero` chiaramente queste cose non funzionano: mi hai appena spiegato che il problema e` esponenziale e queste soluzioni sono lineari. Perdi piu` tardi, ma perdi.
- d☭snake
invece e` arrivato su un punto molto interessante, che vi racconto dopo appena lo finisce
- d☭snake
(hint: architettura delle cpu)
- d☭snake
catapult me l'ero perso. Microsoft ha costruito un mega datacenter pieno di FPGA. BENE BRAVI CI STATE ARRIVANDO
- d☭snake
([note to self] questo significa che mi devo sbrigare a fare alcune delle cose che vogliamo fare dato che finalmente e` il momento in cui l'industria ci potrebbe trovare interessanti)
- d☭snake
cmq ancora non sono arrivato al punto di prima la cosa di microsoft mi ha distratto
- d☭snake
Seguo
- Emma Woodhouse
allora, il suo argomento era il seguente
- d☭snake
i datacenter, come suggerisce il nome, non sono supercomputer. Il problema non e` fare molti calcoli, il problema e` accedere ai dati e manipolarli, spesso solo guardarli.
- d☭snake
le applicazioni tendono a stare tutte in memoria: i dischi sono troppo lenti per la maggior parte dei servizi
- d☭snake
non solo: i servizi sono costruiti con una marea di layer. Tra l'applicazione e la ciccia a livello di cpu c'e` da attraversare tanti contesti, tanti accessi a memoria piu` o meno lontana
- d☭snake
bottom line: da misurazioni fatte le moderne architetture superfighe stanno la maggior parte del tempo ferme ad apettare di prendere qualcosa dalla cache o peggio dalla ram o peggio ancora dalla ram di un nodo collegato in rete o se proprio sei disperato dallo storage
- d☭snake
e questo e` tremendamente poco efficiente
- d☭snake
soluzione: ridisegnare architetture specifice *per datacenter*, integrare coprocessori eterogenei, specializzare
- d☭snake
ovviamente io non posso essere che d'accordo. Voi?
- d☭snake
(cmq ancora non mi ha convinto che questo risolva il problema iniziale, purtroppo erano in ritardo e hanno segato sulle domande, ma anche ridisegnare l'architettura, ottimizzare, blabla sono soluzioni lineari a un problema esponenziale)
- d☭snake
tutto questo dando per scontato che si continui a costruire macchine di von neuman con le tecnologie tradizionali: è per questo che c'è un sacco di lavoro accademico su architetture alternative
- quel *** di Luca
ha parlato anche di approximate computing etc. ma vista la resistenza del settore all'innovazione direi che il passaggio fondamentale e` passare senza traumi a sistemi eterogenei e specializzati, poi si puo` parlare di cose piu` esoteriche
- d☭snake
(e ovviamente anche intel ci lavora, magari contribuendo al lavoro altrui: il futuro non sono i bus e i transistor, il futuro sono architetture che tenderanno ad assomigliare alle strutture celebrali umani, con migliaia di interconnessioni tra i "transistor" in luogo delle consuete attuali 10 interconnessioni al max)
- quel *** di Luca
(luca non mi hai detto che ne pensa intel)
- d☭snake
intel spera di incrementare costantemente la frequenza fino al massimo possibile, incrementare parallelismo, poi di passare ad architetture diverse
- quel *** di Luca
luca: non e` che ti puoi inventare tante cose per connettere punti nel silicio eh, le cose di cui parli sono molto interessanti ma non sono roba fattibile l'anno prossimo. L'anno prossimo pero` ci sara` 10x i dati e i consumi non scalano piu`
- d☭snake
stiamo parlando di scale di tempi differenti
- d☭snake
infatti, intel parla di 10-20 anni per questo tipo di innovazioni: nel frattempo confida ancora nella legge di moore
- quel *** di Luca
eh, ma guarda quello che ho scritto all'inizio. Tra 10 anni ci saranno 1000 volte i dati e mentre la legge di moore 1) e` piu` lenta 2) non funziona piu` per i consumi
- d☭snake
Insomma, Joomla e Wordpress ci funzioneranno o no?
- Marco d'Itri
le stime sul 10x l'anno chi le ha fatte?
- quel *** di Luca
nel coffee break ho parlato col tipo e saggiamente invece di fare domande polemiche ho fatto vedere quello che facciamo noi. risposta: "molto interessante è proprio la direzione giusta, dovreste farlo vedere a google". bene.
- d☭snake
[futuribili ] soluzioni che vengono da altrove: agire direttamente sulla acquisizione di dati. esempio scemo: i pixel di una foto son tutti correlati, quindi acquisire la matrice di pixel *e poi* comprimerla e' a tutti gli effetti uno spreco di risorse. meglio sarebbe riuscire ad acquisire gia' compresso (---> dove gia' compresso sarebbe esponenziale, in questo caso). questa roba qui si chiama compressed sensing http://en.wikipedia.org/wiki...
- frugola
Ammesso che si possa fare, suggerisci di archiviare i dati solo compressi? (mi pare anche questa una soluzione "lineare")
- Non sono Bob
(si puo' fare diggia' in certi contesti) il cambio di prospettiva non e' nell'archiviare dati solo compressi, ma nell'acquisire meno dati in the first place. per esempio, vedi la single pixel camera http://dsp.rice.edu/researc....
- frugola
acquisire esponenzialmente meno dati significherebbe linearizzare la crescita di dati che adesso e' esponenziale, e ricondurla al ritmo della legge di moore.
- frugola
Capito, tnx.
- Non sono Bob
(poi ovviamente non e' domani ne' dopodomani, perche' i dispositivi di acquisizione son relativamente facili da fare, mentre poi per sfruttare i dati nel modo usuale -- tipo guardare la foto su uno schermo -- ti occorre una potenza di calcolo non indifferente)
- frugola
[nostradamus] Poi si scoprirà che la potenza di calcolo necessaria è esponenziale in funzione della compressione e saremo punto a capo.
- Non sono Bob
se vi interessa, articolo di wired (quindi no math) sulle applicazioni del compressed sensing per mri http://www.wired.com/2010...
- frugola
@bob: allora, diciamo che nel 2006 hanno dimostrato che si puo' fare (per inciso, dentro la dimostrazione di questa cosa c'e' quello che nel 2006 ha vinto la medaglia fields). e' da allora che quasi tutta la ricerca in questo campo si concentra in come risolvere in modo efficace (dal punto di vista computazionale) il problema della ricostruzione. per ora e' ancora un problema, ma insomma, ci lavora talmente tanta gente che penso che soluzioni efficaci saranno disponibili nemmeno fra tanto
- frugola
[la soluzione *esatta* del problema, cioe' quella della dimostrazione, e' NP hard, e viene da un brute force combinatorio. quello che si fa e' rilassare la formulazione del problema, e quindi poterlo risolvere facilmente.]
- frugola
“It was as if you gave me the first three digits of a 10-digit bank account number — and then I was able to guess the next seven,” --> :O
- Non sono Bob
yep, e' roba abbastanza bella ^_^
- frugola
(e' molto bello anche il modo in cui son arrivati alla scoperta)
- frugola
Siete molto cuccioli a pensare che Google, Intel e altri non ci stiano lavorando internamente e/o monitorando tutte le startup o gruppi di ricerca che fanno qualcosa. Io non ho alcuna informazione, è proprio un elemento di logica banale.
- Braga
Infatti non ricordo se Google o Amazon qualche mese fa si è comprata all'ingrosso una piccola società con esperienza nel progettare CPU.
- Marco d'Itri
@braga: scusa ma mi e' sfuggito il punto in cui qualcuno si dice convinto che "google non ci stia lavorando"
- frugola
Mi associo alla domanda di frugola. (che in effetti stavo per fare, mi sono pure riletto il thread)
- Non sono Bob
C'era tutta una sottotraccia di "l'industria non capisce il problema", ma forse mi sono lasciato trascinare dalla spocchia dell'autore del thread.
- Braga
@braga: mi sa che ti sei lasciato trascinare un po' troppo.
- frugola
a me pare di capire che industria e ricerca su sta cosa si guardano a vicenda con estremo interesse. Non a caso il relatore ha suggerito a dasnake di "far vedere il lavoro" a Google.
- M.
(tra l'altro: questo livello di speculazione e', nell'ingegneria, quella che si chiamerebbe *ricerca di base* in fisica. la distanza tra accademia e industria a questi livelli e' di fatto quasi annullata: la gente va e viene da un labo universitario a un r&d industriale e ritorno, anche piu' volte nel corso di una carriera.)
- frugola
arrivo tardi ma quando si parla di 10X dati si parla ad esempio della prospettiva commerciale molto vicina di industria dell'auto che passa all'auto robotica e quindi butta in rete computer vision e sensori di ogni tipo ?
- Lorenzo R v rs
(argomento interessantissimo fra parentesi)
- M.
Bella la single pixel camera, ma con 24 bit per il colore sono possibili solo 16 milioni di immagini diverse e basta :-P
- Lopo
(frugola io e te dobbiamo parlare, seriamente) bah, mi sono un po' perso come e` continuata la polemica e ora devo prendere un aereo. Solo un appunto: l'industria ha grandi capacita`, ma non infinite. Soprattutto affrontano i problemi che hanno e quelli che pensano di avere. Noi pure. Ad esempio sono alcuni decenni che ci scontriamo col problema di analizzare enormi quantita` di dati eterogenei con una certa varieta` di algoritmi e in pochissimo tempo, senza possibilita` di fare pause. Non vedo molti altri contesti con queste caratteristiche, va da se che e` possibile che si sia sviluppato qualche soluzione originale. Magari pure utile in altri contesti. (cmq su google sono scettico, se non altro perche` ci ho gia` provato a far vedere le nostro cose ... )
- d☭snake
rieccomi, mi appunto un'ultima cosa. Involontariamente la battutaccia di MdI tanti commenti sopra e` pertinente. Ci gira Wordpress o Joomla? Ecco il punto e` che oggi scopriamo che i datacenter sono piuttosto inefficienti nel far girare Wordpress o Joomla. Fino a relativamente poco tempo fa a nessuno importava niente: il problema era mettere quei cosi rumorosi da qualche parte e raffreddarla. Tutto si sarebbe risolto mettendone tanti. Il problema e` che gia` dal 2005 le cose non scalano piu` come dovrebbero e siamo arrivati molto vicini al punto critico in cui bisogna iniziare a guardare anche a quanto e` efficiente un Wordpress che gira su uno Xeon in un blade.
- d☭snake
la cosa molto interessante - e devo dire per me che non sono del settore piacevolmente stupefacente - e` che la risposta non e` stata "facciamo meglio Wordpress". Il servizio e` quello ed e` buono, negli ultimi anni sono stati spesi tanti soldi in architetture software e di rete, sono fatte bene, sono quello che vogliamo. Il punto da attaccare e` l'architettura dell'hardware
- d☭snake
le cose che dice frugola sono realta` da tempo nel mondo embedded e networking. Il messaggio del tipo di oggi e` che nel mondo delle grosse infrastrutture server si inizia a risfogliare il manuale di embedded o addirittura di hdl (vedi microsoft e catapult). Bello, molto bello.
- d☭snake
ora arriverà qualcuno a dire che WordPress è in PHP quindi fa caà a prescindere
- Lopo
(nel mentre ho riletto con piu` calma e a np-hard brute force combinatorio mi si sono accese alcune lucine. Metto una sveglia per dicembre e poi cerco di capire meglio la cosa)
- d☭snake
Quindi state dicendo che Wordpress 16 girerà su FPGA
- Craiv
uhm indirettamente e non solo, ma più o meno l'idea è quella
- d☭snake
ma più che altro il messaggio è che non deve essere un problema per lo sviluppatore di WP ma di quello del data center
- d☭snake
@das: tieni conto che questa cosa e' signal processing puro. i paralleli col mondo embedded io non son in grado di capirli, magari me li spieghi?
- frugola
nessuno, avevo letto con poca calma
- d☭snake
anzi se vuoi è che l'hw per le eventuali implementazioni è un DSP (da quello che leggo ora)
- d☭snake
Ma quantum computing? *scappa via veloce*
- мик
Perfetto, sto giusto cercando di levarmi di torno un progetto su WP che ho programmato malissimo per mancanza di voglia (e altro), posso dire che è un problema del data center (e in effetti lo sto già dicendo)
- Lopo
Interessante. Puoi dare qualche riferimento per trovare un paper da leggere?
- eslr
eslr poi cerco le slide e qualche articolo, ma è questa roba qui http://parsa.epfl.ch/project... quella di cui parlava
- d☭snake
grazie
- eslr
http://research.microsoft.com/pubs... questo e` l'articolo di Microsoft in cui descrivono il loro tentativo di accelerare Bing con FPGA nei server. Molto interessante. L'architettura che hanno scelto per la rete parallela dei nodi FPGA assomiglia molto alle macchine per conti di lattice qcd o simili (cerca IANUS tipo), tanto per sottolineare che ci puo` essere scambio tra i vari mondi.
- d☭snake
non so fino a che punto c'entri e ma vedo da twitter e digg questo http://www.technologyreview.com/photoes...
- Aldo Oldo
http://www.media.inaf.it/2015... questo articolo mi sembra pertinente
- eslr
interessante, ma non so mica se SKA produce piu` dati di LHC (vado a controllare)
- d☭snake
leggo che siamo dell'ordine dei 10^11 bit/s , pero` non riesco a capire se c'e` un trigger prima o dopo questo rate
- d☭snake
gli esperimenti di LHC non mi ricordo mai il numero complessivo, tipo O(megabyte) per bunch crossing quindi 10^7 ogni 50 ns fa ~10^14 bit/s . ho fatto il conto giusto? e parliamo di ora, nel 2020 saremo un tot sopra.
- d☭snake
(cmq mi sa che il problema di SKA e` che questa quantita` abnorme di dati si deve spostare su un'area fisicamente molto grande rispetto agli esperimenti di LHC)
- d☭snake