1 / 31

Convegno Virtualizzare il desktop L’ICT si trasforma in Utility Rodolfo Boraso

Convegno Virtualizzare il desktop L’ICT si trasforma in Utility Rodolfo Boraso CSP – Innovazione nelle ICT 20 maggio 2008. La compagine societaria del CSP. CSP è una società consortile senza fini di lucro

phuoc
Download Presentation

Convegno Virtualizzare il desktop L’ICT si trasforma in Utility Rodolfo Boraso

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Convegno • Virtualizzare il desktop • L’ICT si trasforma in Utility • Rodolfo Boraso • CSP – Innovazione nelle ICT • 20 maggio 2008

  2. La compagine societaria del CSP CSP è una società consortile senza fini di lucro Laboratorio di ricerca accreditato presso il MIUR, certificato UNI EN ISO 9001:2000

  3. Il Bilancio

  4. Il Personale • CSP è composto al 31 marzo 2008 da: • 43 dipendenti • I dipendenti di sesso femminile sono 17 • I laureati sono 32 • L’età media è pari a 35 anni • Nel 2007 in CSP hanno operato complessivamente 100 persone, oltre ai dipendenti, di cui: • 19 borsisti (+2 Borse Lagrange) • 8 stagisti • 9 tesisti • 62 tra collaboratori a progetto, occasionali e professionali

  5. Le attività nel 2007 • 97 diverse attività svolte oggetto di offerta di cui: • 54 per la Pubblica Amministrazione Locale (di cui 31 per Regione Piemonte, 19 per CSI Piemonte, 4 per la PA locale) • 6 per altre Pubbliche Amministrazioni • 20 per imprese di cui 10 locali • 7 su bandi di ricerca e sviluppo di cui 5 esteri, 1 nazionale e 1 regionale • 10 per Enti di ricerca e non profit tutti locali

  6. Una terza fase per CSP Prima Fase 1989 – 1998: Centro per il supercalcolo del Piemonte Seconda Fase 1998 – 2007: Centro per la sperimentazione di tecnologie innovative Terza Fase dal 2008 CSP struttura di innovazione e ricerca della PA piemontese che agisce come Organismo di ricerca secondo quanto previsto dalla Disciplina comunitaria relativa a Innovazione e R&S

  7. Competenze al servizio di temi strategici • Le competenze tecnologiche del CSP al servizio di progetti di innovazione su temi strategici quali: • La Mobilità (ad es. il progetto VICSUM in collaborazione con Politecnico, CRF e GTT sulla C2C e C2I communication) • L’Ambiente (ad es. il progetto sui precursori sismici in alta montagna realizzato con il contributo di ricercatori del settore) • L’Aereospazio (ad es. con la partecipazione al Bando sulla piattaforma tecnologica con 2 diverse proposte in collaborazione con il Politecnico di Torino e l’associazione ITHACA) • La Sanità (ad es. con lo sviluppo dell’iniziativa del Laboratorio promosso da CSI Piemonte) • Il Socio-assistenziale (ad es. con la proposta comune CSI-CSP e ISMB su sistemi avanzati di localizzazione di soggetti fragili) • L’Industriacreativa (ad es. con la partecipazione al progetto europeo CREATE con Regione Piemonte e Politecnico)

  8. Le competenze: Media & Network Convergence (NMC) • Descrizione generale • Valorizzazione dei contenuti tramite la convergenza di reti e media digitali • Keywords • IpTV, MobileTV, Personal Video Recording, Pod/Vodcasting, Streaming, Set-top-box, New format, Innovative Channel, DVB-x, DRM, WaterMarking

  9. Le competenze:Future Generation Networks (FGN) Descrizione generale Reti IP di nuova generazione per il trasporto di dati, voce e video su tecnologie interoperabili e abilitate al controllo di qualità Keywords All-IP, Scalable Network structure, Wireless and mobile networks, Ad-hoc networking, Safety Networks, C2C, M2I, Security Network, WLL, IP over PowerLine, Mesh & Sensor Networks

  10. Le competenze: Next Generation Services (NGS) Descrizione generale Framework per la realizzazione e distribuzione di servizi in rete IP Keywords SOA, GRID, M2M, SAN, Agenti intelligenti, ECM, DHPC, ISCSI, Security Middleware, Clearing Houses, LBS, CA&PKI

  11. Le competenze: Social Computing (SC) Descrizione generale Modelli di collaborazione e partecipazione per la valorizzazione di contenuti non strutturati (User generated content) Keywords Knowledge management, usabilità, accessibilità, paradigma 2.0, Digital content, Interface Design

  12. Attività di scouting tecnologico sulla virtualizzazione • Obiettivi • L’individuazione dei modelli di utilizzo, delle soluzioni e delle tecnologie che meglio si prestano ad un modello distribuito di erogazione dei contenuti e dei servizi. • Esigenze di operatività. • Utilizzo di Internet come piattaforma: • “costruire applicazioni in modo tale che sfruttino l’effetto della rete e migliorino quanto maggiore è il numero di utenti che le usano” – O’Reilly.

  13. Alcune considerazioni.. • Esigenza di operatività legata alla fornitura dei servizi. • Si sta evidenziando un nuovo approccio che tende a migliorare i componenti, i sistemi e le relazioni tra questi al fine di garantire alcuni aspetti e funzionalità oggi invece delegate all’operato dell’uomo e alle procedure operative: • - Dependability dei sistemi. • - Autonomic computing. • - Autonomic network. • - Virtualizzazione intesa come disaccoppiamento delle istanze di oggetti e componenti dal loro supporto fisico (reti, sistemi e storage).

  14. Dependability “la dependability di un sistema informativo è la capacità di fornire un servizio su cui si può fare affidamento in maniera giustificata”

  15. Attributi della dependability • Availability: capacità di fornire un servizio corretto quando richiesto. • Reliability: capacità di fornire con continuità un servizio corretto. • Safety: l’assenza, nell’erogazione di un servizio, di conseguenze catastrofiche sugli utenti e/o sull’ambiente esterno. • Confidentiality: assenza di accessi non autorizzati alle informazioni. • Integrity: assenza di alterazioni sullo stato del sistema. • Maintainability: predisposizione a ricevere manutenzioni e modifiche.

  16. Autonomic computing • Termine coniato nel 2001 dal Paul Horn, vice presidente della ricerca IBM. • Creare sistemi in grado di gestirsi con modalità autonome. • Articolo “The vision of Autonomic Computing”: • “un mondo avviato verso una crescita, in numero e tipologia, di ogni genere di apparati in grado di interconnettersi tra loro ma senza il controllo necessario per manutenere la mole dei nuovi collegamenti generati”. - Superare la complessità crescente dovuta ai modelli computazionali del Pervasive Computing e oggi quelli del Cloud Computing. - Gestione autonoma dei nodi che andranno a comporre i sistemi informativi del futuro.

  17. Autonomic Computing: 4 obiettivi - Auto-configurazione degli elementi del sistema e della rete: abilitare nei sistemi la capacità di adattarsi alle mutate condizioni modificando le proprie configurazioni. - Auto-ottimizzazione dei processi: monitorare il proprio stato e le performance per un tuning proattivo. - Auto-protezione:integrare il sistema con l’intelligenza per il riconoscimento degli attacchi informatici o eventuali problemi come l’aumento della temperatura. - Auto-riparazione dai malfunzionamenti: capacità di riconoscere eventuali deviazioni del comportamento desiderato e applicare azioni per riportare il sistema alla normalità. “Autonomic computing” è quella disciplina che studia come dotare i vari componenti hardware e software di funzionalità che li mettano in grado di misurare il “proprio stato di salute”, decidere eventuali azioni da intraprendere ed eseguire le azioni necessarie per ripristinare lo stato di funzionamento ottimale (IBM).

  18. Gestione dinamica delle risorse - Utility • L’infrastruttura di utility deve avere vari centri di “produzione della risorsa” dislocati in modo intelligente sul territorio e collegati in una rete di distribuzione la cui topologia può essere “ri-programmata” in modo da far fronte al malfunzionamento di uno dei centri di produzione. • - Sarebbe molto più efficiente se le applicazioni fossero • “disaccoppiate” dalla sottostante infrastruttura hardware/software/middleware, potendo tutte • attingere con granularità alle risorse (potenza elaborativa, storage, comunicazioni) secondo il bisogno del momento, evitando sia gli sprechi dovuti alla sottoutilizzazione sia le cattive prestazioni dovute all’eventuale scarsità delle risorse ad essa dedicate - > Virtualizzazione.

  19. Virtualizzazione per la Dependability. - IEEE Technical Committee on Dependable Computing and Fault Tolerance. - International Conference on Dependable Systems and Networks (DSN 2007). Attività svolte all’interno dell’IEEE e recenti presentazioni ai convegni specializzati sulla dependability del sistemi hanno confermato l’interesse per la virtualizzazione dei sistemi operativi come un nuovo strumento per l’introduzione di una maggiore flessibilità nelle architetture dei sistemi informatici.

  20. Virtualizzazione: Live Migration I concetti di base si concentrano sulla virtualizzazione al fine di raggiungere un’astrazione sufficiente a delineare la configurazione dell’hardware sottostante e consentendo l’hosting di macchine virtuali multiple sulle macchine fisiche, evidenziando aspetti come il logging-replay delle VM. - Static migration: fermo la VM e copio su altro host la VM utilizzando comandi del sistema operativo. - Cold migration: sospendo la VM utilizzando strumenti del VMM, copio l’immagine su altro VMM per poi riprendere l’esecuzione. - Live migration: il VMM muove l’istanza della VM in esecuzione da un host fisico ad un altro host fisico. La live migration consente il bilanciamento del carico dinamico di un pool di risorse virtualizzate, la manutenzione dell’hardware, il failover dinamico evitando quindi possibili tempi di fermo del servizio.

  21. VDA - Virtual Desktop Architecture VDA è un modello d’uso che facilita il disaccoppiamento nell’architettura di elaborazione tra l’interfaccia utente e la sua elaborazione in remoto. - Virtualizzazione del desktop. - Utilizzo un protocollo di desktop remoting. - Una macchina virtuale singola per ogni utente. - Utilizzo le architetture multi-core e i sistemi operativi che sfruttano la virtualizzazione in hardware. • Isolamento dell’ambiente di esecuzione con livelli raggiungibili solo con una installazione in hardware. • Nuovo modello "pay-per-use" dei software come servizi.

  22. VDA e Green Computing 1/3 Thin Client • Separazione delle funzioni di input/output dal calcolo vero e proprio; si rende quindi il sistema a disposizione dell’utente estremamente leggero, essenziale e indipendente dalla piattaforma di calcolo. • Vecchio concetto dell’informatica (mainframe). • Riuso di computer obsoleti e prolungamento del ciclo di vita del computer, da 3-4 anni al più fisiologico 6-7 anni con una conseguente riduzione dell’impatto ambientale (in Italia vengono prodotti 14 Kg annui pro capite di rifiuti elettrici ed elettronici).

  23. VDA e Green Computing 2/3 Consumi energetici di un Thin Client (dati UniTre) “a PC consumes roughly 100/150 watts (more or less) - a Thin Client is in the 5/10 watts ball-park - a server blade consumes about 300 watts to support around 15 users (assumption). - so the difference between a PC and a Virtual Client implementation is: - 125 watts (PC) – 7 watts (tc) – 20 watts (300 watts / 15 users) = roughly 100 watts at an average energy cost of 0.10€ per hour .... - (assuming the client device is on 24/24) you would be saving: - 82€ every year - Per user !”

  24. VDA e Green Computing 3/3 L’utilizzo delle reti come strumento di sostenibilità. - Riduzione di emissioni e consumi. - Minori spostamenti. - Minori emissioni. - Minori consumi. - Minori spese. - Maggiore produttività/ora. - Minore traffico. - Miglior qualità della vita.

  25. Banda larga La banda larga diventa una necessità per: - La movimentazione delle macchine virtuali. - L’effettuazione di snapshot. - L’accesso a repositories di dati remoti di immagini virtuali. - L’implementazione di file system distribuiti a cui le macchine virtuali attingono i dati per l’elaborazione. Si ipotizza che con la disponibilità dei processori a 16-64 core, l’architettura di rete di riferimento debba diventare l’infrastruttura a 100 Gigabit Ethernet.

  26. Scenari d’uso su un’infrastruttura di rete geografica

  27. Intel Micro 2015

  28. Intel Micro 2015 Architetture future dei processori - Integrazione di transistor fino a decine di miliardi su un singolo chip. • - Disponibilità di un parallelismo a tutti i livelli gestito attraverso una struttura ridondante di thread. • - Strutture interne al chip dedicate a funzionalità speciali come l’elaborazione grafica e real-time. • - Memoria on-chip riconfigurabile e condivisa da gruppi di core, da differenti sistemi operativi e da hardware specializzato oltre che da micro-kernel. • - Core interconnessi da link ad alta velocità per trasferire i dati tra gruppi di core e all’interno dei gruppi stessi. • - Virtualizzazione con meccanismi in grado di fornire livelli di astrazione alle applicazioni e ai sistemi operativi.

  29. Intel Virtualization Technology for Connectivity Intel ha introdotto le seguenti strategie per la virtualizzazione dell’I/O con un supporto in hardware ed una maggiore capacità dell’hypervisor di governare il sistema di gestione dei sistemi guests, diminuendo il numero di righe di codice necessarie e diminuendo il potenziale impatto dell’esecuzione di software aggiuntivo sulle performance. - Virtual Machine Device Queues (VMDq) - Single Root I/O Virtualization (SR-IOV).

  30. Peculiarità di KVM vs XEN Xen will never be part of Linux Anthony Liguori, Software Engineer at Linux Technology Center (Xen e KVM developer): “Linux distributions ship Xen today and by default install a Linux guest (known as domain-0) and do their best to hide the fact that Xen is not a part of Linux. They've done a good job, most users won't even notice that they are running an entirely different Operating System. The whole situation is somewhat absurd though. It's like if the distributions shipped a NetBSD kernel automatically and switched to using it when you wanted to run a LAMP stack. We don't ship a plethora of purpose-built kernels in a distribution. We ship one kernel and make sure that it works well for all users. That's what makes a Linux distribution Linux. When you take away the Linux kernel, it's not Linux any more”

  31. CSP- Innovazione nelle ICT Sede legale e operativa Via Livorno, 60 Torino Tel. +39 011 4815111 Fax +39 011 4815001 Seconda sede operativa Villa Gualino Viale Settimio Severo 65 Torino www.csp.it

More Related