1 / 27

Hard Disk per P.C.

I.T.I.S. Santhià – Dipartimento di Informatica. Hard Disk per P.C. Modulo didattico “L’Hardware del P.C.”. Ultima revisione 13 gennaio 2005. Autore M. Lanino. Considerazioni generali. Nella scelta del disco fisso vanno considerati tre elementi tecnici fondamentali:

zed
Download Presentation

Hard Disk per P.C.

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. I.T.I.S. Santhià – Dipartimento di Informatica Hard Disk per P.C. Modulo didattico “L’Hardware del P.C.” Ultima revisione 13 gennaio 2005 Autore M. Lanino

  2. Considerazioni generali • Nella scelta del disco fisso vanno considerati • tre elementi tecnici fondamentali: • 1. La densità di registrazione • 2. La velocità di rotazione dei piattelli • 3. L’interfaccia • 4. Il quantitativo di memoria cache

  3. Densità di registrazione Si tratta della densità di impaccamento dei dati sulla superficie del disco. Attualmente si è giunti a valori poco superiori ai 100 Gbit per pollice quadro (Gb/inch2). Più questo dato è elevato e maggiori saranno la capacità e la velocità dell’HD. Infatti una maggiore densità implica che, a parità di velocità di rotazione, passino più dati sotto alla testina di lettura/scrittura per unità di tempo e che quindi aumenti la velocità di lettura/scrittura.

  4. La velocità di rotazione Il disco si basa poi sul movimento meccanico di rotazione dei piattelli ed è facile intuire quindi che più è rapido il movimento, maggiori saranno le prestazioni. Per quanto alcuni modelli raggiungano velocità di 15000 giri/minuto, il grosso del mercato per desktop si basa su unità a 7200 rpm o su unità più economiche a 5400 rpm. In ambiente Server e Work station si utilizzano spesso HD da 10000 rpm.

  5. L’interfaccia Sul fronte dell’interfaccia, praticamente l’EIDE (ATA100) è da ritenersi obsoleta, a favore dell’interfaccia Serial ATA (SATA) che, ormai diffusa a livello desktop, sta poco alla volta erodendo fette di mercato dell’interfaccia SCSI, in ambiente Server e Workstation. Lo standard EIDE ATA100, oggi in declino, dispone di un picco di trasferimento dati massimo teorico di 100 Mbyte al secondo e l’ultima delle sue evoluzioni, l’ATA-133, raggiunge i 133 MBps. Anche se i benefici reali per ora sono talvolta alquanto modesti, tuttavia, è il SERIAL-ATA(SATA) la nuova interfaccia disco dei prossimi anni. L’interfaccia SATA si basa sulla serializzazione del canale di comunicazione, alzando considerevolmente la frequenza di clock per raggiungere, nella prima versione, ampiezze di banda di 150 MBps. Il Serial-ATA farà anche finalmente sparire le scomode piattine a 80 fili in favore di cavetti compatti a 7 fili (4 di segnale e 3 di massa).

  6. L’interfaccia Serial-ATA Una differenza sostanziale rispetto allo standard parallelo è legata alla natura punto-punto dello standard SATA, che elimina la distinzione tra unità master e slave, secondo la quale, nel vecchio sistema, ciascuno dei due canali EIDE era condiviso da una coppia di dispositivi che, di conseguenza, condividevano anche la banda disponibile del canale. In un sistema SATA al contrario ogni unità è connessa al proprio host tramite un canale riservato, del quale può sfruttare l’intera banda passante.

  7. SATA = reale miglioramento? Occorre considerare il fatto che ad oggi non sono ancora diffusissimi sul mercato chipset che integrino a livello del NB il controller SATA. Pertanto molte schede madri che supportano lo standard oggi, lo fanno utilizzando integrati specifici che utilizzano il bus PCI per veicolare i dati. Ne consegue che il massimo trasferimento di dati non potrà superare le prestazioni del Bus PCI che, com’è noto, dispone di una banda di 133 MB/s. E’ chiaro quindi che solo il supporto da parte del chipset (SouthBridge) della scheda madre dello standard SATA garantisce reali miglioramenti nella banda passante del trasferimento dati.

  8. La memoria cache dell’HD La memoria cache è un’area di memoria interna all’apparecchiatura. Essa permette di memorizzare i dati in modo temporaneo così da creare un buffer di attesa per i dati che devono essere scritti nel disco oppure che sono stati letti dal disco e devono essere inviati sul Bus. Questo buffer è utile in quanto le velocità di trasporto del Bus e di lettura/scrittura del disco sono diverse, quindi in generale maggiore è l’estensione della cache, meno probabile sarà il suo svuotamento o la sua saturazione. In commercio si trovano ormai sempre più frequentemente HD con memoria cache da 2 a 8 MByte o maggiore.

  9. HD esterni e portatili Accanto alla tradizionale soluzione ATA o SATA, si stanno pian piano affacciando sul mercato anche i dischi rigidi esterni con interfaccia FIREWIRE e USB2. Esse garantiscono sulla carta ampiezze di banda di oltre 400 Mbps, ma da prove svolte si sono verificati trasferimenti continuativi a valori più contenuti, intorno a 10 Mbyte al secondo. Ciò li rende un’alternativa interessante come mezzi di archiviazione di massa rimovibili.

  10. L’architettura di un HD NOTA sulla capacità: Contrariamente alle convenzioni normalmente utilizzate in informatica, la capacità di un HD viene definita dai produttori in modo che 1 Mbyte risulti uguale a 1.000.000 di Byte (106) e non a 1.048.576 Byte (220). Quindi un HD venduto da 20 Giga in realtà conterrà soltanto 18,6 GB di dati.

  11. La tecnologia utilizzata Come si memorizza l’informazione Un disco rigido conserva le proprie informazioni su piattelli sopra i quali è depositato uno speciale materiale magnetico. Questo, sottoposto all’azione di un campo indotto dalla testina di scrittura, varia localmente il proprio orientamento in una particolare direzione, che viene mantenuta fino ad una nuova operazione di scrittura. Poiché di direzioni se ne possono avere due, a esse è possibile associare il bit di informazione 0 o 1. Ogni bit quindi occupa una superficie precisa del disco. Alla testina spetta anche il compito di leggere l’informazione registrata, e per fare ciò individua proprio la direzione del campo. Incrementare la quantità di dati memorizzabili significa perciò ridurre quest’area al minimo senza compromettere la capacità della testina di operare correttamente. Particolare importanza riveste il valore comunemente espresso in Gbit/pollice2 e spesso indicato in inglese come ‘areal density’, poichè rappresenta un primo indice della densità di registrazione raggiunta. Un altro fattore critico è la densità di registrazione delle tracce, quanto cioè è possibile accostare tra loro i percorsi circolari di memorizzazione dei dati.

  12. I limiti dell’attuale tecnologia Per avere un’idea dei progressi raggiunti, si pensi che si è passati da 0,9 a 100 Gbit/inch2 nel periodo dal 1990 ad oggi. Il limite fisico dell’attuale tecnologia si suppone sia rappresentato da un valore di circa 150 Gbit/inch2. Bit così piccoli infatti subiscono un effetto noto come ‘superparamagnetismo’. La direzione di campo può subire mutamenti casuali legati alla temperatura o alla presenza di elementi perturbativi circostanti. Per quanto riguarda i piattelli, il materiale più comune è l’alluminio, anche se il vetro ha fatto la sua comparsa già da qualche tempo. Materiale magnetico viene depositato sulle superfici del disco con processi di diffusione analoghi a quanto avviene nella fabbricazione dei circuiti integrati a semiconduttore. Attualmente vengono memorizzati mediamente 80-100 Mbyte di dati per ciascun piattello di un HD. Comunemente un HD dispone di un disk pack formato da 1 a 4 piattelli per una capacità totale di circa 400 GB.

  13. Le testine Le testine di Lettura/Scrittura sono in grado di individuare il microscopico campo magnetico generato localmente sulla superficie del disco dalle areole che rappresentano i bit. Si sfruttano i fenomeni fisici associati alle correnti elettriche e alla loro interazione con i campi magnetici per variare opportunamente la disposizione dei dipoli che rappresentano i bit di informazione. La tecnologia attualmente per la maggiore prende il nome di Gmr (Giant Magnetoresistive). In pratica, in un metallo percorso da una corrente costante, l’applicazione del campo magnetico causa una variazione della sua resistenza, ed è quindi possibile registrare una variazione della tensione attraverso la Legge di Ohm V=R*I. L’effetto magnetoresistivo è utile solo nelle fasi di lettura, per questo motivo, accanto alla testina Gmr ne è presente un’altra testina di tipo induttivo che svolge le funzioni di scrittura.

  14. La scrittura longitudinale La tecnologia attuale è detta a scrittura longitudinale in quanto prevede la deposizione dei micro campi magnetici su piani paralleli al supporto. Nella figura questi micro campi sono le frecce BLU. Si noti, come detto prima, la presenza di due testine, una di scrittura ( di tipo magnetico classico) ed una di lettura (sensore GMR). Ora che la scrittura longitudinale inizia a far sentire i propri limiti (super paramagnetismo) quella perpendicolare potrebbe fornire un margine di vantaggio sufficiente ad innescare la transazione da una tecnologia all’altra. Ma come funziona questa nuova tecnologia verticale?

  15. La scrittura perpendicolare Già si è parlato dei problemi fisici legati all’aumento delle densità di registrazione dell’attuale tecnologia. Attualmente la scrittura prevede che il campo magnetico di ciascun bit sia orientato parallelamente alla superficie del piattello , mentre con la scrittura perpendicolare la direzione del campo sarebbe appunto perpendicolare al supporto magnetico. Per questo tipo di scrittura sono necessarie testine con diversa geometria e nuovi supporti magnetici composti da uno strato principale e da un sub strato in grado di fissare l’informazione. I vantaggi starebbero nella minore sensibilità agli effetti super paramagnetici, con la conseguente possibilità di aumentare le densità di registrazione bel oltre i 50 Gb/inch2. Il problema è legato essenzialmente ai costi, in quanto il cambio di tecnologia impone un adeguamento radicale delle linee di produzione.

  16. Il motore I piattelli sono mantenuti in rotazione costanteda un sofisticato motore elettrico. Oscillazioni anche minime dell’asse di rotazione, determinano un disallineamento tra la traccia sul piattello e la testina, compromettendo le operazioni di lettura e scrittura. Il metodo che oggi garantisce prestazioni migliori (minime vibrazioni, bassa usura e poca rumorosità) è detto FDB (Fluid Dynamic Bearing) ed è caratterizzato da bronzine in bagno d’olio. Attualmente per i sistemi desktop la norma è costituita da una velocità di rotazione di 7200 giri/min, anche se sono ancora presenti in commercio unità a 5400 rpm. E’ interessante notare come le testine che viaggiano sul disco rigido sono mantenute vicinissime alla superficie del piattello, senza tuttavia che avvenga alcun contatto, grazie al cuscino d’aria generato proprio dalla rotazione del disco. Quando questo si ferma, un meccanismo automatico porta le testine in una posizione protetta di ‘parcheggio’.

  17. Caratteristiche tecniche

  18. Struttura fisica del disk Pack In figura è rappresentato un disk pack formato da 5 piatti a singola faccia. Le informazioni sono cioè distribuite su 5 facce, lette da 5 testine di lettura e scritte da 5 testine di scrittura. Vengono anche indicate le rappresentazioni di Tracciae di Cilindro. Questa rappresentazione è piuttosto didattica, infattinormalmente i dati sono memorizzati su entrambe le facce del disco.

  19. Accesso ai dati E’ il S.O. che decide l’organizzazione dei dati sul disco. Prima di poter utilizzare l’HD è necessario formattarlo, in modo da permettere all’unità di memorizzare e trovare i dati in modo ordinato. Vi è la necessità di creare in una apposita zona del disco uno schedario che permetta di recuperare i file per mezzo di indicazioni riguardanti la loro ubicazione sulla superficie del disco stesso. Formattare il disco significa suddividere la superficie disponibile in settori e tracce concentriche; ciascuno di essi sarà contrassegnato da codici magnetici inseriti nel disco stesso. Questa suddivisione permetterà una registrazione dei dati fatta con criteri logici, cosicché le testine di lettura/scrittura, in rotazione sopra ai dischi, possano rapidamente raggiungere i dati. Il numero di settori e tracce determinano la capacità del disco. Il cluster è l’unità minima utilizzata dal S.O. per la memorizzazione di un dato: anche se il dato è costituito da 1 solo byte, verrà utilizzato un intero cluster. Nel settore zero del disco il il S.O. memorizza un file speciale detto FAT (File allocation table) per il vecchio DOS e VFAT (virtual Fat) per i sistemi Windows. Questo file è una grande tabella che mette in corrispondenza un nome di file o directory con una sequenza di cluster, non necessariamente contigui. Se la contiguità è molto bassa si dice che il disco è frammentato; ciò rende la ricerca lenta, quindi occorrerà deframmentarlo attraverso software opportuni. Questa operazione deve essere svolta periodica-mente e può protrarsi anche per diverse ore.

  20. Tempi di accesso • Per quanto riguarda l’accesso ai dati, esso avviene mediamente in una quindicina di ms. Questo tempo medio viene di solito suddiviso in due tempi: • tempo necessario alla testina per posizionarsi sulla traccia (tempo di seek) • tempo impiegato dalla testina per trovare il settore richiesto (tempo di latenza). • Il primo tempo può variare parecchio e dipende dalla posizione iniziale della testina, mentre il secondo molto meno e corrisponde al più a mezzo giro di disco: • 7200 rpm = 120 rps  quindi mezzo giro è percorso in 1/240 secondi = 4,17 ms (confrontare il dato trovato sui data sheet riportati)

  21. La funzionalità S.M.A.R.T. Le funzionalità SMART per la comunicazione al sistema di situazioni anomale rappresenta un significativo strumento per evitare il crash improvviso, anche se nei desktop spesso non è sfruttata. Se l’HD supporta la funzionalità, occorre abilitarla direttamente da BIOS e disporre di un apposito software di analisi e interpretazione dei dati; eventuali informazioni circa i malfunzionamenti dell’unità disco sono segnalati nella fase di avvio del PC (POST: Power-On Self Test) La funzionalità SMART permette di tenere sotto controllo, in modo statistico (cioè su intervalli di tempo lunghi), molti parametri operativi dell’HD, in modo da prevedere con sufficiente anticipo eventuali crash.I principali parametri monitorati sono: ·Il numero di ricalibrazioni termiche effettuate dall’HD in un determinato intervallo di tempo ·la temperatura del motore e dei cuscinetti ·la temperatura dei piattelli.

  22. La tecnologia RAID Molte schede madri anche nella fascia desktop, oggi, sono equipaggiate con controller per dischi fissi di tipo RAID. RAID è l’acronimo di Redundant Array of Inexpensive Disks e indica configurazioni realizzate mediante combinazioni di dischi per ottenere maggiori prestazioni o la sicurezza dei dati a differenti livelli. Questa tecnologia è in grado di gestire più dischi in funzionamento contemporaneo secondo diverse modalità fra cui le principali sono dette RAID 0 (Striping) RAID 1 (Mirroring) RAID 5

  23. RAID 0 Con RAID 0 il compito del controller è quello di suddividere i dati in pacchetti (striping = ‘ fare a strisce ’) e di scriverli con una sequenza ciclica sui vari dischi. Grazie ad una tecnica di mappatura il controller è poi in grado di accedere in parallelo a questi dati nelle successive fasi di lettura. Il RAID 0 è quindi rivolto esclusivamente all’aumento del transfer rate, senza alcuna funzione di protezione dei dati.

  24. RAID 1 Il RAID 1 (Mirroring) è, al contrario, rivolto alla sicurezza delle informazioni memorizzate. I dati non vengono più distribuiti sui vari dischi, bensì replicati sulle diverse unità, fattore che da un lato priva l’utente della metà dello spazio di archiviazione, ma dall’altra consente un back-up continuo e automatico dei dati, senza alcun uso di software specifici e con grandi risparmi di tempo.

  25. RAID 5 Il RAID 5 fornisce prestazioni tipiche dello striping affiancate da stringhe per il controllo e la ricostruzione delle informazioni. E’ utilizzato spesso in ambiente server. La configurazione RAID 5 permette di avere una capacità globale pari a n-1 unità che compongono l’array (ad es. per 3 dischi da 80 GB si ha una capacità di 160 GB) e permette di unire le elevate prestazioni tipiche del Raid 0 ad un buon livello di sicurezza come avviene per Raid 1.

  26. Gli sviluppi futuri Gli sviluppi futuri sembrano indirizzati verso l’affermazione definitiva dello standard SATA, specie per il mercato desktop e workstation. E’ prevista a breve l’uscita del SATA di seconda generazione che aumenterà il transfer-rate a 300 MB/s. Non è tuttavia ipotizzabile la rapida scomparsa dell’interfaccia SCSI nel segmento server, dove non sono solo le velocità di trasmissione a contare, ma soprattutto la robustezza del trattamento dei dati e la flessibilità nella manipolazione. Inoltre SCSI è recentemente passato alla versione Scsi-Ultra320 che presenta un throughput più che doppio rispetto a SATA. Dunque, per quanto confinato in settori specifici (server), l’interfaccia SCSI non è destinata, almeno per ora, a diventare obsoleta in quanto garantisce ancora, pur se ad un prezzo più elevato, prestazioni di livello migliore rispetto a SATA.

  27. Sata II, Sas e Fibre Channel Lo standard SCSI è destinato anch’esso ad una futura serializzazione, sono infatti all’orizzonte le specifiche Sas (Serial Attached Scsi), che porteranno alla trasmissione seriale dei dati. Queste novità dovrebbero essere disponibili nel corso del 2005 e prevedono un transfer rate di 3 Gbps, fino a 128 dispositivi su un solo canale e cavi di lunghezza superiore a 15 m, con la possibilità di collegare allo stesso canale anche dispositivi SATA. Ciò apre alla possibilità futura di libera coabitazione dei due standard sulla medesima macchina. Infine sullo scenario tecnologico sta facendo la propria comparsa Fibre Channel, il sistema di trasporto su fibra ottica che dovrebbe rivoluzionare la topologia delle SAN (Storage Area Network), consentendo di veicolare dati Scsi a distanze dell’ordine dei 10 Km con throughput di 2 Gbps e permettendo di collegare fra loro fino a 128 dispositivi in un singolo loop e di inserire nella rete switch dedicati in modo da ampliare la rete a piacimento.

More Related