Clocking. Architetture dei Calcolatori (Lettere. di Memoria. Elemento. scritti. Tecnologie per la Memoria e Gerarchie di Memoria
|
|
- Gerardina Longo
- 7 anni fa
- Visualizzazioni
Transcript
1 Clocking Architetture dei Calcolatori (Lettere A-I) Tecnologie per la Memoria e Gerarchie di Memoria Ing.. Francesco Lo Presti Il segnale di Clock definisce quando i segnali possono essere letti e quando possono essere scritti Fronte di discesa (negativo) Falling edge Periodo di clock Fronte di salita (positivo) Rising edge Freq. clock = /(Periodo di Clock) e.g., Periodo di nsec MHz Periodo di nsec GHz Opzioni per gli elementi di memoria Latch sensibili al livello Flip-Flop master-slave/edge-triggered Memoria Elementi di Memoria Elementi di Memoria Latch Set-reset R S Latch D sensibile al livello clock D Q!Q Q!Q clock!q(t+)!q(t) Il latch e e transparente quando il clock e e alto (l ingresso( e copiato in uscita) D Q R S Q(t+) Q(t) - - Memoria 2 Problemi con i latch: corse critiche Elemento di Memoria Logica Combinatoria Elementi di memoria usati compe input ed output nello stesso ciclo Ciclo deve durare abbastanza da permettere all uscita della rete combinatoria di stabilizzarsi Ma non troppo a lungo da permettere al nuovo valore di ripropagarsi attraverso la rete combinatoria Difficile garantire entrambe le condizioni Dipende dai tempi di propagazione dei diversi percorsi Memoria 3
2 Elementi di Memoria Periodo del Ciclo di Clock Soluzione: : Flip-Flops Flops che cambiano lo stato (Q) solo sui fronti del segnale di clock (master-slave) slave) Q D Q Q clock clock!q clock!q!q D clock Q Master (primo ) D copia in Q l ingresso quando il clock e e alto (lo slave (secondo( ) e e bloccato e non cambia stato ) Slave copia il valore del master quando il clock va a (il master e e bloccato nel suo stato di memoria ed eventuali cambi all ingresso non vengono letti) Vincolo sul ciclo di clock Il ciclo di clock deve durare abbastanza da rispettare il ritardo piu lungo possibile della rete combinatoria Memoria 4 Il periodo T deve essere scelto lungo abbastanza da garantire che l output del circuito combinatorio sia stabilizzato Deve esserlo prima del periodo di apertura di del flip-flop flop (set-up time) Deve rimanere stabile per un certo tempo (hold-time) D C Set-up time T Hold time Setup e hold time per un flip-flop D (clock sul fronte di discesa) Memoria 5 Assunzioni Registro Metodologia edge-triggered Comportamento tipico Leggere il contenuto di elementi di memoria I valori sono input di una o piu reti combinatorie Scrivere i risultati in uno o piu elementi di memoria clock State element Combinational logic one clock cycle State element 2 Si assume che gli elementi di memoria sono scritti ad ogni ciclo di clock Altrimenti si aggiunge un esplicito segnale di write In AND con il clock La scrittura avviene solo quando occorre la transizione di Memoria 6 livello attiva ed il segnale di controllo e affermato Registro Simile ad un flip flop D eccetto N bit di ingresso e uscita Input Write Write: Se negato (): i dati in uscita (Data Out) non cambiano Se asserito (): i dati in uscita (Data Out) divengono uguali ai dati in ingresso (Data In) Q D D Q clock!q Q D D Q clock!q Q n- D n- D Q clock!q clock Write Memoria 7
3 Banco di registri (register( file) Banco di registri ad accesso rapido per memorizzare temporaneamente gli operandi usati nelle istruzioni Nel MIPS il banco dei registri è composto da 32 registri generali Due porte in lettura da 32 bit Read data /2 Una porta in scrittura da 32 bit Write data Tre porte per selezionare i registri da 5 bit Read register # (#2) : primo (secondo( secondo) registro da leggere Write register: registro da scrivere Write: : segnale di controllo In AND con il clock (non mostrato) Solo se Write= il valore in Write data e e scritto nel registro indicato da Write Reg. Banco di registri (2) Un banco di registri può essere implementato con un multiplexer per ciascuna porta read,, un decoder per ciascuna porta write ed un array di registri costruiti partendo da flip- flop D Esempio: implementazione di due porte read per un banco di registri composto da n registri Read register number Read register number 2 Register Register Register n Register n M u x M u x Read data Read data 2 Memoria 8 Memoria 9 Banco di registri (3) Esempio: implementazione di una porta write per un banco di registri composto da n registri Memoria Principali tecnologie per RAM Le memorie RAM sono di due tipi Memorie statiche: Static Random Access Memory (SRAM) Memorie dinamiche: Dynamic Random Access Memory (DRAM) Memorie statiche Il singolo elemento corrisponde ad un latch/flip flip-flopflop Memorie dinamiche Il singolo elemento corrisponde ad un condensatore ed un transistor L informazione è memorizzata sotto forma di carica del condensatore Richiedono un refresh periodico dell informazione Le memorie statiche sono (rispetto a quelle dinamiche) Più veloci (5ns vs. 5-ns) Più costose (6 transistor per bit) Persistenti (non è richiesto il refresh) Più affidabili Memoria
4 Memoria Principale, Cache e Tecnologie SRAM Prestazioni della memoria principale Latenza Tempo di accesso: : tempo tra quando arriva la richiesta e la parola Tempo di ciclo: : tempo tra richieste Banda La memoria principale è DRAM Dinamica in quanto ha bisogno di essere rinfrescata periodicamente (8 ms) Indirizzi di memoria divisi in due parti (memoria come una matrice 2D): RAS o Row Access Strobe CAS o Column Access Strobe La memoria cache usa SRAM No refresh (6 transistor/bit vs. transistor) Dimensione: : DRAM/SRAM = 4-8 Costo/Tempo di Ciclo: : SRAM/DRAM = 8-6 Memoria 2 Realizzata con matrici di latch Larghezza W (# latch per cella) Spesso piccolo W=,4,8 Altezza H (# celle indirizzabili) Non e e possibile scrivere e leggere contemporaneamente Esempio Chip 32k*8 Chip Select = per poter leggere e scrivere Output = per abilitare l uscita del chip su un bus condiviso Write = per abilitare alla scrittura Address Chip Select Output Write D in 8 5 SRAM 32K*8 D out 8 Per Scrivere Chip Select, Write, Address e Din Per Leggere Chip Select, Output, Address e Dout Memoria 3 Realizzazione SRAM Struttura di una SRAM 4x2 Tecniche realizzative diverse rispetto a quelle del register file Grandi Mux,, Decoder non sono pratici Per evitare il Mux in uscita una linea condivisa i cui vari elementi di memoria sono tutti collegati Il collegamento alla linea avviene tramite un buffer a tre stati Un dispositivo a tre stati, in base ad un segnale di controllo, si comporta: (b) controllo=: come circuito chiuso (c) controllo=: come circuito aperto Il buffer three-state è incorporato nei flip-flop che formano le celle di base di una SRAM (buffer controllato dal segnale ) Tutti i latch di una colonna sono collegati alla stessa linea di output Il decoder serve ad abilitare in lettura/scrittura una certa linea Write enable Address 2-to-4 decoder 2 3 Din[] Din[] Dout[] Dout[] Memoria 4 Memoria 5
5 Struttura di una SRAM 4Mx8 Memoria DRAM Per evitare grandi decoder si usa decodifica a due livelli Decoder piu piccolo + batteria di mux Es SRAM 4Mx8 (22 bit indirizzo) Suddiviso in 8 blocchi da 4Mbit (4Kx24 bit) Parte alta indirizzo [2-] ] seleziona la medesima riga da ogni blocco di 4Kx24bit attraverso un decoder (2 a 496) Parte bassa indirizzo [9-] seleziona un singolo bit dei 24 in output dai vari blocchi Memoria 6 DRAM sono meno costose, piu capienti, ma piu lente rispetto alle SRAM 5- volte meno veloci Cella di memoria con un transistor+capacita Il condensatore memorizza il contenuto della cella ed il transistor è usato per accedere alla cella (tramite Word Line) Word line e e attivato sulla base dell indirizzo richiesto I condensatori mantengono i valori memorizzati per alcuni ms Necessario il refresh dinamico delle DRAM, effettuato leggendo,, e subito dopo riscrivendo i valori appena letti Il refresh avviene ad intervalli fissi, occupa il 2% del tempo, ed avviene per righe Memoria 7 DRAM: Decodifica su due livelli SSRAM e SDRAM DRAM usa un decoder a due livelli Indirizzo di memoria (n bit) suddiviso in row address (n/2 bit) e column address (n/2 bit) Accesso di riga seguito da accesso di colonna Segnale di controllo RAS: Row Address Strobe Segnale di controllo CAS: Column Address Strobe Segnali inviati consecutivamente sugli stessi pin Esempio: Memoria DRAM 4Mx (4 Mbit) ) con una matrice 248x248 Indirizzo 22 bit suddiviso in bit per la riga e bit per la colonna Accesso ottimizzato a bit di memoria consecutivi Tramite i column latches celle consecutive di memoria stanno sulla stessa riga Row address Address[ ] Row decoder -to-248 Column address array Column latches Mux Dout Memoria 8 Synchronous SRAM e DRAM (SSRAM e SDRAM) permettono di aumentare la banda di trasferimento Possibilita di specificare (tramite MMU) che si vuole trasferire dalla memoria un burst di dati Burst=sequenza sequenza di celle consecutive, specificato da un indirizzo di partenza ed dalla lunghezza Le celle sono contenute all interno di una stessa riga Quindi nei column latches La memoria trasferisce una delle celle del burst sul bus dati ad ogni ciclo di clock Migliore Banda di Trasferimento Memoria 9
6 Tipi di Memoria a Semiconduttore SRAM ( (Static RAM): a flip-flop flop,, molto veloce (~5 nsec) DRAM ( (Dynamic RAM): basata su capacità parassite; richiede refresh,, alta densità,, basso costo (~7 nsec) SSRAM/SDRAM ( (Synchronous DRAM) Sincrona (scambia dati con il processore in sincronia con un segnale di clock esterno), prestazioni migliori PROM ( (Programmable ROM) EPROM ( (Erasable PROM): raggi UV EEPROM: cancellabile elettricamente Flash Memory: : tipo di EEPROM Memoria 2 Prestazioni Problema: Divario delle prestazioni CPU- memoria Legge di Moore Tempo CPU Capacità: 2x / 3 anni Velocità: 2x / 3 anni Divario di prestazione processore-memoria: (aumenta 5% / anno) DRAM Capacità: 4x / 3 anni Velocità: 2x / anni Memoria 2 Obiettivo: Illusione di una Memoria Grande, Veloce ed Economica Osservazioni: Le memorie di grandi dimensioni sono lente Le memorie veloci hanno dimensioni piccole Come creare una memoria che sia grande, economica e veloce (per la maggior parte del tempo)? Gerarchia Parallelismo Gerarchia di memoria La memoria di un calcolatore è implementata come una gerarchia di memoria Differenti tempi di accesso e di costo corrispondenti ai diversi livelli di memoria CPU Aumenta il tempo di accesso Aumenta la capacità di memorizzazione Diminuisce il costo per bit Livello Livello 2. Livello n Dimensione della memoria ad ogni livello Memoria 22 Memoria 23
7 Gerarchia di memoria (2) Principio di località Obiettivi della gerarchia di memoria: Fornire all utente una quantità di memoria pari a quella disponibile nella tecnologia più economica Fornire una velocità di accesso pari a quella garantita dalla tecnologia più veloce Datapath Processor Control Registers On-Chip Cache Second Level Cache (SRAM) Main Memory (DRAM) Secondary Storage (Disk) Speed (ns):,, ( ms) Size (bytes): K M G Tertiary Storage (Tape),,, ( sec) T Memoria 24 Osservazione: i programmi accedono ad una porzione relativamente piccola del loro spazio di indirizzamento Esistono due tipi differenti di località. Località temporale (nel tempo): se un elemento (dato o istruzione) è stato acceduto, tenderà ad essere acceduto nuovamente in un tempo ravvicinato 2. Località spaziale (nello spazio): se un elemento (dato o istruzione) è stato acceduto, gli elementi i cui indirizzi sono vicini tenderanno ad essere acceduti in un tempo ravvicinato Esempio I programmi contengono cicli: le istruzioni ed i dati saranno acceduti ripetutamente ( (località temporale) Gli accessi agli elementi di un array presentano un elevata località spaziale; ; nell esecuzione esecuzione di un programma è altamente probabile che la prossima istruzione sia contigua a quella in esecuzione Probabilità di riferimento Spazio di indirizzamento 2 n - Memoria 25 Principio di località (2) Come sfruttare la:. Località temporale Tenendo gli elementi acceduti più frequentemente vicino al processore 2. Località spaziale Spostando blocchi contigui di parole al livello superiore Al Processore Dal Processore Memoria di Superiore Blk X Memoria di Livello Inf. Blk Y Gerarchia di memoria (3) Basandosi sul principio di località,, la memoria di un calcolatore è implementata come una gerarchia di memoria Solo il livello più alto della gerarchia di memoria è a contatto diretto con il processore Costituito dalla memoria cache Livelli di memoria inclusivi Tutti i dati sono memorizzati nel livello più basso Un livello superiore, più vicino al processore, contiene un sottoinsieme di informazioni dei livelli inferiori Migrazione dei dati fra livelli della gerarchia I dati vengono di volta in volta copiati solo tra livelli adiacenti Memoria 26 Memoria 27
8 Migrazione dei dati Memoria Cache Blocco: : la minima unità di informazione che può essere trasferita tra due livelli adiacenti Hit (successo): il dato richiesto dal processore è presente in un blocco del livello superiore In caso contrario si ha un miss (fallimento):il livello inferiore della gerarchia deve essere acceduto per recuperare il blocco contenente il dato richiesto Processore La memoria principale (DRAM) è sempre più lenta del processore e tende a rallentarlo Sono disponibili memorie più veloci (SRAM) ma solo per dimensioni limitate La cache opera alla velocità del processore, e quindi nasconde la lentezza della memoria Scopo della cache: disaccoppiare le velocità di processore e RAM Contiene le ultime porzioni di memoria acceduta: se il processore richiede l accesso l ad una di esse evita un accesso alla memoria Funziona bene sfruttando il principio di località dei riferimenti Memoria 28 Memoria 29 Strategia di Utilizzo della Cache La prima volta che il processore richiede dei dati si ha un cache miss I dati vengono caricati dalla memoria principale e vengono copiati anche nella cache Le volte successive, quando il processore richiede l accesso ad una cella di memoria Se il dato è presente in un blocco contenuto nella cache, la richiesta ha successo ed il dato viene passato direttamente al processore Si verifica un cache hit Altrimenti la richiesta fallisce ed il blocco contenente il dato viene anche caricato nella cache e passato al processore Si verifica un cache miss Obiettivo: aumentare quanto più possibile il tasso di cache hit Hit rate e tempo medio di accesso in memoria Hit rate: : frazione degli accessi in memoria risolti nel livello superiore della gerarchia di memoria Hit rate = numero di hit / numero di accessi in memoria Miss rate: : (Hit rate) Tempo medio di accesso in memoria (AMAT): AMAT = c h+ (-h)m c: hit time (tempo di accesso alla cache) h: hit rate -h: miss rate m: miss penalty=access time + transfer time (tempo per accedere al livello inferiore della gerarchia di memoria più tempo per trasferire il blocco dal livello inferiore della gerarchia) Hit time << miss penalty Memoria 3 Memoria 3
9 Come è gestita la gerarchia di memoria? Registri Memoria Dal compilatore (programmatore?) Cache Memoria Dall hardware Memoria Dischi Dall hardware e dal sistema operativo (memoria virtuale) Dal programmatore (file) Memoria 32
Calcolatori Elettronici
Calcolatori Elettronici Cenni sulle memorie Francesco Lo Presti Rielaborate da Salvatore Tucci Clocking q Il segnale di Clock definisce quando i segnali possono essere letti e quando possono essere scritti
DettagliArchitetture dei Calcolatori (Lettere
Architetture dei Calcolatori (Lettere J-K) Tecnologie per la Memoria e Gerarchie di Memoria Ing.. Davide D AmicoD Clocking Il segnale di Clock definisce quando i segnali possono essere letti e quando possono
DettagliIl quadro di insieme. Tecnologie per la memoria e gerarchie di memoria. Un ripasso: latch D e flip-flop D. Un ripasso: clock
Il quadro di insieme I cinque componenti di un calcolatore Tecnologie per la memoria e gerarchie di memoria Processore Unità di controllo Memoria Dispositivi di input Architetture dei Calcolatori (lettere
DettagliClocking. Architetture dei Calcolatori (Lettere. Elementi di Memoria. Periodo del Ciclo di Clock. scritti
Clocking Architetture dei Calcolatori (Lettere A-I) Tecnologie per la Memoria e Gerarchie di Memoria Prof. Francesco Lo Presti Il segnale di Clock definisce quando i segnali possono essere letti e quando
DettagliTecnologie per la memoria e gerarchie di memoria
Tecnologie per la memoria e gerarchie di memoria Architetture dei alcolatori (lettere A-I) Il quadro di insieme I cinque componenti di un calcolatore Processore Unità di controllo Memoria ispositivi di
DettagliMemorie Corso di Calcolatori Elettronici A 2007/2008 Sito Web:http://prometeo.ing.unibs.it/quarella Prof. G. Quarella
Memorie Corso di Calcolatori Elettronici A 2007/2008 Sito Web:http://prometeo.ing.unibs.it/quarella Prof. G. Quarella prof@quarella.net Tipi di memorie Possono essere classificate in base a varie caratteristiche:
DettagliMemorie e circuiti sequenziali
Memorie e circuiti sequenziali Salvatore Orlando Arch. Elab. - S. Orlando 1 Elementi di memoria I circuiti combinatori sono in grado di calcolare funzioni che dipendono solo dai dati in input I circuiti
DettagliClock. Corso di Architettura degli Elaboratori. Architetture degli Elaboratori. Circuiti combinatori e sequenziali.
Corso di Architettura degli Elaboratori Il livello logico digitale: Memoria Clock: un circuito che emette una serie di impulsi con una specifica larghezza e intermittenza Tempo di ciclo di clock: intervallo
DettagliMemorie e circuiti sequenziali. Elementi di memoria
Memorie e circuiti sequenziali Salvatore Orlando Arch. Elab. - S. Orlando 1 Elementi di memoria I circuiti combinatori sono in grado di calcolare funzioni che dipendono solo dai dati in input I circuiti
DettagliClock. Corso di Architettura degli Elaboratori. Architetture degli Elaboratori. Latch di tipo SR sincronizzato. Latch di tipo SR
Corso di Architettura degli Elaboratori Il livello logico digitale: Memoria Dipartimento di Informatica Università degli Studi di Torino C.so Svizzera, 185 I-10149 Torino baldoni@di.unito.it http://www.di.unito.it/
DettagliClock. Corso di Architettura degli Elaboratori. Latch di tipo SR. Circuiti combinatori e sequenziali. Il livello logico digitale: Memoria
Corso di Architettura degli Elaboratori Il livello logico digitale: Memoria Matteo Baldoni Dipartimento di Informatica Università degli Studi di Torino C.so Svizzera, 85 I-49 Torino baldoni@di.unito.it
DettagliArithmetic Logic Unit
Arithmetic Logic Unit Circuito combinatorio all interno del processore per l esecuzione di istruzioni macchina di tipo aritmetico/ logiche (e di confronto) Quindi l ALU deve essere in grado di eseguire:
DettagliIl Sottosistema di Memoria
Il Sottosistema di Memoria Classificazione delle memorie Funzionalità Memoria di sola lettura (ROM) Memoria di lettura/scrittura Tecnologia Memoria a semiconduttori Memoria magnetica Memoria ottica Modalità
DettagliProcessore. Memoria I/O. Control (Parte di controllo) Datapath (Parte operativa)
Processore Memoria Control (Parte di controllo) Datapath (Parte operativa) I/O Memoria La dimensione del Register File è piccola registri usati per memorizzare singole variabili di tipo semplice purtroppo
DettagliIl Sottosistema di Memoria
Il Sottosistema di Memoria Calcolatori Elettronici 1 Memoria RAM RAM: Random Access Memory Tempi di accesso indipendenti dalla posizione Statica o Dinamica Valutata in termini di Dimensione (di solito
DettagliMemorie a semiconduttore
Memoria centrale a semiconduttore (Cap. 5 Stallings) Architettura degli elaboratori -1 Pagina 209 Memorie a semiconduttore RAM Accesso casuale Read/Write Volatile Memorizzazione temporanea Statica o dinamica
DettagliArch. Elab. - S. Orlando 2. Possiamo organizzare le porte logiche in modo da realizzare un elemento di
Memorie e circuiti sequenziali Salvatore Orlando Arch. Elab. - S. Orlando Latch L S-R Latch è un circuito, composto da 2 porte NOR concatenate, che costituisce l elemento base per costruire elementi di
DettagliUniversità degli Studi di Cassino e del Lazio Meridionale
di Cassino e del Lazio Meridionale Corso di Tecnologie per le Memorie Anno Accademico Francesco Tortorella Gerarchia di memoria: vista complessiva Gerarchia di memoria: tecnologie Accesso casuale (random):
DettagliLa memoria - tecnologie
Architettura degli Elaboratori e delle Reti Lezione 26 La memoria - tecnologie Proff. A. Borghese, F. Pedersini Dipartimento di Scienze dell Informazione Università degli Studi di Milano L 26 1/25 Struttura
DettagliDIAGRAMMI TEMPORALI relativi all'esecuzione di una istruzione e agli accessi alla memoria:
DIAGRAMMI TEMPORALI relativi all'esecuzione di una istruzione e agli accessi alla memoria: 1 Memoria centrale: è costituita da una sequenza ordinata di registri; ciascun registro è individuato da un indirizzo;
DettagliLa memoria - tecnologie
Architettura degli Elaboratori e delle Reti Lezione 26 La memoria - tecnologie Proff. A. Borghese, F. Pedersini Dipartimento di Scienze dell Informazione Università degli Studi di Milano L 26 1/24 Indirizzi
DettagliLa memoria - tecnologie
Architettura degli Elaboratori e delle Reti Lezione 26 La memoria - tecnologie Proff. A. Borghese, F. Pedersini Dipartimento di Scienze dell Informazione Università degli Studi di Milano L 26 1/24 Indirizzi
DettagliLezione 22 La Memoria Interna (1)
Lezione 22 La Memoria Interna (1) Vittorio Scarano Architettura Corso di Laurea in Informatica Università degli Studi di Salerno Organizzazione della lezione Dove siamo e dove stiamo andando La gerarchia
DettagliLa memoria: tecnologie di memorizzazione
Architettura degli Elaboratori e delle Reti La memoria: tecnologie di memorizzazione Proff. A. Borghese, F. Pedersini Dipartimento di Informatica Università degli Studi di Milano 1 Organizzazione della
DettagliLa memoria: tecnologie di memorizzazione
Architettura degli Elaboratori e delle Reti La memoria: tecnologie di memorizzazione Proff. A. Borghese, F. Pedersini Dipartimento di Scienze dell Informazione Università degli Studi di Milano 1 Organizzazione
DettagliLa memoria centrale di un calcolatore
Calcolatori Elettronici I A.A. 2018-2019 La memoria centrale di un calcolatore Prof. Roberto Canonico Dipartimento di Ingegneria Elettrica e delle Tecnologie dell Informazione 1 Definizione di memoria
DettagliIl Sottosistema di Memoria
Il Sottosistema di Memoria Classificazione delle memorie Funzionalità Memoria di sola lettura (ROM) Memoria di lettura/scrittura Tecnologia Memoria a semiconduttori Memoria magnetica Memoria ottica Modalità
DettagliCircuiti Sequenziali
Circuiti Sequenziali I circuiti combinatori sono in grado di calcolare funzioni che dipendono solo dai dati in input I circuiti sequenziali sono invece in grado di calcolare funzioni che dipendono anche
DettagliReti logiche (2) Circuiti sequenziali
Reti logiche (2) Circuiti sequenziali 1 Un ripasso Algebra booleana: operatori, postulati, identità, operatori funzionalmente completi Circuiti combinatori: tabelle di verità, porte logiche Decodificatore
DettagliLivello logico digitale bus e memorie
Livello logico digitale bus e memorie Principali tipi di memoria Memoria RAM Memorie ROM RAM (Random Access Memory) SRAM (Static RAM) Basata su FF (4 o 6 transistor MOS) Veloce, costosa, bassa densità
DettagliReti logiche (2) Circuiti sequenziali
Reti logiche (2) Circuiti sequenziali 1 Un ripasso Algebra booleana: operatori, postulati, identità, operatori funzionalmente completi Circuiti combinatori: tabelle di verità, porte logiche Decodificatore
DettagliIl Sottosistema di Memoria
Il Sottosistema di Memoria Classificazione delle memorie Funzionalità Memoria di sola lettura (ROM) Memoria di lettura/scrittura Tecnologia Memoria a semiconduttori Memoria magnetica Memoria ottica Modalità
DettagliLa memoria - tecnologie
Architettura degli Elaboratori e delle Reti Lezione 26 La memoria - tecnologie Proff. A. Borghese, F. Pedersini Dipartimento di Scienze dell Informazione Università degli Studi di Milano L 25 1/21 Sommario!
DettagliArchitettura degli Elaboratori
Memorie e circuiti sequenziali slide a cura di Salvatore Orlando, Andrea Torsello, Marta Simeoni 1 Circuiti combinatori vs sequenziali! I circuiti combinatori sono in grado di calcolare funzioni che dipendono
DettagliDIAGRAMMI TEMPORALI relativi all'esecuzione di una istruzione e agli accessi alla memoria:
DIAGRAMMI TEMPORALI relativi all'esecuzione di una istruzione e agli accessi alla memoria: Calcolatori Elettronici 2002/2003 - Diagr. temp. e Mem. dinamiche 1 Memoria centrale: è costituita da una sequenza
DettagliElementi di memoria. Memorie e circuiti sequenziali. Latch. Set / Reset del latch
Elementi di memoria I circuiti combinatori sono in grado di calcolare funzioni che dipendono solo dai dati in input Memorie e circuiti sequenziali Salvatore Orlando I circuiti sequenziali sono invece in
Dettaglistatic dynamic random access memory
LA MEMORIA SRAM e D R A M static dynamic random access memory SRAM: unità che memorizza un gran numero di parole in un insieme di flip-flop, opportunamente connessi, mediante un sistema di indirizzamento
DettagliArchitettura degli Elaboratori A Modulo 2
Architettura degli Elaboratori A Modulo 2 Memorie e circuiti sequenziali slides a cura di Andrea Torsello e Salvatore Orlando ircuiti combinatori vs sequenziali I circuiti combinatori sono in grado di
DettagliProcessore. Memoria I/O. Control (Parte di controllo) Datapath (Parte operativa)
Processore Memoria Control (Parte di controllo) Datapath (Parte operativa) I/O Memoria La dimensione del Register File è piccola registri usati per memorizzare singole variabili di tipo semplice purtroppo
DettagliCostruire memorie ancora più grandi
Costruire memorie ancora più grandi Assemblando blocchi di memoria potremmo ottenere memorie ancora più grandi, e così via. Vogliamo ottenere memorie di GBytes! Questo «scala»? Problemi: Numero enorme
DettagliCalcolatori Elettronici
Calcolatori Elettronici Gerarchia di memorie: memorie cache Massimiliano Giacomin 1 Semplice classificazione delle memorie Memorie a sola lettura (ROM, PROM, EPROM, EEPROM-Flash) Memorie volatili (RAM)
DettagliLa Gerarchia di Memoria Barbara Masucci
Architettura degli Elaboratori La Gerarchia di Memoria Barbara Masucci Punto della situazione Ø Abbiamo studiato Ø Il processore MIPS e due diverse implementazioni per un sottoinsieme del suo IS Ø Obiettivo
DettagliStruttura di un elaboratore
Testo di rif.to: [Congiu] -.1,.2 (pg. 80 9) Struttura di un elaboratore 01.b Blocchi funzionali La memoria centrale Suddivisione in blocchi funzionali 1 I blocchi funzionali di un elaboratore Organizzazione
DettagliMEMORIE AD ACCESSO CASUALE
MEMORIE Le memorie sono circuiti in grado di contenere un elevato numero di informazioni binarie in maniera organizzata e fornirle in uscita mediante una operazione detta LETTURA della memoria. A seconda
DettagliUniversità degli Studi di Cassino e del Lazio Meridionale
di Cassino e del Lazio Meridionale Corso di Gerarchia di Anno Accademico Francesco Tortorella 1977: DRAM più veloce del processore ( prof. Patterson) Il Performance Gap processore/memoria Performance 1000
DettagliTempo. Performance. 60%/anno (2X/1.5anni) Gap Processore-Memoria: (+50% / anno) DRAM 9%/anno (2X/10 anni) Il Performance Gap processore/memoria
Il Performance Gap processore/memoria Performance 1000 100 10 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 Tempo µproc CPU 60%/anno (2X/1.5anni) Gap Processore-:
DettagliCorso integrato di Sistemi di Elaborazione. Modulo I. Prof. Crescenzio Gallo.
Corso integrato di Sistemi di Elaborazione Modulo I Prof. Crescenzio Gallo crescenzio.gallo@unifg.it La memoria principale 2 Organizzazione della memoria La memoria principale è organizzata come un insieme
DettagliCriteri di caratterizzazione di una memoria
La memoria Supporto alla CPU: deve fornire alla CPU dati e istruzioni il più rapidamente possibile; Archivio: deve consentire di archiviare dati e programmi garantendone la conservazione e la reperibilità
DettagliLa memoria: tecnologie di memorizzazione
Architettura degli Elaboratori e delle Reti La memoria: tecnologie di memorizzazione Proff. A. Borghese, F. Pedersini Dipartimento di Informatica Uniersità degli Studi di Milano 1 Organizzazione della
DettagliMemorie elettroniche. 1. Parametri delle memorie
62 Fig. 1. Struttura di memoria. Memorie elettroniche Le memorie elettroniche sono dispositivi che immagazzinano informazioni sotto forma di codici binari. I dati memorizzati possono essere scritti (write)
DettagliLe memorie Cache n-associative
Le memorie Cache n-associative Prof. Alberto Borghese Dipartimento di Scienze dell Informazione alberto.borghese@unimi.it Università degli Studi di Milano Riferimento Patterson: 5.2, 5.3 1/30 Sommario
DettagliLE MEMORIE. Prof. CAPEZIO Francesco. Quest'opera è soggetta alla licenza Creative Commons Attribuzione Non Commerciale
LE MEMORIE Prof. CAPEZIO Francesco Quest'opera è soggetta alla licenza Creative Commons Attribuzione Non Commerciale Introduzione Le memorie di un computer possono essere divise tra centrali e secondarie.
DettagliUniversità degli Studi di Cassino
Corso di Gerarchia di Memoria Anno Accademico Francesco Tortorella 1977: DRAM più veloce del processore ( prof. Patterson) Il Performance Gap processore/memoria Performance 1000 100 10 1 1980 1981 1982
DettagliUniversità degli Studi di Cassino
Corso di Gerarchia di Memoria Memorie RAM Anno Accademico 2007/2008 Francesco Tortorella 1977: DRAM più veloce del processore ( prof. Patterson) Apple ][ (1977) CPU: 1000 ns DRAM: 400 ns Steve Jobs Steve
DettagliCALCOLATORI ELETTRONICI. I dispositivi di memoria
CALCOLATORI ELETTRONICI I dispositivi di memoria I dispositivi di memoria Linguaggi ad alto livello/ Applicazioni SW Informatica Sistema operativo Assembler ISA Architettura di un calcolatore Memoria I/O
DettagliLa struttura delle memorie
La struttura delle memorie Prof. Alberto Borghese Dipartimento di Scienze dell Informazione alberto.borghese@unimi.it Università degli Studi di Milano Riferimento Patterson v.5: 2.11 5.2, 5.5, 5.12, B8,
DettagliLa gerarchia di Memoria
La gerarchia di Memoria Gap delle prestazioni DRAM - CPU 1000 CPU 100 10 DRAM 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 Località ed Organizzazione
DettagliIntroduzione alle gerarchie di memoria
Introduzione alle gerarchie di memoria 1 Un ripasso Circuito sequenziale Segnale di clock Circuito sincrono Temporizzazione sensibile ai fronti Latch tipo S-R Latch tipo D Flip-flop tipo D Register file
DettagliUniversità degli Studi di Cassino
Corso di Gerarchia di Memoria Memorie RAM Anno Accademico 2006/2007 Francesco Tortorella 1977: DRAM più veloce del processore ( prof. Patterson) Apple ][ (1977) CPU: 1000 ns DRAM: 400 ns Steve Jobs Steve
DettagliSintesi Calcolatori Elettronici
Sintesi Calcolatori Elettronici Unità di misura Byte 1 2 KiloByte 1024 2 MegaByte 1048576 2 GigaByte 1073741824 2 TeraByte 1099511627776 2 1 Byte = 8 bit Complemento a 1 I numeri positivi vengono rappresentati
DettagliArchitettura degli elaboratori - 2 -
Università degli Studi dell Insubria Dipartimento di Scienze Teoriche e Applicate Architettura degli elaboratori e gerarchie di memoria Marco Tarini Dipartimento di Scienze Teoriche e Applicate marco.tarini@uninsubria.it
Dettagli1.4b: Hardware. (Memoria Centrale)
1.4b: Hardware (Memoria Centrale) Bibliografia Curtin, Foley, Sen, Morin, Informatica di base, Mc Graw Hill Sciuto, Buonanno, Mari, Introduzione ai sistemi informatici, Mc Graw Hill Memoria Centrale Un
DettagliModulo 1: Le I.C.T. UD 1.4d: La Memoria Centrale
Modulo 1: Le I.C.T. : La Memoria Centrale Prof. Alberto Postiglione Corso di Informatica Generale (AA 07-08) Corso di Laurea in Scienze della Comunicazione Università degli Studi di Salerno LA MEMORIA
DettagliLa tecnologia delle memorie
La tecnologia delle memorie Prof. Alberto Borghese Dipartimento di Scienze dell Informazione borghese@dsi.unimi.it Università degli Studi di Milano Riferimento Patterson: B8; B9. 1/38 Sommario Gestione
DettagliArchitettura di un elaboratore
Architettura di un elaboratore Fondamenti di Informatica 1 Modello architetturale di un computer Ogni computer è costituito da un insieme di blocchi funzionali tra loro interconnessi da sistemi di comunicazioni,
DettagliCorso di Fondamenti di Informatica Elementi di Architettura
di Cassino e del Lazio Meridionale Corso di Informatica Elementi di Architettura Anno Accademico 2016/2017 Francesco Tortorella Modello di von Neumann Bus di sistema CPU Memoria Centrale Interfaccia Periferica
DettagliLa Gerarchia di Memorie Valeria Cardellini
La Gerarchia di Memorie Valeria Cardellini Corso di Calcolatori Elettronici A.A. 2018/19 Università degli Studi di Roma Tor Vergata Dipartimento di Ingegneria Civile e Ingegneria Informatica Divario delle
DettagliGli elementi di memoria: i bistabili
Gli elementi di memoria: i bistabili Slide 1 Circuiti sequenziali Nei circuiti sequenziali il valore delle uscite in un determinato istante dipende sia dal valore degli ingressi in quello stesso istante
DettagliArchitettura di un elaboratore
Architettura di un elaboratore Fondamenti di Informatica 1 Modello architetturale di un computer Ogni computer è costituito da un insieme di blocchi funzionali tra loro interconnessi da sistemi di comunicazioni,
DettagliArchitettura di un elaboratore
Architettura di un elaboratore Modello architetturale di un computer Ogni computer è costituito da un insieme di blocchi funzionali tra loro interconnessi da sistemi di comunicazioni, per assolvere al
DettagliArchitettura del calcolatore. Prima parte
Architettura del calcolatore Prima parte Argomenti trattati Architettura di Von Neumann Memoria centrale Bus di sistema Unità di elaborazione (CPU) Interfacce di Ingresso/ uscita Modello di Von Neumann
DettagliCalcolatori Elettronici B a.a. 2004/2005
Calcolatori Elettronici B a.a. 2004/2005 RETI LOGICHE: RICHIAMI Massimiliano Giacomin 1 Unità funzionali Unità funzionali: Elementi di tipo combinatorio: - valori di uscita dipendono solo da valori in
DettagliLa Memoria Cache. Informatica B. Daniele Loiacono
La Memoria Cache Informatica B Il problema della memoria q Obiettivo: fornire agli utenti una memoria grande e veloce fornire al processore i dati alla velocità con cui è in grado di elaborarli q Problema:
DettagliLa struttura delle memorie
La struttura delle memorie Prof. Alberto Borghese Dipartimento di Informatica alberto.borghese@unimi.it Università degli Studi di Milano Riferimento Patterson v.5: 2.11 5.2, 5.5, 5.12, B8, B9. 1/33 Sommario
DettagliFONDAMENTI DIINFORMATICA LA MEMORIA
FONDAMENTI DIINFORMATICA Lezione n. 13 MEMORIE VLSI, MEMORIE MAGNETICHE EVOLUZIONE, COSTI, CAPACITÀ, PRESTAZIONI PRINCIPIO DI LOCALITÀ CONCETTI DI BASE E TECNOLOGIA DELLE MEMORIE DEFINIZIONE DI HIT RATIO
DettagliCircuiti di Indirizzamento della Memoria
Circuiti di Indirizzamento della Memoria Maurizio Palesi Maurizio Palesi 1 Memoria RAM RAM: Random Access Memory Tempi di accesso indipendenti dalla posizione Statica o Dinamica Valutata in termini di
DettagliLa gerarchia di Memoria
La gerarchia di Memoria Gap delle prestazioni DRAM - CPU 1000 CPU 100 10 DRAM 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 1 Località ed Organizzazione
DettagliIl Sottosistema di Memoria
Il Sottosistema di Memoria Maurizio Palesi Maurizio Palesi 1 Memoria RAM RAM: Random Access Memory Tempi di accesso indipendenti dalla posizione Statica o Dinamica Valutata in termini di Dimensione (di
DettagliUniversità degli Studi di Cassino e del Lazio Meridionale Corso di Calcolatori Elettronici Elementi di memoria e Registri
di assino e del Lazio Meridionale orso di alcolatori Elettronici Elementi di memoria e Registri Anno Accademico Francesco Tortorella Elementi di memoria Nella realizzazione di un sistema digitale è necessario
DettagliLa gerarchia di Memoria
La gerarchia di Memoria Calcolatori Elettronici 1 Gap delle prestazioni DRAM - CPU 1000 CPU 100 10 DRAM 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998
DettagliMemorie. Definizione di memoria
Corso di Calcolatori Elettronici I A.A. 2010-2011 Memorie Lezione 24 Prof. Roberto Canonico Università degli Studi di Napoli Federico II Facoltà di Ingegneria Corso di Laurea in Ingegneria Informatica
DettagliArchitettura degli elaboratori - 2 -
Università degli Studi dell Insubria Dipartimento di Scienze Teoriche e Applicate Architettura degli elaboratori e gerarchie di memoria Marco Tarini Dipartimento di Scienze Teoriche e Applicate marco.tarini@uninsubria.it
DettagliIntroduzione alle memorie cache. Sommario
Introduzione alle memorie cache Corso ACSO prof. Cristina SILVANO Politecnico di Milano Cristina Silvano, 0/0/200 Sommario Obiettivo Livelli della gerarchia di memoria Memoria cache: concetti base Architettura
DettagliI bistabili ed il register file
I bistabili ed il register file Prof. Alberto Borghese ipartimento di Scienze dell Informazione borghese@dsi.unimi.it Università degli Studi di Milano 1/32 Sommario I problemi dei latch trasparenti sincroni
DettagliEsame di INFORMATICA ARCHITETTURA DI VON NEUMANN. Lezione 4 ARCHITETTURA DI VON NEUMANN
Università degli Studi di L Aquila Facoltà di Biotecnologie Esame di INFORMATICA A.A. 2008/09 Lezione 4 ARCHITETTURA DI VON NEUMANN Anni 40 i dati e i programmi che descrivono come elaborare i dati possono
DettagliARCHITETTURA DI UN ELABORATORE! Ispirata al modello della Macchina di Von Neumann (Princeton, Institute for Advanced Study, anni 40).!
ARCHITETTURA DI UN ELABORATORE! Ispirata al modello della Macchina di Von Neumann (Princeton, Institute for Advanced Study, anni 40).! MACCHINA DI VON NEUMANN! UNITÀ FUNZIONALI fondamentali! Processore
DettagliLa gerarchia di Memoria. Calcolatori Elettronici
La gerarchia di Memoria 1 Gap delle prestazioni DRAM - CPU 1000 CPU 100 10 D R A M 1 1980 1981 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2 Località
DettagliLa gerarchia di memorie (1)
La gerarchia di memorie (1) Calcolatori Elettronici Valeria Cardellini Rielaborate da Salvatore Tucci Obiettivo Illusione di avere a disposizione una memoria che sia: grande veloce (ritardo della memoria
DettagliFONDAMENTI DIINFORMATICA
FONDAMENTI DIINFORMATICA Lezione n. 13 MEMORIE VLSI, MEMORIE MAGNETICHE EVOLUZIONE, COSTI, CAPACITÀ, PRESTAZIONI PRINCIPIO DI LOCALITÀ CONCETTI DI BASE E TECNOLOGIA DELLE MEMORIE DEFINIZIONE DI HIT RATIO
DettagliArchitettura hardware
Architettura hardware la parte che si può prendere a calci Architettura dell elaboratore Sistema composto da un numero elevato di componenti, in cui ogni componente svolge una sua funzione elaborazione
DettagliLa struttura delle memorie
La struttura delle memorie Prof. Alberto Borghese Dipartimento di Scienze dell Informazione alberto.borghese@unimi.it Università degli Studi di Milano Riferimento Patterson: 2.11-5.2, 5.4, 5.5, 5.7, 5.8,
DettagliFondamenti di Informatica Architettura del Calcolatore Alessandra Volpato
Fondamenti di Informatica Architettura del Calcolatore Alessandra Volpato E-mail: ale.volpato@ieee.org Sistema Informativo: Insieme di componenti in relazione tra loro che raccoglie, estrae, elabora, memorizza
DettagliParte III. Logica Digitale e Memorie
Parte III Logica Digitale e Memorie III.1 Circuiti digitali INGRESSI i 1 i n CIRCUITO DIGITALE o 1 o m USCITE Circuiti elettronici i cui ingressi e le cui uscite assumono solo due livelli Al circuito sono
DettagliUniversità degli Studi di Cassino e del Lazio Meridionale
Università degli Studi di Cassino e del Lazio Meridionale di Calcolatori Elettronici Gerarchia di Anno Accademico 2012/2013 Alessandra Scotto di Freca Si ringrazia il prof.francesco Tortorella per il materiale
DettagliMultiplexer. Multiplexer 2 a 1 (a 1 bit) e sua implementazione. Multiplexer 2 a 1 (a 32 bit) e sua implementazione
Decoder Circuito combinatorio con n input e 2 n output Traduce gli n bit di input nell equivalente valore binario, e abilita a 1 l uscita corrispondente, mentre le altre uscite sono disabilitate a 0 Esiste
DettagliLe Memorie. Classe III Telecomunicazioni Sistemi e Reti. Prof. Tullio Parcesepe
Le Memorie Classe III Telecomunicazioni Sistemi e Reti Prof. Tullio Parcesepe In questa lezione impareremo: La memorizzazione delle informazioni Tipi differenti di memorie Gli indirizzi delle celle di
Dettagli