Il Sistema Operativo DOTT. ING. LEONARDO RIGUTINI DIPARTIMENTO INGEGNERIA DELL INFORMAZIONE UNIVERSITÀ DI SIENA VIA ROMA 56 53100 SIENA UFF. 0577234850-7102 RIGUTINI@DII.UNISI.IT HTTP://WWW.DII.UNISI.IT/~RIGUTINI/
Introduzione
Introduzione Il software può essere diviso in due grandi classi: - i programmi di sistema, che gestiscono le funzionalità del sistema di calcolo - i programmi applicativi, che risolvono i problemi degli utenti L insieme dei programmi di sistema viene comunemente identificato con il nome di Sistema Operativo (SO)
Introduzione Definizione: Un sistema operativo è un programma che controlla l esecuzione dei programmi applicativi ed agisce come interfaccia fra le applicazioni e l hardware del calcolatore
Scopo del sistema operativo Gestione EFFICIENTE delle risorse del sistema di elaborazione Creazione di un interfaccia FRIENDLY tra l uomo e la macchina
Il SO come macchina estesa Visione a strati delle componenti hardware/software che compongo un elaboratore
Il SO come macchina estesa Il SO può essere inteso come uno strumento che virtualizza le caratteristiche dell hardware, offrendo all utente la visione di una macchina astratta più potente e più semplice da utilizzare di quella fisicamente disponibile In questa visione, un SO nasconde a programmatori/utenti i dettagli dell hardware e fornisce un interfaccia conveniente e facile da usare agisce come intermediario tra programmatore/utente e hardware Parole chiave Indipendenza dall hardware Comodità d uso Programmabilità
Funzioni del Sistema Operativo
Il sistema operativo Il sistema operativo è uno strato software che opera direttamente sull hardware......isola gli utenti dall architettura sottostante e fornisce un insieme di funzionalità di alto livello...permette lo svolgimento di operazioni quali la copia di un file o l esecuzione di un programma; opera le azioni necessarie a caricare i programmi in memoria centrale, eseguirli, leggere e/o scrivere dati da/su memoria di massa e periferiche Il SO rende totalmente disponibile all utente l hardware del calcolatore
Il sistema operativo Il SO può essere... -...mono utente (tipicamente nei PC), se l intero sistema hw/sw è dedicato ad un singolo utente -...multi utente, quando diversi utenti condividono lo stesso sistema hw/sw; il SO nasconde a ciascun utente la presenza degli altri, dando l impressione che il sistema (unità di elaborazione, memoria, periferiche, etc.) gli sia interamente dedicato
Il sistema operativo Il SO è un insieme di programmi molto complesso ed articolato, soprattutto in contesto multi utente Per facilitarne il progetto, ed isolarne le varie componenti, il SO è organizzato per strati funzionali, con una struttura cosiddetta a cipolla
Il sistema operativo Ciascuno strato funzionale realizza una macchina virtuale, che maschera le caratteristiche della macchina hardware e offre all utente un insieme di funzionalità Applications Systems software software Hardware
Il sistema operativo Struttura modulare: ciascun modulo esporta funzionalità verso l esterno e mantiene al suo interno i propri meccanismi implementativi Ogni macchina virtuale sembra più potente della corrispondente macchina fisica, perché offre ai suoi utenti l illusione di una macchina dedicata -...tuttavia, la macchina fisica è effettivamente condivisa fra gli utenti
Funzioni del sistema operativo Programmi utente Architettura a cipolla del sistema operativo; ciascuno strato corrisponde ad una macchina virtuale Interprete dei comandi Attivazione programmi utente o di sistema File system Controllo e gestione degli accessi a file Gestione delle periferiche Gestione di ingresso/uscita da periferica Gestione della memoria Allocazione e gestione della memoria Gestione dei processi Gestione dei processi e degli interrupt Macchina fisica
Gestore dei processi È responsabile dell esecuzione dei programmi da parte dell unità di elaborazione In caso di SO multi utente, deve garantire l esecuzione concorrente di processi multipli, decidendo a quale di essi assegnare l accesso e l uso dell unità di elaborazione
Gestore dei processi Gestisce gli interrupt provenienti dalle periferiche Lo strato del gestore dei processi offre agli strati superiori una macchina virtuale in cui ciascun programma opera come se avesse a disposizione un unità di elaborazione dedicata
Gestore della memoria Alloca la memoria e la ripartisce fra i vari programmi che la richiedono Nei SO multi utente, è opportuno che molti programmi siano contemporaneamente presenti in memoria centrale, per ottenere un esecuzione simultanea Lo strato del gestore di memoria offre agli strati superiori una macchina virtuale in cui ciascun programma opera come se avesse a disposizione una memoria dedicata
Driver di dispositivo Sono responsabili delle operazioni di ingresso/uscita che coinvolgono le periferiche Ciascun driver è un modulo software dedicato a guidare una periferica specifica: ne conosce (e ne occulta) le caratteristiche hardware Lo strato del gestore delle periferiche offre all utente una versione astratta delle periferiche hardware; l utente ha a disposizione un insieme di procedure standard di alto livello per leggere/scrivere da/su periferiche, che percepisce come dedicate
File System È responsabile della gestione dei file in memoria di massa; struttura i dati in file e li organizza in directory (cartelle nel linguaggio di MS Windows) Fornisce all utente un insieme di funzioni di alto livello per operare su file e directory, mascherando le operazioni realmente effettuate per allocare la memoria e per accedervi in lettura/scrittura Tramite il file system, ciascun utente può organizzarsi la propria area di memoria e garantirne la protezione da accessi esterni Consente la condivisione dei file
Interprete dei comandi Consente all utente di attivare i programmi - Accede al programma, residente su memoria di massa, tramite il file system - Alloca memoria e vi carica il programma (tramite il gestore della memoria) - Attiva il processo (sfruttando le funzionalità del nucleo) Sfrutta l organizzazione a strati del SO e può richiedere l esecuzione di qualsiasi funzione implementata negli strati sottostanti
Ancora sul sistema operativo... I primi tre strati del SO, dedicati alla gestione dei processi, della memoria e delle periferiche, ne costituiscono il nucleo, o kernel L obiettivo del SO consiste nell ottimizzare le prestazioni del sistema informatico, determinando le politiche migliori di gestione delle risorse sotto il suo controllo
Ancora sul sistema operativo... Nei sistemi multi utente, ciascun utente risente della presenza degli altri in misura crescente con il carico complessivo del sistema, ovvero, al crescere del numero delle richieste di elaborazione, il sistema può diventare sovraccarico e fornire prestazioni percepibilmente scadenti
La gestione dei processi
La gestione dei processi Processo un programma in esecuzione Il processo è un oggetto dinamico, che evolve nel tempo, in contrapposizione al programma, un oggetto statico ed invariante nel tempo L unità di elaborazione che esegue i processi prende il nome di processore
La gestione dei processi La corrispondenza tra programma e processo non è necessariamente biunivoca: uno stesso programma eseguibile può essere associato a più processi, ciascuno dei quali svolge uno dei compiti richiesti dal programma
La gestione dei processi Il gestore dei processi è il modulo che si occupa del controllo, della sincronizzazione, dell interruzione e della riattivazione dei programmi in esecuzione La gestione dei processi viene compiuta secondo modalità diverse, in funzione del tipo di utilizzo cui il sistema è rivolto
La gestione dei processi La corrispondenza tra programma e processo non è necessariamente biunivoca: uno stesso programma eseguibile può essere associato a più processi, ciascuno dei quali svolge uno dei compiti richiesti dal programma
Stato dei processi Mentre viene eseguito, un processo cambia stato: - New: Il processo viene creato - Running: Il processo viene eseguito - Waiting: Il processo è in attesa di un evento - Ready: Il processo è in attesa di essere assegnato al processore - Terminated: Il processo ha terminato la propria esecuzione
Stato dei processi
Stato dei processi Nell ipotesi di un unico processore, uno solo dei processi può essere in esecuzione ad un certo istante, cioè in stato di running Gli altri processi sono pronti (ready) o in attesa (waiting) - I processi pronti possono venir eseguiti immediatamente: sarà lo scheduler della CPU, in base alla sua politica di gestione dei processi, a decidere quale dei processi pronti sarà il prossimo ad accedere alla CPU - I processi in attesa attendono, invece, il verificarsi di un evento esterno (per esempio l immissione di dati tramite un dispositivo di I/O) per passare in stato di pronto
Interruzioni interne Nel corso della sua evoluzione, il processo in esecuzione può richiedere lo svolgimento di un operazione di ingresso/uscita che coinvolge una periferica - L esecuzione del processo si interrompe ed il kernel del SO diviene attivo (si esegue un processo di sistema) La sospensione del processo in esecuzione si dice interruzione interna: il processo passa dallo stato ready allo stato waiting L esigenza di sospendere il processo all atto di una richiesta di un servizio di I/O risponde ad una logica di buona amministrazione delle risorse
Interruzioni interne Infatti, vi è una notevole differenza fra i tempi di esecuzione delle istruzioni in memoria centrale (dell ordine delle decine di nanosecondi) ed i tempi di esecuzione delle istruzioni di I/O (qualche millisecondo per accesso alla memoria di massa, qualche secondo per comandi da terminale) La sospensione deve avvenire in modo tale che il processo possa riprendere la propria attività, dopo l interruzione, esattamente dallo stesso punto e con gli stessi dati - Occorre salvare il contesto, cioè copiare il contenuto dei registri del processore in una zona particolare di memoria, il descrittore del processo - Prima di riprendere l esecuzione del processo interrotto, occorre eseguire l operazione inversa, cioè ricopiare il contenuto del descrittore nei registri del processore, per ripristinare il contesto
Interruzioni interne Dopo il salvataggio del contesto del processo interrotto, lo scheduler della CPU seleziona uno dei processi pronti e gli alloca il processore - Molti processi possono essere nello stato di pronto allo stesso tempo - Il contesto del processo selezionato, in base alla politica di scheduling, viene ripristinato, e la sua esecuzione può proseguire dall istruzione successiva a quella che ne aveva provocato l interruzione (quella puntata dal registro program counter ) L operazione complessiva di interruzione di un processo, salvataggio del contesto, scelta di un nuovo processo dalla ready queue (coda dei processi pronti), e ripristino del suo contesto, prende il nome di cambiamento di contesto o context switch
Interruzioni esterne Le interruzioni esterne sono eventi asincroni, cioè non regolati dal clock del processore: le operazioni dell elaboratore si coordinano con il mondo esterno attraverso le periferiche Quando si verifica un interruzione esterna, il kernel... -...salva il contesto del processo attivo, che passa dallo stato di esecuzione allo stato di pronto -...richiama un proprio modulo, il gestore delle interruzioni, che esegue le operazioni necessarie per far fronte alla particolare interruzione
Interruzioni esterne Esempio: Se l interruzione segnala la presenza di dati in ingresso da tastiera, a fronte di un operazione di lettura richiesta dal processo P1, il gestore delle interruzioni... -...trasferisce i dati dal registro della periferica in memoria centrale -...provvede a modificare lo stato del processo P1, da waiting a ready - Inoltre, al termine della gestione dell interruzione, lo scheduler seleziona uno dei processi pronti (non necessariamente quello sospeso dall interruzione appena servita) e lo manda in esecuzione
Il ciclo di vita dei processi Ogni nuovo processo entra nel sistema accedendo alla ready queue (new ready), e va in esecuzione (ready running) quando viene selezionato dallo scheduler Un processo attivo può essere arrestato per un interrupt esterno (running ready) Un processo può anche essere sospeso preempted dal nucleo (running ready), dopo un dato intervallo temporale, per garantire a tutti i processi un uso paritario della CPU: lo scheduler sceglie quale fra i processi pronti mandare in esecuzione
Il ciclo di vita dei processi Anche un interruzione interna può causare l arresto di un processo (running waiting) Viceversa, il verificarsi dell evento atteso da un processo fa sì che esso passi dallo stato di attesa allo stato di pronto (waiting ready)
Il ciclo di vita dei processi Infine, un processo in esecuzione può terminare regolarmente, o essere interrotto e terminato forzatamente dal nucleo (aborted ) per il verificarsi di un errore Ugualmente, lo scheduler seleziona un nuovo processo dalla ready queue
Scheduling della CPU Oltre ad arrestarsi a causa delle interruzioni, il processo attivo può venire arrestato d autorità dallo scheduler, che ha come obiettivo quello di far eseguire ciascun processo utente entro un tempo approssimativamente proporzionale alla sua complessità, effettuando una ripartizione equa della risorsa CPU Criteri di scheduling: Utilizzo di CPU la CPU deve essere più attiva possibile max{ Throughput numero di processi completati nell unità di tempo { Tempo di turnaround tempo di esecuzione di un processo Tempo di attesa tempo di attesa del processo nella ready min queue Tempo di risposta tempo che intercorre tra la sottomissione di una richiesta e la prima risposta prodotta
Scheduling della CPU Le politiche di scheduling sono raggruppabili in due grandi categorie: - Preemptive: l uso della CPU da parte di un processo può essere interrotto in un qualsiasi momento, e la risorsa concessa ad altro processo - Non preemptive: una volta che un processo ha ottenuto l uso della CPU, è unico proprietario della risorsa finché non ne decide il rilascio
Scheduling della CPU Round robin : la politica di scheduling più semplice, che consiste nel garantire la rotazione nell esecuzione dei processi - Lo scheduler assegna la CPU ad un processo per un quanto di tempo - Quando il quanto di tempo termina, il processo in esecuzione viene interrotto e ritorna nella ready queue Per realizzare l alternanza fra processi, lo scheduler gestisce la ready queue in modo tale da assegnare il processore al primo processo in coda che, quando esaurisce il suo quanto, viene posto alla fine della coda Alla fine della coda si inseriscono anche i processi che passano dallo stato di attesa allo stato di pronto
Scheduling della CPU Esempio: Scheduling Round robin, con quanto di tempo 20 Processo Tempo di CPU P 1 53 P 2 17 P 3 68 P 4 24 P 1 P 2 P 3 P 4 P 1 P 3 P 4 P 1 P 3 P 3 0 20 37 57 77 97 117 121 134 154 162 P 2 P 4 P 1 P 3
Scheduling della CPU Il quanto di tempo assegnato a ciascun processo... -...deve essere molto maggiore del tempo di context switch -...deve essere significativamente inferiore al tempo medio di esecuzione dei programmi, altrimenti l effetto della politica di rotazione si annulla
Scheduling della CPU Utilizzando la politica Round robin, il tempo di esecuzione di ciascun programma diviene approssimativamente proporzionale alla complessità in tempo del programma stesso ed al numero di operazioni di ingresso/uscita Inoltre, frazionare l esecuzione dei processi ha l effetto di favorire il completamento rapido dei più brevi, con conseguente massimizzazione del numero di processi terminati nell unità di tempo: aumento del throughput del sistema
Scheduling della CPU Possono essere utilizzate politiche di scheduling più complesse: per esempio, se i processi hanno differenti priorità, è possibile associare a ciascun livello di priorità una diversa coda di processi pronti, per prelevare il primo processo dalla coda (non vuota) a priorità più alta
Scheduling della CPU Esempio: In un sistema che comporta problemi di sicurezza, alcuni eventi (come la segnalazione di guasti ai motori di un aereo) sono molto più importanti di altri (come la segnalazione di difetti al sistema di intrattenimento) Nella maggior parte delle applicazioni di elaborazione dati viene attribuita una priorità bassa ai cosiddetti processi batch, che non necessitano interazione con l utente Problema: Starvation (blocco indefinito), i processi a bassa priorità potrebbero non venir mai eseguiti Soluzione: Aging (invecchiamento), aumento graduale della priorità dei processi che si trovano in attesa nel sistema da lungo tempo
Sincronizzazione dei processi I processi devono sincronizzarsi, devono cioè coordinare le loro attività La modalità più semplice di coordinamento consiste nell esecuzione sequenziale : un processo termina invocando l attivazione di un nuovo processo C B A T Tempo di utilizzo della Tempo CPU di attesa di eventi esterni t
Sincronizzazione dei processi Tecniche di sincronizzazione più complesse nascono dall esigenza dei processi di competere per alcune risorse, o di cooperare fra loro Esempio: Un processo che richiede un servizio di I/O può essere interrotto e la CPU passata a un altro programma C B Tempo di utilizzo della CPU Tempo di attesa di eventi esterni A t Tmulti-tasking Tmono-tasking
Sincronizzazione dei processi Un esempio di competizione si verifica quando due processi vogliono accedere simultaneamente ad una risorsa, detta risorsa critica, sulla quale può operare un solo processo alla volta; nel caso di richieste contemporanee, uno solo dei processi richiedenti accede alla risorsa critica, mentre l altro deve attendere il rilascio della risorsa per potervi accedere a sua volta Un esempio di coordinazione si ha quando due processi sono tali per cui ciascuno di essi ha bisogno dell altro per poter evolvere; nel classico problema del produttore/consumatore, il primo processo produce dati (per esempio, acquisendoli da una periferica) mentre il secondo li utilizza (per esempio, svolgendo su di essi delle elaborazioni)
Sincronizzazione dei processi La sincronizzazione dei processi, necessaria sia nel caso di competizione sia nel caso di cooperazione, avviene tramite due meccanismi fondamentali... -...l uso di variabili condivise (dette semafori), per l accesso a parti critiche di codice -...e la comunicazione esplicita fra processi (mediante scambio di messaggi) Esempio: - L accesso concorrente a dati condivisi può causare incoerenza nei dati - Per garantire la coerenza dei dati occorrono meccanismi che assicurano l esecuzione ordinata dei processi cooperanti
Sincronizzazione dei processi Problema della sezione critica: - n processi competono per utilizzare dati condivisi; ciascun processo è costituito da un segmento di codice, detto sezione critica, in cui accede ai dati e li modifica - Ipotesi: Assicurarsi che, quando un processo esegue la sua sezione critica, a nessun altro processo sia concesso eseguire la propria L esecuzione di sezioni critiche da parte di processi cooperanti è mutuamente esclusiva nel tempo
Sincronizzazione dei processi - Soluzione: progettare un protocollo di cooperazione fra processi Ogni processo deve chiedere il permesso di accesso alla sezione critica, tramite una entry section (il semaforo diviene rosso ad opera del processo che trova il verde e si accinge ad accedere ai dati) La sezione critica è seguita da una exit section (il semaforo rosso diviene verde ad opera del processo che ha terminato di utilizzare i dati condivisi); il rimanente codice è non critico
La gestione della memoria
Gestione della memoria centrale La memoria centrale - è un array di byte indirizzabili singolarmente - è un deposito di dati facilmente accessibile e condiviso tra la CPU ed i dispositivi di I/O Il SO è responsabile delle seguenti attività riguardanti la gestione della memoria principale: - Tenere traccia di quali parti della memoria sono usate e da chi - Decidere quali processi caricare quando diventa disponibile spazio in memoria - Allocare e deallocare lo spazio di memoria quando necessario
Gestione della memoria centrale Premessa indispensabile per la gestione concorrente di molti processi è infatti la presenza di molti programmi in memoria centrale - La memoria centrale assume un ruolo simile all unità di elaborazione: è una risorsa unica, talvolta scarsa, da suddividere fra i vari processi Per allocare i programmi in memoria centrale è necessario rilocarli: - Rilocare significa trasformare gli indirizzi logici, presenti nei programmi, in indirizzi fisici, corrispondenti alle locazioni di memoria dove il codice eseguibile viene effettivamente caricato - D altra parte, l uso di indirizzi logici nei programmi è essenziale per consentirne il caricamento in differenti porzioni di memoria Problema: come allocare lo spazio in maniera ottimale
1 soluzione: Allocazione lineare 0000x Memoria Programma A Programma B Programma C
1 soluzione: Allocazione lineare 0000x Memoria Programma A Programma D Programma E Programma C
1 soluzione: Allocazione lineare 0000x Memoria Programma A Programma D Programma F Programma E Programma C
Gestione della memoria centrale Un importante meccanismo di suddivisione della memoria centrale, e delle entità in essa memorizzate, è quello della paginazione: La memoria centrale è considerata dal gestore della memoria come partizionata in pagine, ciascuna delle quali è un aria di memoria contigua, di dimensione fissata Anche i programmi vengono partizionati in pagine ed allocati in un numero intero di pagine, non necessariamente contigue
Gestione della memoria centrale
Soluzione: Paginazione 0000x Memoria Programma A Programma A Programma A Programma B Programma B Programma D
Soluzione: Paginazione 0000x Memoria Programma A Programma A Programma A Programma E Programma F Programma D Programma F
Gestione della memoria centrale Un altro meccanismo ampiamente utilizzato per il partizionamento della memoria è detto segmentazione: Un programma può essere logicamente frazionato in parti che svolgono funzioni distinte Il gestore della memoria può utilizzare il partizionamento logico del programma per caricare segmenti diversi in maniera indipendente Nota: Mentre le pagine hanno lunghezza fissa, i segmenti, essendo semanticamente significativi, hanno lunghezza variabile
Gestione della memoria centrale 3 1 2 4 1 4 2 3 Spazio utente Spazio fisico di memoria
Gestione della memoria centrale Segmentazione e paginazione non sono mutuamente esclusive: in molti SO vengono applicate contemporaneamente In entrambi i casi, il gestore della memoria offre al programma applicativo la visione di una memoria virtuale, che può essere maggiore di quella fisica Si possono gestire programmi caricandone effettivamente in memoria solo le pagine (o i segmenti) relative al codice attualmente in esecuzione Le pagine (o i segmenti) che non sono al momento caricate in memoria rimangono disponibili sulla memoria di massa, all interno di opportuni file
La memoria virtuale Memoria 0000x Programma A-1 Programma B-1 Programma D Swap Programma A-2 Programma A-3 Programma B-2
La memoria virtuale Memoria 0000x Programma A-2 Programma B-1 Programma D Swap Programma A-1 Programma A-3 Programma B-2
Gestione della memoria centrale Un sistema informatico può avere una memoria virtuale di v gigabyte ed una memoria fisica di p gigabyte, con v > p La memoria virtuale garantisce la condivisione efficiente della memoria centrale fra più processi, e consente l esecuzione di quei programmi la cui dimensione s è maggiore della dimensione p della memoria fisica Naturalmente, la dimensione s del programma non può essere superiore a quella della memoria virtuale realizzata dal gestore
Gestione della memoria centrale La gestione di memoria e processi deve essere coordinata: quando un processo viene eseguito, il codice relativo al corrispondente programma deve essere almeno parzialmente residente in memoria Più precisamente: le pagine (o i segmenti) attualmente in esecuzione o che contengono i dati attualmente indirizzati/elaborati devono risiedere in memoria centrale Se una pagina o un segmento necessario al processo non è presente in memoria centrale, il processo deve essere sospeso per consentire il caricamento, da parte del gestore della memoria, della pagina o del segmento di codice Il processo corrispondente passa da running a waiting; entrerà nuovamente nella ready queue quando saranno completate le operazioni necessarie a portare la pagina o il segmento in memoria
Memoria di modo S ed U Ai programmi che realizzano le funzioni proprie del SO, ed alle strutture dati da esso usate, devono essere assegnate opportune zone di memoria Inoltre, i processi di sistema possono usare l intero set di istruzioni del calcolatore (talune non disponibili per i programmi utente), possono venire allocati in memoria in maniera ottimale, e devono essere protetti da errori causati da altri programmi La memoria viene suddivisa in memoria di modo S (supervisore) e memoria di modo U (utente) Nella porzione di modo S vengono caricati i processi del SO e vengono create le strutture dati da esso utilizzate Nella porzione di modo U vengono caricati i processi utente
Memoria di modo S ed U Se il processore sta eseguendo un processo utente, lo si dice attivo in modo utente (modo U), U se esegue un processo di sistema, cioè se è attivo il nucleo, lo si dice attivo in modo supervisore (modo S) S Quando il processore è attivo in modo S può accedere a tutta la memoria (di modo U e di modo S) ed ha a disposizione un insieme più ricco di istruzioni Il processore attivo in modo U può accedere solo alle zone di memoria di modo U, ed in particolare a quelle riservate al solo processo in esecuzione La suddivione della memoria protegge il codice e le strutture dati che il SO usa per garantire una gestione delle risorse corretta ed efficiente Le istruzioni di codice utente non possono accedere a zone di memoria di modo S se non richiedendo l intervento del SO
La gestione delle periferiche
La gestione dei dispositivi di I/O La gestione dell I/O richiede: - Un interfaccia comune per la gestione dei device driver - Un insieme di driver per dispositivi hardware specifici - Un sistema di gestione di buffer per il caching delle informazioni Il gestore dei dispositivi di I/O è il modulo del SO incaricato di assegnare i dispositivi ai task che ne fanno richiesta e di controllare i dispositivi stessi Da esso dipende la qualità e il tipo di periferiche riconosciute dal sistema
Driver di dispositivo I driver sono moduli software cui è affidato il compito di comunicare dati da e verso le periferiche Permettono l accesso alle periferiche tramite primitive di alto livello I device driver implementano le seguenti funzioni: Rendono trasparenti le caratteristiche fisiche tipiche di ogni dispositivo Gestiscono la comunicazione dei segnali verso i dispositivi Gestiscono i conflitti, nel caso in cui due o più task vogliano accedere contemporaneamente allo stesso dispositivo I driver vengono scritti specificamente per ciascun dispositivo e sono normalmente forniti dal costruttore
Il file system
Il file system File: - Spazio di indirizzi logici contigui; è un insieme di informazioni correlate e registrate nella memoria secondaria, a cui è stato assegnato un nome
Il file system Dal punto di vista dell utente... -...è la più piccola porzione di memoria secondaria indirizzabile logicamente e... -...i dati possono essere scritti nella memoria secondaria soltanto all interno di un file Dal punto di vista del SO... -...i file vengono mappati su dispositivi fisici di memorizzazione non volatili
Il file system Attributi del file: - Nome: identificativo del file - Locazione: puntatore al dispositivo ed alla posizione del file sul dispositivo - Dimensione: dimensione attuale del file - Protezione: parametri di controllo per l accesso in lettura, scrittura ed esecuzione del file - Ora, data, identificativo dell utente: dati necessari a protezione e sicurezza del sistema, e per il controllo d uso
Il file system Il file system è responsabile della gestione dei file in memoria di massa - struttura i dati in file... -...li organizza in directory (o cartelle) - realizza inoltre un insieme di funzioni di alto livello per operare su file e directory Il file system garantisce una gestione dei file indipendente dalle caratteristiche fisiche dei dispositivi che costituiscono la memoria di massa: astrazione utile sia per l utente sia per i programmi
La gestione dei file Le infomazioni sui file sono conservate nella struttura di directory, che risiede sulla memoria secondaria Le directory hanno (nel caso più semplice) organizzazione ad albero; ciascuna directory può contenere file e sottodirectory Directory File Albero delle directory
La gestione dei file Ciascun file viene identificato da un pathname che include l intero cammino, dalla radice dell albero al file stesso Tutti i file e sottodirectory presenti nella stessa directory devono avere nomi distinti ciascun pathname è unico Il file system di WINDOWS
La gestione dei file Un utente che interagisce con il file system ha un proprio contesto, cioè una specifica posizione nel file system, corrispondente ad un nodo nell albero Per default, all atto del collegamento al sistema, il contesto dell utente è costituito dalla sua home directory Il contesto può essere variato, muovendosi ovunque nell albero delle directory (almeno in quelle accessibili all utente)
La gestione dei file Funzioni disponibili agli utenti del file system: - Creazione di file (operazione normalmente eseguita da software applicativo, come editor e word processor) e directory - Comandi per stabilire i parametri di protezione - Lista del contenuto di una directory - Comandi per cambiare il contesto - Copia, ridenominazione e visualizzazione di file - Cancellazione di file e rimozione di directory