giovedì 18 dicembre 2008

grandezze fisiche -Erik Tondi

LA MISURA DELLE GRANDEZZE FISICHE

La rivoluzione nel metodo di studio dei fenomeni naturali fu attuata, agli inizi del diciassettesimo secolo, da Galileo Galilei. Prima di lui, sulla scia degli insegnamenti aristotelici, la scienza era considerata una disciplina sostanzialmente descrittiva e consisteva, in pratica, nell'osservazione dei fenomeni naturali e nella ricerca di un'interpretazione plausibile degli stessi: con lo scienziato toscano invece essa progredì enormemente perché, alle osservazioni di carattere qualitativo si aggiunsero quelle di natura quantitativa, che esigevano la misurazione degli oggetti di studio.
La misurazione, nell'ambito della ricerca scientifica, rappresentò un fatto di enorme importanza soprattutto per le garanzie di obiettività che essa forniva, tanto che nel secolo scorso il fisico e matematico irlandese William Thomson, più noto con il nome di lord Kelvin, così descriveva l'oscuro lavoro del ricercatore scientifico: "Io affermo che quando voi potete misurare ed esprimere in numeri ciò di cui state parlando, solo allora sapete effettivamente qualcosa relativamente all'oggetto della vostra indagine."
La ricerca scientifica pone quindi dei limiti alla sua stessa attività in quanto stabilisce che ci si occupi esclusivamente di ciò che è possibile misurare; le entità di cui non è possibile cogliere la misura (come, ad esempio, l'anima, la giustizia o gli UFO) esulano dal campo dell'indagine scientifica. Vediamo quindi in che cosa consista esattamente la misura di un oggetto e come si operi per realizzarla.
Iniziamo col dire che le proprietà della materia che possono essere determinate quantitativamente si chiamano grandezze (o parametri) e possono essere fisiche o chimiche. Esse sono dette anche variabili, perché appunto possono assumere valori diversi. La massa, il volume e la temperatura di un corpo, sono esempi di grandezze fisiche, mentre il grado di acidità (pH) di una soluzione o il numero di ossidazione di un elemento sono esempi di grandezze chimiche.
Ora, misurare una grandezza, relativa all'oggetto di studio, significa confrontare quella grandezza con un'altra di riferimento, ad essa omogenea, detta unità di misura. Come risultato dell'operazione si ottiene un numero. Questo numero, considerato singolarmente, non ha alcun significato concreto ma, se è seguito dall'unità di misura, rappresenta l'entità della grandezza considerata. Per fare un esempio, dire che una persona pesa 80 non significa nulla, ma dire che pesa 80 kg significa che pesa 80 volte di più della quantità che è stata presa per convenzione uguale a 1 kg, cioè l'unità di peso.
Attualmente quasi tutti gli Stati del mondo riconoscono e usano il Sistema Internazionale di Unità, abbreviato in SI (iniziali di Système International). Il vantaggio di avere un sistema di misura internazionale è quello di dare la possibilità a scienziati e tecnici di tutto il mondo di comunicare con facilità i risultati della loro attività. Sappiamo infatti quanto è importante, per il progresso della scienza, che i risultati della ricerca possano venire diffusi, e gli esperimenti ripetuti in luoghi diversi.
Un aspetto che molto spesso si trascura di chiarire, nello studio delle scienze sperimentali, è che il risultato di una misurazione non può mai essere di assoluta precisione perché qualsiasi misura è sempre gravata da un errore più o meno grande. Questo è una conseguenza del fatto che ad operare la misurazione di una grandezza deve essere necessariamente l'uomo il quale, come ben sappiamo, non è perfetto; così come non è perfetto lo strumento di cui si serve per eseguire la misura.
Per convincervi che il valore numerico di una grandezza è un'approssimazione provatevi a misurare la lunghezza del foglio di carta che sta sotto i vostri occhi, facendo uso di un doppio decimetro con scala millimetrica. Operando con attenzione si potrebbe ottenere, ad esempio, la misura di 29,68 cm. Ebbene l'ultima cifra di questa misura, l'8, non è un valore sicuro al cento per cento nel senso che, ripetendo più volte la misura o facendola eseguire da altre persone, si potrebbero ottenere valori diversi: per esempio 29,67, 29,69 o anche 29,66 cm. Qual è allora fra tutte le misure ottenute quella più attendibile? O, per essere più espliciti, qual è la misura giusta?
Evidentemente nessuna di quelle indicate, altrimenti dovremmo dare più credito ad un operatore piuttosto che ad un altro. In effetti tutti noi potremmo essere d'accordo nel dire che la misura del foglio è sicuramente compresa fra 29,6 e 29,7 cm, ma non tutti saremmo invece d'accordo se dovessimo indicare il punto preciso, fra le due tacche del righello, corrispondenti ai valori di 29,6 e 29,7 cm, in cui cade il bordo estremo del foglio.
Gli scienziati esprimono l'incertezza (o errore) della misura con una notazione particolare che noi riporteremo riferita alla misura del nostro foglio. Nel caso in esame dovremmo scrivere il valore probabile della lunghezza del foglio e quindi, appresso a quel valore, indicare l'incertezza della misura, per esempio nel modo seguente: 29,67 ± 0,02 cm. La notazione suggerisce che il valore reale dovrebbe essere compreso fra 29,67 - 0,02 = 29,65 cm e 29,67 + 0,02 = 29,69 cm. Questa convenzione tuttavia è poco pratica, ragione per cui normalmente se ne adotta un'altra, molto più sbrigativa, che consiste nel prendere per buono il valore medio dei risultati delle singole misure e sottintendere, all'interno di quel valore, l'errore.
Nell'esempio da noi proposto il valore della misura del foglio verrebbe espresso semplicemente con un numero di quattro cifre e precisamente: 29,67 cm (valore medio probabile della grandezza misurata). Queste quattro cifre sono dette cifre significative: di esse le prime tre rappresentano valori sicuri della misura mentre la quarta contiene un certo grado di incertezza nel senso che quella cifra potrebbe essere anche 8 o 6. Con questa convenzione si assume infatti che l'ultima cifra possa contenere solo l'incertezza di ± 1.
Il numero delle cifre significative dipende ovviamente dalla scala dello strumento di misura utilizzato, cioè da quello che viene definito il limite di apprezzabilità (o limite di sensibilità) dell'apparecchio. Questo limite corrisponde alla minima quantità che l'apparecchio riesce ad apprezzare. E' ovvio, ad esempio, che non si possono pretendere misure di lunghezza con cinque o sei cifre significative usando il metro del sarto (uno strumento di misura, come tutti sanno, non molto preciso), perché molte di quelle cifre non avrebbero alcun significato. E' "proibito" infatti, in generale, nell'operazione di misurazione, assumere un numero di cifre significative superiore a quello compatibile con la precisione dello strumento di misura utilizzato (la cosiddetta portata dello strumento di misura, un parametro legato alla sua sensibilità): l'aggiunta di altre cifre sarebbe un'operazione del tutto arbitraria e non rappresenterebbe affatto una maggiore precisione della misura. Nessuno si sognerebbe, ad esempio, usando il doppio decimetro, di attribuire al foglio di carta che ha sotto gli occhi la misura di 29,687524 cm: le ultime quattro cifre che abbiamo scritto, infatti, sono state letteralmente inventate.
LE GRANDEZZE FISICHE FONDAMENTALI


Il punto di partenza di qualsiasi conoscenza scientifica è l’osservazione ma il contributo puro e semplice della medesima al progresso della scienza sarebbe tuttavia assai modesto se ci si affidasse esclusivamente ai nostri sensi. Il limite risiede innanzitutto nel fatto che i sensi possono trarci in inganno (sembra che sia il Sole a girare intorno alla Terra e non viceversa e che quest’ultima sia piatta e non sferica) ed inoltre perché, utilizzando solo i sensi, si rimarrebbe fermi agli aspetti qualitativi del fenomeno. Per esprimere i risultati delle osservazioni attraverso leggi ed equazioni si rende invece necessaria la valutazione numerica delle variabili significative dei fenomeni osservati, operazione quest’ultima che si realizza attraverso l’introduzione di alcune grandezze fisiche indipendenti dette “grandezze fondamentali”, dalle quali poi è possibile ricavare tutte le altre dette “grandezze derivate”.
La scelta delle grandezze fisiche fondamentali ha seguìto lo sviluppo stesso della scienza. Dalla geometria, la scienza più antica, emerse il concetto di lunghezza al quale l’astronomia associò quello di tempo (più esattamente “intervallo di tempo” o “durata”). Con la definizione di lunghezza e di tempo è stato possibile costruire quell’importante branca della fisica che si chiama cinematica (dal greco kínema = movimento). Quando in seguito si decise di indagare sulle cause legate al movimento dei corpi si presentò l’esigenza dell’impiego di una terza grandezza fisica, la massa.
All’inizio del 1800, lo studio dei fenomeni termodinamici impose l’introduzione di una quarta grandezza fondamentale, la temperatura, la quale, per la verità, più che una grandezza è un indice di stato fisico. Successivamente lo studio dei fenomeni elettrici rese necessaria l’adozione di una quinta grandezza fondamentale, che venne individuata nella intensità di corrente elettrica, alla quale si aggiunse l’intensità luminosa, quando prese avvio lo studio dei fenomeni di ottica. Il quadro si andò infine completando nel 1971 con l’adozione di una settima grandezza fondamentale che fu riconosciuta nella quantità di sostanza.
Da queste sette grandezze fondamentali fu possibile ricavare tutte le altre, necessarie per la descrizione dei diversi fenomeni naturali. La forza, ad esempio, è una grandezza che può essere espressa in funzione di massa, lunghezza e tempo. Con lo stesso criterio la differenza di potenziale può essere ottenuta in funzione di massa, lunghezza, tempo e intensità di corrente. L’energia, il lavoro, la pressione e la potenza possono a loro volta essere definite in funzione di massa, lunghezza e tempo, e così via per un altro centinaio di grandezze derivate.
Una volta fissate le grandezze fondamentali e quelle derivate, si rese necessario adottare, per tali grandezze, le opportune unità di misura. Ogni misura infatti è data da un numero accompagnato dall’unità di misura adeguata: esso esprime il rapporto fra il valore della grandezza in esame e quello di una grandezza ad essa omogenea scelta come unità di misura. Dire ad esempio che un oggetto è lungo sei metri significa dire che quell’oggetto è sei volte più lungo dell’unità di lunghezza adottata. E’ indispensabile includere l’unità di misura insieme con il valore numerico: dire ad esempio che un palo è lungo 6 senza altra specificazione è un’espressione priva di significato.
La necessità di scegliere opportune unità di misura e i relativi campioni era già sentita dai primi studiosi della geometria e dell’astronomia, ma l’esigenza di disporre di adeguate unità di misura universali si fece urgente con l’avvento del metodo sperimentale introdotto da Galilei. La diffusione dei dati sperimentali raccolti da ricercatori di diversa nazionalità evidenziava la necessità, per potersi intendere e confrontare, di sostituire l’enorme numero di unità di misura locali in uso a quel tempo, con unità di misura unificate. Il problema fu affrontato con serietà e rigore scientifico solo ai tempi della rivoluzione francese quando, nel 1790, l’Assemblea Nazionale incaricò una commissione di insigni scienziati, di cui facevano parte il matematico Joseph Louis de Lagrange e il fisico e astronomo Pierre Simon de Laplace, di fissare le unità di misura e i relativi campioni di lunghezza, tempo e massa. Coerentemente con lo spirito rivoluzionario di “egalité” si decise allora di adottare unità di misura che non fossero espresse da campioni garantiti e conservati da qualche autorità costituita, ma da campioni naturali che consentissero a chiunque ne avesse voglia e disponesse degli strumenti opportuni la riproduzione delle unità campione; e ciò al fine di controllare direttamente la taratura dei propri apparecchi scientifici o l’esattezza del campione di riferimento di cui lo sperimentatore faceva uso.
Le unità di misura sono alla base non solo degli scambi scientifici e tecnici ma anche di quelli commerciali. Nell’antichità, in mancanza di strumenti adeguati, le misure per gli scambi commerciali erano basate su confronti di grandezze unitarie per così dire “portate al seguito” come il piede e il cubito (misura dell’avambraccio) per le lunghezze, l’anfora per le misure di volume o la libbra per i pesi. Spesso queste unità di misura avevano lo stesso nome ma valori diversi in Paesi diversi. Lo "stadio", ad esempio, che corrispondeva alla lunghezza della pista per la corsa degli atleti, aveva lunghezza diversa in Egitto e in Grecia. Lo stesso criterio valeva per il "piede", che per Assiri e Babilonesi misurava 32 cm, mentre per gli Egizi era più lungo (34,9 cm).
Ma non occorre andare molto indietro nel tempo né molto lontano nello spazio per farsi un’idea della confusione che creavano le unità di misura diverse in luoghi diversi. Nell’Italia precedente l’unificazione le differenze delle unità di misura fra regione e regione erano notevoli: in Piemonte, ad esempio, per le misure itinerarie si usava il miglio che valeva 2467 metri mentre in Lombardia il miglio, corrispondente a 3000 braccia, valeva 1785 metri. Il caos aumentava passando in Veneto dove ad esempio, per misurare capacità e volumi di merce secca, si usava il moggio (333,3 litri), mentre i liquidi avevano come unità di misura il mastello (75,12 litri); in Piemonte invece i volumi di merce secca venivano espressi in sacchi (115,3 litri) e i liquidi in pinte. La cosa diventava addirittura ingovernabile scendendo lungo la Penisola: pertiche, tornature, carri, quartaroli, corbe da grano o da vino, boccali, imbuti, some e fiaschi erano solo alcune delle unità che si trovavano spostandosi dalla pianura Padana verso la Sicilia.
Le sette unità di misura fondamentali oggi costituiscono quello che viene detto il “Sistema Internazionale (SI) di unità di misura”. Esso deriva dal vecchio MKS (detto anche sistema Giorgi) dove M sta per metro, K per kilogrammo e S per secondo. Un altro sistema del passato, molto usato in campo scientifico, era il cosiddetto sistema assoluto o sistema cgs dove c sta per centimetro, g per grammo e s per secondo. Infine il sistema pratico o sistema degli ingegneri assumeva come grandezze fondamentali le lunghezze, i tempi e le forze e come unità fondamentali il metro, il secondo e il kilogrammo-peso (e non il kilogrammo-massa).
Oggi tutte le unità di misura del passato sono state sostituite da quelle ufficiali contenute nel SI al quale però non hanno aderito i Paesi anglosassoni (Stati Uniti compresi) le cui unità di misura rimangono legate alla civiltà contadina e artigianale del passato. Il pollice (2,53 cm), il piede (12 pollici) e la iarda (3 piedi), per le lunghezze; il grano (0,065 g) e l’oncia (28,35 g) per i pesi; il barile e la pinta per la capacità, sono grandezze nate per la verifica senza strumenti anche se oggi per forza di cose hanno assunto valori ben precisi. Anche alcune grandezze non comprese nel sistema internazionale vengono ancora usate in campo scientifico e tecnico come i nodi per esprimere le velocità delle imbarcazioni in mare, i cavalli vapore (HP) per la potenza e gli ångström per le dimensioni atomiche e subatomiche. In conclusione il problema delle diverse unità di misura nei Paesi altamente industrializzati dovrebbe essere eliminato, perché impone molti inutili calcoli di conversione che non insegnano niente e creano invece molteplici occasioni di errori.

giovedì 11 dicembre 2008

GRANDEZZE FISICHE scritta da Domenico Di Pietro

GRANDEZZE FISICHE
Iniziamo col dire che le proprietà della materia che possono essere determinate quantitativamente si chiamano grandezze (o parametri) e possono essere fisiche o chimiche. Esse sono dette anche variabili, perché appunto possono assumere valori diversi. La massa, il volume e la temperatura di un corpo, sono esempi di grandezze fisiche, mentre il grado di acidità (pH) di una soluzione o il numero di ossidazione di un elemento sono esempi di grandezze chimiche.
Ora, misurare una grandezza, relativa all'oggetto di studio, significa confrontare quella grandezza con un'altra di riferimento, ad essa omogenea, detta unità di misura. Come risultato dell'operazione si ottiene un numero. Questo numero, considerato singolarmente, non ha alcun significato concreto ma, se è seguito dall'unità di misura, rappresenta l'entità della grandezza considerata. Per fare un esempio, dire che una persona pesa 80 non significa nulla, ma dire che pesa 80 kg significa che pesa 80 volte di più della quantità che è stata presa per convenzione uguale a 1 kg, cioè l'unità di peso.
Per convincervi che il valore numerico di una grandezza è un'approssimazione provatevi a misurare la lunghezza del foglio di carta che sta sotto i vostri occhi, facendo uso di un doppio decimetro con scala millimetrica. Operando con attenzione si potrebbe ottenere, ad esempio, la misura di 29,68 cm. Ebbene l'ultima cifra di questa misura, l'8, non è un valore sicuro al cento per cento nel senso che, ripetendo più volte la misura o facendola eseguire da altre persone, si potrebbero ottenere valori diversi: per esempio 29,67, 29,69 o anche 29,66 cm. Qual è allora fra tutte le misure ottenute quella più attendibile? O, per essere più espliciti, qual è la misura giusta?
Evidentemente nessuna di quelle indicate, altrimenti dovremmo dare più credito ad un operatore piuttosto che ad un altro. In effetti tutti noi potremmo essere d'accordo nel dire che la misura del foglio è sicuramente compresa fra 29,6 e 29,7 cm, ma non tutti saremmo invece d'accordo se dovessimo indicare il punto preciso, fra le due tacche del righello, corrispondenti ai valori di 29,6 e 29,7 cm, in cui cade il bordo estremo del foglio.
Nell'esempio da noi proposto il valore della misura del foglio verrebbe espresso semplicemente con un numero di quattro cifre e precisamente: 29,67 cm (valore medio probabile della grandezza misurata). Queste quattro cifre sono dette cifre significative: di esse le prime tre rappresentano valori sicuri della misura mentre la quarta contiene un certo grado di incertezza nel senso che quella cifra potrebbe essere anche 8 o 6. Con questa convenzione si assume infatti che l'ultima cifra possa contenere solo l'incertezza di ± 1.



Le possibilità di errore, durante l'operazione di rilevamento di una misura, sono molteplici, tuttavia, gli errori in sé possono essere classificati in due soli tipi fondamentali: errori sistematici ed errori accidentali.
Gli errori sistematici sono quelli che compaiono in ogni singola misura e sono dovuti all'impiego di strumenti poco precisi, mal tarati, o inadatti alla misura in questione. Di questo tipo di errori fanno parte anche quelli dovuti all'imperizia o alla negligenza dello sperimentatore o quelli che derivano dall'aver trascurato l'influenza, sul risultato, di fattori esterni come ad esempio la pressione nel caso della misurazione della temperatura dell'acqua.
Come tutti sanno, infatti, se si volesse misurare la temperatura di ebollizione dell'acqua, bisognerebbe accertarsi innanzitutto che si tratti di acqua distillata (le soluzioni bollono a temperature tanto più alte quanto più sono concentrate) e successivamente che la pressione a cui è sottoposto il liquido sia di 1 atm altrimenti, anche facendo uso di un termometro molto preciso, il risultato non sarebbe mai di 100 °C, perché l'acqua distillata bolle a 100 °C solo se la pressione esterna è di 1 atm.
"Esiste in realtà il valore esatto di una grandezza fisica?"
La risposta è negativa e ci viene fornita dalla meccanica quantistica che è una teoria che si occupa del comportamento degli oggetti molto piccoli, come sono ad esempio gli atomi. Ebbene, la teoria insegna che tutte le misure sono soggette ad un tasso più o meno elevato di indeterminazione. Questo significa che è impossibile misurare con precisione assoluta un oggetto fino nei suoi costituenti intimi perché nella costituzione stessa della materia sono insite delle approssimazioni che non dipendono da difetti delle apparecchiature con le quali si procede alla misura, ma dal modo stesso in cui è fatta la materia.
In altri termini, in base alla teoria della meccanica quantistica, è l'atomo stesso un'entità dai contorni sfumati e quindi non può avere dimensioni esatte. Di esso cioè non sarà mai possibile conoscere l'esatta grandezza, né il suo vero peso, né sarà mai possibile, in generale, compiere su di esso un'operazione di misura perfetta. E' evidente allora che una misura, per quanto precisa la si possa immaginare, non potrebbe, in nessun caso, arrivare al di sotto delle dimensioni di un atomo.




LUNGHEZZA
metro (m)
distanza percorsa dalla luce nel vuoto nell'intervallo di tempodi 1/299.792.458 secondi
MASSA
kilogrammo (kg)
massa del cilindro prototipo di platino-iridio conservato presso ilBureau International des Poids et Mesures di Sèvres (Parigi).
TEMPO
secondo (s)
durata di 9.192.631.770 oscillazioni della radiazione emessa nella transizione tra due particolari livelli energetici iperfini dello stato fondamentale del cesio 133.
CORRENTE ELETTRICA
ampere (A)
la corrente elettrica costante che fluendo in due conduttori rettilinei, paralleli, indefinitamente lunghi, di sezione circolare trascurabile, posti a distanza di 1 m nel vuoto, determina fra essi una forza di 2·10-7 N per metro di conduttore.
TEMPERATURA
kelvin (K)
la frazione 1/273,16 della temperatura termodinamicadel punto triplo dell'acqua
QUANTITA' DI SOSTANZA
mole (mol)
quantità di sostanza di un sistema che contiene tante entità elementari quanti sono gli atomi in 0,012 kg di carbonio 12.
INTENSITA' LUMINOSA
candela (cd)
l'intensità luminosa, in una data direzione, di una sorgente che emette una radiazione monocromatica di frequenza pari a 540·1012 Hz e la cui intensità energetica in tale direzione è di 1/683 W/sr.

giovedì 27 novembre 2008