[HOME PAGE] [STORES] [CLASSICISTRANIERI.COM] [FOTO] [YOUTUBE CHANNEL]

Entropia - Viquipèdia

Entropia

De Viquipèdia

Per a informació sobre el grup musical. Vegeu Entropia (grup musical).


L'entropia s'interpreta com la mesura del desordre d'un sistema. Des de la seva introducció per Rudolf Clausius a inicis de la segona meitat del segle XIX, el concepte d'entropia s'ha estès a diferents camps, com ara a la teoria de la informació, la intel·ligència artificial, la vida o el temps.


[edita] En física

En física l'entropia és la magnitud termodinàmica que permet calcular la part de l'energia calorífica que pot utilitzar-se per a produir treball si el procés és reversible. L'entropia física, en la seva forma clàssica és definida per l'equació

     dS = dQ / T

o més simplement, si la temperatura es manté constant en el procés 1-->2 (procés isotèrmic):

     (S2-S1) = (Q2-Q1)/T

on S és l'entropia, Q la quantitat de calor i T la temperatura. Els números 1 i 2 es refereixen als estats inicials i finals d'un sistema termodinàmic. El significat d'aquesta equació és el següent: Quan un sistema termodinàmic passa de l'estat 1 a l'estat 2, el canvi en la seva entropia és igual al canvi en la seva quantitat de calor dividit per la seva temperatura.

Així si un cos calent a temperatura T1 perd una quantitat de calor Q1 la seva entropia disminueix en \frac{Q1}{T1}, si cedeix aquest calor a un cos fred a temperatura T2 < T1 l'entropia del cos fred augmenta més del que ha disminuit l'entropia del cos calent perquè \frac{Q_1}{T_1}<\frac{Q_1}{T_2}. Una màquina reversible pot, per tant, tansformar en treball una part d'aquesta energia calorífica, però no tota. Si l'entropia que perd el cos calent és igual a l'entropia que guanya el cos fred es té que la quantiat de calor que es pot transformar en treball és:

\frac{Q_2}{T2}= \frac{Q_1}{T_1}

Q_2=Q_1\frac{T_2}{T_1}

W=Q_1 - Q_2 = Q_1-Q_1\frac{T_2}{T_1}

W=Q_1(1-\frac{T_2}{T_1})=Q_1\frac{T_1 - T_2}{T_1}

Per tant el rendiment que dona la màquina reversible (que és el màxim que pot donar qualsevol màquina) és:

η=\frac{W}{Q_1}

η=\frac{T_1 - T_2}{T_1}

Per a que tota l'energia calorífica es pugués transformar en treball caldria que, o bé el focus calent es trobés a una temperatura infinita, o bé que el focus fred estés a zero graus Kelvin, en qualsevol altre cas el rendiment termodinàmic de la màquina reversible és inferior a 1.

La expresió de l'entropia és consequència lògica del segon principi de la termodinàmica i de la forma en que es mesura la temperatura.

El segon principi de la termodinàmica diu que, si no es consumeix treball, la calor va dels cossos calents als cossos freds, tant si aixó és directament per conducció com si es fa a través de qualsevol màquina.

La temperatura cal mesurar-la en una escala termodinàmica, altrament l'expressió de la entropia no és tant elegant i depén de la subtancia termomètrica que s'empra per a construir el termòmetre. En definir l'escala termodinàmica de temperatura hi ha un grau de llibertat que es pot escollir arbitràriament. Si s'imposa que entre la temperatura d'ebullició i la de congelació de l'aigua hi hagi 100 graus s'obté l'escala Kelvin i resulta que la temperatura de congelació de l'aigua ha de ser 273 K.


En els anys 1890-1900 el físic austríac Ludwig Boltzman i altres desenvoluparen les idees del que avui en dia es coneix com a mecànica estadística, teoria que permet interpretar el significat de temperatura i d'entropia. Segons aquestes idees, l'entropia queda definida per la equació:

    S = k ln(W)

on S és l'entropia, k la constant de Boltzman, ln és la funció de logaritme natural i W el nombre de microestats possibles per al sistema. L'equació es troba gravada sobre la làpida de la tomba de Boltzman al Zenmtralfriedhof de Viena. Aquest es va suïcidar al 1906 profundament deprimit per la poca acceptació de les seves teories en el món acadèmic de l'època. El significat literal de l'equació és el següent: la quantitat d'entropia d'un sistema és proporcional al logaritme natural del seu nombre de microestats. Ara bé, el seu significat final és encara matèria de discussió en la física teòrica, donat l'abastament que té.

Una possible interpretació és aquella que postula: El temps com nosaltres el coneixem, és la direcció en que l'entropia creix.

[edita] En la teoria de la informació

En la Teoria de la informació, la entropia, coneguda com a entropia de Shannon en aquest àmbit, és la magnitud que mesura la informació continguda en un flux de dades, és a dir, el que ens aporta sobre una dada o fet concret. Per exemple, que ens diguin que els carrers són molls, sabent que acaba de ploure, ens aporta poca informació, ja que això és l'habitual. Però si ens diuen que els carrers són molls i sabem que no ha plogut, aporta molta informació (ja que no els reguen tots els dies). Noti's que en l'exemple anterior, la quantitat d'informació és diferent, malgrat que es tracta del mateix missatge: "els carrers són molls". En això es basen les tècniques de compressió de dades, que permeten comprimir la mateixa informació en missatges més curts. La mesura de l'entropia pot aplicar-se a informació de qualsevol naturalesa, i ens permet codificar-la adequadament, indicant-nos els elements de codi necessaris per a transmetre-la, eliminant tota redundància. Per exemple, per a indicar el resultat d'una cursa de cavalls, només cal transmetre el codi associat al cavall guanyador, no fa falta indicar que es tracta d'una cursa de cavalls, i molt menys com ha anat la cursa. L'entropia ens indica el límit teòric per a la compressió de dades. El seu càlcul es realitza mitjançant la següent fòrmula:

       H = p1*log(1/p1)+p2*log(1/p2)+... pm*log(1/pm)

on H és l'entropia, les p són les probabilitats de que apareguin els diferents codis i m és el número total de codis. Si ens referim a un sistema, les p es refereixen a les probabilitats de que es trobi en un determinat estat i m el número total de possibles estats. S'utilitza habitualment el logaritme en base 2, i llavors l'entropia es mesura en bits.

Exemple: el llançament d'una moneda a l'aire per veure si surt cara o creu(dos estats amb probabilitat igual a 0.5) té una entropia:

       H = 0.5*log2(1/0.5)+0.5*log2(1/0.5) = 0.5*log2(2)+0.5*log2(2) = 0.5+0.5 = 1 bit 

A partir d'aquesta definició bàsica es poden definir altres entropies.

[edita] Relació entre ambdues

La relació entre les dues és evident i sorgeix directament de aplicar el segon principi de la termodinàmica al dimoni de Maxwell.

El dimoni de Maxwell és un èsser imaginari que pot obrir o tancar una comporta que uneix dos recipients plens del mateix gas a la mateixa temperatura. La comporta és prou petita per a que en obrir-la només passi una molècula de gas d'un cantó a l'altre. Si en apropar-se una molècula a la comporta el dimoni tingùes la informació de si la seva velocitat és superior o inferior a la velocitat quadràtica mitja de les molèculs dels recipients, podria obrir i tancar la comporta selectivament de forma que les moècules ràpides passessin al recipient calent i les lentes al recipient fred. En fer això la calor passaria del recipient fred al calent i l'entropia del conjunt format pels dos recipients disminuiria però com que per poder-ho fer ha de tenir la informació de la velocitat i com que segons els segon principi de la termodinàmica l'entropia de tot sistema tancat (considerant el mecanisme que permet captar la informació) ha daugmentar, resulta que per aconsegur la informció cal fer augmentar la entropia exactament en la mateixa quantitat en que es pot fer disminuir en emprar aquesta informació. Plantejant les equacions que en resultan d'aquestes idees s'arriba a la formulació de l'entropia que s'empra en teoria de la informació.