Contenido Checked

La mecánica estadística

Temas relacionados: Ciencia

Antecedentes

Esta selección wikipedia ha sido elegido por los voluntarios que ayudan Infantil SOS de Wikipedia para esta Selección Wikipedia para las escuelas. Ver http://www.soschildren.org/sponsor-a-child para averiguar sobre el apadrinamiento de niños.

La mecánica estadística es la aplicación de la teoría de probabilidades , que incluye matemáticas herramientas para hacer frente a grandes poblaciones, con el campo de la mecánica, que tiene que ver con el movimiento de partículas u objetos cuando se somete a una fuerza. La mecánica estadística, a veces llamadas la física estadística, puede ser visto como un subcampo de la física y la química .

Proporciona un marco para relacionar las propiedades microscópicas de los átomos y moléculas individuales a las propiedades macroscópicas o granel de materiales que se pueden observar en la vida cotidiana, por lo tanto, que explica la termodinámica como un resultado natural de la estadística y la mecánica (clásica y cuántica) a nivel microscópico . En particular, se puede utilizar para calcular las propiedades termodinámicas de los materiales a granel a partir de los datos espectroscópicos de moléculas individuales.

Esta capacidad de hacer predicciones basadas en las propiedades macroscópicas microscópicas es la principal ventaja de la mecánica estadística más de la termodinámica . Ambas teorías se rigen por la segunda ley de la termodinámica a través del medio de la entropía . Sin embargo, la entropía en termodinámica sólo puede ser conocido empíricamente, mientras que en la mecánica estadística, es una función de la distribución del sistema en su micro-estados.

Postulado fundamental

El postulado fundamental de la mecánica estadística (también conocida como la igualdad de un postulado probabilidad a priori) es la siguiente:

Dado un sistema aislado en equilibrio, se encuentra con la misma probabilidad en cada uno de sus accesible microestados.

Este postulado es una hipótesis fundamental en la mecánica estadística - que establece que un sistema en equilibrio no tiene ninguna preferencia por cualquiera de sus microestados disponibles. Dada microestados Ω a una energía particular, la probabilidad de encontrar el sistema en un microestado particular es p = 1 / Ω.

Este postulado es necesaria porque permite concluir que para un sistema en equilibrio, el estado termodinámico (macroestado) que podría resultar de un mayor número de microestados es también el macroestado más probable del sistema.

El postulado se justifica, en parte, por los sistemas clásicos, por El teorema de Liouville (hamiltoniano), que muestra que si el sistema de distribución de puntos a través accesible espacio de fase es uniforme en algún momento, sigue siendo así que en tiempos posteriores.

Justificación similar para un sistema discreto es proporcionada por el mecanismo de balance detallado.

Esto permite la definición de la función de información (en el contexto de teoría de la información):

I = - \ sum_i \ rho_i \ ln \ rho_i = \ langle \ ln \ rho \ rangle.

Cuando todos rhos son iguales, I es mínima, lo que refleja el hecho de que tengamos una mínima información sobre el sistema. Cuando nuestra información es máxima, es decir, un rho es igual a uno y el resto a cero (ya sabemos en qué estado el sistema está en), la función es máxima.

Esta "función de la información" es la misma que la función entrópica reducida en termodinámica.

Colectividad microcanónica

En conjunto microcanónica N, V y E son fijos. Desde la segunda ley de la termodinámica se aplica a sistemas aislados, el primer caso investigado corresponderá a este caso. El conjunto microcanónica describe un sistema aislado.

La entropía de un sistema de este tipo sólo puede aumentar, de modo que el máximo de su entropía corresponde a una estado de equilibrio para el sistema.

Debido a que una aislado sistema mantiene una energía constante, el total de energía del sistema no fluctúa. Así, el sistema sólo puede acceder a los de sus micro-estados que corresponden a un valor E de la energía dada. La energía interna del sistema es entonces estrictamente igual a su energía .

Llamemos \ Omega (E) \ el número de micro-estados correspondiente a este valor de la energía del sistema. El estado macroscópico de máxima entropía para el sistema es aquel en el que todos los micro-estados son igualmente probable que ocurra, con una probabilidad {1 / {\ Omega (E)}} , Durante las fluctuaciones del sistema.

S = -k_B \ sum_ {i = 1} ^ {\ Omega (E)} \ left \ {{1 \ over {\ Omega (E)}} \ ln {1 \ over {\ Omega (E)}} \ derecho \} = k_B \ ln \ dejó (\ Omega (E) \ right)
donde
S \ es el sistema de entropía ,
k_B \ es La constante de Boltzmann

Conjunto canónico

En conjunto canónico N, V y T son fijos. Invocando el concepto del conjunto canónico, es posible derivar la probabilidad P_i \ que un sistema macroscópico en equilibrio térmico con su entorno, será en un microestado dado con la energía E_i \ de acuerdo con la Distribución de Boltzmann:

P_i = {e ^ {- \ beta E_i} \ over {\ sum_j ^ {j_ {max}} e ^ {- \ beta E_j}}}
donde \ Beta = {1 \ over {kT}} ,

La temperatura T \ surge del hecho de que el sistema está en equilibrio térmico con su entorno. Las probabilidades de las diferentes microestados deben añadir a uno, y el factor de normalización en el denominador es la canónica función de partición:

Z = \ sum_j ^ {j_ {max}} e ^ {- \ beta} E_j

donde E_i \ es la energía de la yo \ º microestado del sistema. La función de partición es una medida del número de estados accesibles al sistema a una temperatura dada. El artículo conjunto canónico contiene una derivación del factor de Boltzmann y la forma de la función de partición de los primeros principios.

En resumen, la probabilidad de encontrar un sistema a temperatura T \ en un estado en particular con la energía E_i \ es

P_i = \ frac {e ^ {- \ beta E_i}} {Z}

Conexión Termodinámica

La función de partición se puede utilizar para encontrar el (promedio) valor esperado de cualquier propiedad microscópica del sistema, que puede estar relacionado con variables macroscópicas. Por ejemplo, el valor esperado de la energía microscópica E \ se interpreta como la definición microscópica de la energía interna variable termodinámica U \ ., Y puede ser obtenido tomando la derivada de la función de partición con respecto a la temperatura. Ciertamente,

\ Langle E \ rangle = {\ sum_i E_i e ^ {- \ beta E_i} \ over Z} = - {1 \ over Z} {dZ \ over d \ beta}

implica, junto con la interpretación de \ Langle E \ rangle como U \ , La siguiente definición microscópica de energía interna:

U \ dos puntos = - {d \ ln Z \ over d \ beta}.

La entropía puede calcularse (véase La entropía de Shannon)

{S \ sobre k} = - \ sum_i p_i \ ln p_i = \ sum_i {e ^ {- \ beta E_i} \ over Z} (\ beta E_i + \ ln Z) = \ ln Z + \ beta U

lo que implica que

- \ Frac {\ ln (Z)} {\ beta} = U - TS = F

es el energía libre del sistema o en otras palabras,

Z = e ^ {- \ beta} F \,

Tener expresiones microscópicas para los potenciales termodinámicos básicos U \ ( energía interna), S \ ( entropía ) y F \ ( energía libre) es suficiente para derivar expresiones para otras magnitudes termodinámicas. La estrategia básica es como sigue. Puede haber una cantidad intensivo o extensivo que entra explícitamente en la expresión para la energía microscópica E_i \ , Para el campo magnético ejemplo (intensivo) o el volumen (extensa). Entonces, las variables termodinámicas conjugadas son derivados de la energía interna. La magnetización macroscópica (extensa) es la derivada de U \ con respecto a la (intensivo) campo magnético, y la presión (intensivo) es la derivada de U \ con respecto al volumen (extensa).

El tratamiento de esta sección no asume intercambio de materia (masa es decir, fija y el número de partículas fijas). Sin embargo, el volumen del sistema es variable lo que significa la densidad también es variable.

Esta probabilidad se puede utilizar para encontrar el valor medio, que corresponde al valor macroscópico, de cualquier propiedad, J , Que depende del estado energético del sistema mediante el uso de la fórmula:

\ Langle J \ rangle = \ sum_i p_i J_i = \ sum_i J_i \ frac {e ^ {- \ beta E_i}} {Z}

donde \ Langle J \ rangle es el valor medio de la propiedad J \ . Esta ecuación se puede aplicar a la energía interna, U \ :

U = \ sum_i E_i \ frac {e ^ {- \ beta E_i}} {Z}

Posteriormente, estas ecuaciones se pueden combinar con las relaciones termodinámicas conocidas entre U \ y V \ para llegar a una expresión para la presión en términos de sólo la temperatura, el volumen y la función de partición. Relaciones similares en términos de la función de partición se pueden derivar otras propiedades termodinámicas, como se muestra en la siguiente tabla; véase también la explicación detallada en configuración integral.

Helmholtz energía libre: F = - {\ ln Z \ sobre \ beta}
Energía interna: U = - \ left (\ frac {\ partial \ ln Z} {\ partial \ beta} \ right) _ {N, V}
Presión: P = - \ left ({\ F parcial \ over \ partial V} \ right) _ {N, T} = {1 \ sobre \ beta} \ left (\ frac {\ partial \ ln Z} {\ V parcial} \ right) _ {N, T}
Entropía : S = k (\ ln Z U + \ beta) \,
Gibbs energía libre : G = F + PV = - {\ ln Z \ sobre \ beta} + {V \ sobre \ beta} \ left (\ frac {\ partial \ ln Z} {\ V parcial} \ right) _ {N, T}
Entalpía : H = U + PV \,
Volumen constante capacidad calorífica: C_V = \ left (\ frac {\ U parcial} {\ T parcial} \ right) _ {N, V}
Constante capacidad calorífica presión: C_P = \ left (\ frac {\ H parcial} {\ T parcial} \ right) _ {N, P}
Potencial químico: \ Mu_i = - {1 \ sobre \ beta} \ left (\ frac {\ partial \ ln Z} {\ N_i parcial} \ right) _ {T, V, N}

Para aclarar, esto no es una conjunto canónico magnífico.

A menudo es útil considerar la energía de una molécula dada que se distribuye entre un número de modos. Por ejemplo, la energía de traslación se refiere a esa porción de la energía asociada con el movimiento del centro de masa de la molécula. Energía configuracional refiere a la porción de la energía asociada con las diversas fuerzas de atracción y repulsión entre las moléculas en un sistema. Los otros modos son todos considerados para ser interna a cada molécula. Incluyen modos rotacionales, vibracionales, electrónicos y nucleares. Si asumimos que cada modo es independiente (un supuesto cuestionable) la energía total se puede expresar como la suma de cada uno de los componentes:

E = E_t + E_c + E_n + e_e + E_r + E_v \,

Donde los subíndices t \ , c \ , n \ , e \ , r \ Y v \ corresponden a la traducción, configuracional, nuclear, modos electrónicos, rotacionales y vibracionales, respectivamente. La relación en esta ecuación se puede sustituir en la primera ecuación para dar:

Z = \ sum_i e ^ {- \ beta (E_ {ti} + E_ {ci} + E_ {ni} + E_ {ei} + E_ {ri} + E_ {vi})}
= \ Sum_i e ^ {- \ beta E_ {ti}} e ^ {- \ beta E_ {ci}} e ^ {- \ beta E_ {ni}} e ^ {- \ beta E_ {ei}} e ^ { - \ beta E_ {ri}} e ^ {- \ beta E_ {vi}}

Si somos capaces de asumir todos estos modos son completamente desacoplado y no correlacionados, por lo que todos estos factores son en un sentido probabilidad totalmente independiente, entonces

Z = z_T Z_c Z_n Z_e Z_r Z_v \,

Así, una función de partición se puede definir para cada modo. Las expresiones simples se han derivado en relación a cada uno de los distintos modos a diversas propiedades moleculares medibles, tales como las frecuencias de rotación o vibración característicos.

Las expresiones para las diversas funciones de partición molecular se muestran en la siguiente tabla.

Nuclear Z_n = 1 \ qquad (T <10 ^ 8 K)
Electrónico Z_e = w_0 e ^ {kT D_e + W_1 e ^ {- \ theta_ {E1} / T} + \ cdots}
Vibracional Z_v = \ prod_j \ frac {e ^ {- \ theta_ {vj} / 2T}} {1 - e ^ {- \ theta_ {vj} / T}}
Rotacional (lineal) Z_r = \ frac {T} {\ sigma} \ theta_r
Rotacional (no lineal) Z_r = \ frac {1} {\ sigma} \ sqrt {\ frac {{\ pi} T ^ 3} {\ theta_A \ theta_B \ theta_C}}
Traslacional Z_T = \ frac {(MKT 2 \ pi) ^ {3/2}} {h ^ 3}
Configuracional (gas ideal) Z_c = V \,

Estas ecuaciones se pueden combinar con los de la primera tabla para determinar la contribución de un modo particular de la energía a una propiedad termodinámica. Por ejemplo, la "presión de rotación" se pudo determinar de esta manera. La presión total se pudo encontrar sumando las contribuciones de presión de todos los modos individuales, es decir:

P = P_t + p_c + P_n + P_e + P_R + p_v \,

Gran conjunto canónico

En gran canónica conjunto V, T y potencial químico son fijos. Si el sistema en estudio es un sistema abierto, (materia puede ser intercambiado), pero el número de partículas no se conserva, tendríamos que introducir potenciales químicos, μ j, j = 1, ..., n y reemplazar el canónica función de partición con el gran función de partición canónica:

\ Xi (V, T, \ mu) = \ sum_i \ exp \ left (\ beta \ left [\ sum_ {j = 1} ^ n \ mu_j N_ {ij} -E_i \ right] \ right)

donde N ij es el número de orden j partículas de especies en la i ª configuración. A veces, también tenemos otras variables a añadir a la función de partición, uno correspondiente a cada cantidad conservada. La mayoría de ellos, sin embargo, se puede interpretar de forma segura como potenciales químicos. En la mayoría de los sistemas de materia condensada, las cosas son no relativista y se conserva la masa. Sin embargo, la mayoría de los sistemas de materia condensada de interés también conservan el número de partículas de aproximadamente (metastably) y la masa (no relativista) es nada menos que la suma de la cantidad de cada tipo de partícula veces su masa. Masa está inversamente relacionada con la densidad, que es la variable conjugado a la presión. Para el resto de este artículo, vamos a ignorar esta complicación y pretender potenciales químicos no importan. Ver conjunto canónico magnífico.

Vamos a retrabajo todo utilizando un conjunto canónico magnífico este momento. El volumen se deja fijo y no figura en absoluto en este tratamiento. Como antes, j es el índice para aquellas partículas de especies j e i es el índice para microestado i:

U = \ sum_i E_i \ frac {\ exp (- \ beta (E_i- \ sum_j \ mu_j N_ {ij}))} {\ Xi}
N_j = \ sum_i N_ {ij} \ frac {\ exp (- \ beta (E_i- \ sum_j \ mu_j N_ {ij}))} {\ Xi}
Gran potencial: \ Phi_ {G} = - {\ ln \ Xi \ sobre \ beta}
Energía interna: U = - \ left (\ frac {\ partial \ ln \ Xi} {\ partial \ beta} \ right) _ {\ mu} + \ sum_i {\ mu_i \ sobre \ beta} \ left ({\ partial \ ln \ Xi \ over \ partial \ mu_i} \ right) _ {\ beta}
Número de la partícula: N_i = {1 \ sobre \ beta} \ left ({\ partial \ ln \ Xi \ over \ partial \ mu_i} \ right) _ \ beta
Entropía : S = k (\ ln \ Xi + \ beta U \ beta \ sum_i \ mu_i N_i) \,
Helmholtz energía libre: F = G + \ sum_i \ mu_i N_i = - {\ ln \ Xi \ sobre \ beta} + \ sum_i {\ mu_i \ sobre \ beta} \ left (\ frac {\ partial \ ln \ Xi} {\ partial \ mu_i} \ right) _ {\ beta}

Equivalencia entre las descripciones en el límite termodinámico

Todas las descripciones anteriores se diferencian en la forma en que permiten que el sistema dado a fluctuar entre sus configuraciones.

En el micro-canónica conjunto, el sistema de intercambios sin energía con el mundo exterior, y por lo tanto no está sujeto a las fluctuaciones de energía, mientras que en el conjunto canónico, el sistema es libre de intercambiar energía con el exterior en forma de calor .

En el límite termodinámico, que es el límite de grandes sistemas, las fluctuaciones convertirse en insignificante, de modo que todas estas descripciones convergen a la misma descripción. En otras palabras, el comportamiento macroscópico de un sistema no depende de el conjunto particular utilizado para su descripción.

Dadas estas consideraciones, el mejor conjunto de elegir para el cálculo de las propiedades de un sistema macroscópico es ese conjunto que permite que el resultado se deriva más fácilmente.

Caminantes azar

El estudio de cadena larga polímeros ha sido una fuente de problemas dentro de los dominios de la mecánica estadística ya que alrededor del 1950. Una de las razones sin embargo que los científicos estaban interesados en su estudio es que las ecuaciones que rigen el comportamiento de una cadena de polímero fueron independientes de la química de la cadena. Lo que es más, la ecuación de gobierno resulta ser un paseo aleatorio (difusiva) en el espacio. De hecho, la ecuación de Schrödinger es en sí una ecuación de difusión en el tiempo imaginario, t '= es .

Paseos aleatorios en el tiempo

El primer ejemplo de un paseo aleatorio es uno en el espacio, mediante el cual una partícula se somete a un movimiento aleatorio debido a fuerzas externas en su medio circundante. Un ejemplo típico sería un grano de polen en un vaso de precipitados de agua. Si uno pudiera de alguna manera "teñir" el camino del grano de polen ha tomado, la trayectoria observada se define como un paseo aleatorio.

Considere un problema juguete, de un tren que se mueve a lo largo de una pista de 1D en la dirección x. Supongamos que el tren se mueve ya sea una distancia de + o - una distancia b fija, en función de si una moneda cae cara o cruz cuando volteado. Vamos a empezar por considerar las estadísticas de los pasos que el tren de juguete lleva (donde S_ {i} es el paso ITH tomado):

\ Langle S_ {i} \ rangle = 0 ; debido a priori probabilidades iguales
\ Langle S_ {i} S_ {j} \ rangle = b ^ 2 \ delta_ {ij}

La segunda cantidad se conoce como el función de correlación. El delta es el delta de Kronecker que nos dice que si los índices iyj son diferentes, entonces el resultado es 0, pero si i = j, entonces el delta de Kronecker es 1, por lo que la función de correlación devuelve un valor de b ^ 2 . Esto tiene sentido, porque si i = j entonces estamos considerando el mismo paso. Más bien trivialmente entonces se puede demostrar que el desplazamiento promedio del tren en el eje x es 0;

x = \ sum_ {i = 1} ^ {N} S_ {i}
\ Langle x \ rangle = \ langle \ sum_ {i = 1} ^ {N} S_ {i} \ rangle
\ Langle x \ rangle = \ sum_ {i = 1} ^ {N} \ langle S_ {i} \ rangle

Como se ha indicado \ Langle S_ {i} \ rangle es 0, por lo que la suma de 0 todavía es 0. También se puede demostrar, usando el mismo método ha demostrado anteriormente, para calcular el valor cuadrático medio de problema. El resultado de este cálculo se da a continuación

x_ {rms} = \ sqrt {\ langle x ^ 2 \ rangle} = b \ sqrt N

Desde el ecuación de difusión se puede demostrar que la distancia una partícula de difusión se mueve en un medio es proporcional a la raíz del tiempo que el sistema ha sido de difusión del, donde la constante de proporcionalidad es la raíz de la constante de difusión. La relación anterior, aunque de aspecto diferente, revela la física similares, donde N es simplemente el número de pasos movidos (está vagamente conectados con el tiempo) y b es la longitud del paso característico. Como consecuencia, podemos considerar la difusión como un proceso de paseo aleatorio.

Camina al azar en el espacio

Camina al azar en el espacio puede ser pensado como instantáneas del camino tomado por un caminante al azar en el tiempo. Un ejemplo es la configuración espacial de polímeros de cadena larga.

Hay dos tipos de caminata aleatoria en el espacio: auto evitando paseos aleatorios, donde los eslabones de la cadena de polímero interactúan y no se solapan en el espacio, y los paseos aleatorios puros, donde los eslabones de la cadena de polímero no son interactuantes y los enlaces son libres de estar uno encima del otro. El primer tipo es más aplicable a los sistemas físicos, pero sus soluciones son más difíciles de conseguir en a partir de primeros principios.

Al considerar una cadena de polímero libremente articulado que no interactúan, el vector de extremo a extremo es \ Mathbf {R} = \ sum_ {i = 1} ^ {N} \ mathbf r_i donde \ Mathbf {r} _ {i} es el vector de posición del enlace i-ésimo en la cadena. Como resultado de la teorema del límite central, si N >> 1 entonces la esperamos una distribución gaussiana para el vector de extremo a extremo. También podemos hacer declaraciones de las estadísticas de los propios enlaces;
\ Langle \ mathbf {r} _ {i} \ rangle = 0 ; por la isotropía del espacio
\ Langle \ mathbf {r} _ {i} \ cdot \ mathbf {r} _ {j} \ rangle = 3 b ^ 2 \ delta_ {ij} ; todos los eslabones de la cadena no están correlacionados entre sí
Utilizando las estadísticas de los enlaces individuales, se demuestra fácilmente que \ Langle \ mathbf R \ rangle = 0 y \ Langle \ mathbf R \ cdot \ mathbf R \ rangle = 3NB ^ 2 . Observe este último resultado es el mismo que se encuentra de paseo al azar en el tiempo.

Suponiendo, como se ha dicho, que esa distribución de los vectores de extremo a extremo para un gran número de cadenas de polímeros idénticos es gaussiana, la distribución de probabilidad tiene la siguiente forma

P = \ frac {1} {\ left (\ frac {2 \ pi N b ^ 2} {3} \ right) ^ {3/2}} \ exp \ frac {- 3 \ mathbf R \ cdot \ mathbf R } {2Nb ^ 2}

¿Para qué sirve esto? Recordemos que de acuerdo con el principio de igual probabilidad probabilidades a priori, el número de microestados, Ω, en algún valor físico es directamente proporcional a la distribución de probabilidad en ese valor físico, a saber;

\ Omega \ dejó (\ mathbf {R} \ right) = c P \ left (\ mathbf {R} \ right)

donde c es una constante de proporcionalidad arbitraria. Dada nuestra función de distribución, hay una maxima correspondiente a \ Mathbf {R} = 0 . Físicamente esto equivale a que hay más microestados que tienen un vector de 0 que cualquier otro microestado de extremo a extremo. Ahora, considerando

S \ left (\ mathbf {R} \ right) = k_B \ ln \ Omega {\ left (\ mathbf R \ right)}
\ Delta S \ dejó (\ mathbf {R} \ right) = S \ dejó (\ mathbf {R} \ right) - S \ left (0 \ right)
\ Delta F = - T \ Delta S \ dejó (\ mathbf {R} \ right)

donde F es la Energía libre de Helmholtz es trivial demostrar que

\ Delta F = k_B T \ frac {3R ^ 2} {2Nb ^ 2} = \ frac {1} {2} KR ^ 2 \ quad; K = \ frac {3} {T k_B Nb ^ 2}

Un resorte Hookian!
Este resultado se conoce como la Primavera Entropic Resultado y equivale a decir que al estirar una cadena de polímero que está haciendo trabajo en el sistema de arrastrarlo lejos de su (preferido) estado de equilibrio. Un ejemplo de esto es una banda elástica común, compuesto de polímeros de cadena larga (de goma). Al estirar la banda elástica que está haciendo trabajos en la instalación y la banda se comporta como un resorte convencional. Lo que es particularmente sorprendente de este resultado sin embargo, es que el trabajo realizado en el estiramiento de la cadena de polímero puede estar relacionado enteramente a la variación de entropía del sistema como resultado de el estiramiento.

Recuperado de " http://en.wikipedia.org/w/index.php?title=Statistical_mechanics&oldid=234870478 "