Constante de BoltzmannLa constante de Boltzmann (k o kB) es la constante física que relaciona temperatura absoluta y energía.[1] Se llama así en honor del físico austriaco Ludwig Boltzmann, quien hizo importantes contribuciones a la teoría de la mecánica estadística, en cuyas ecuaciones fundamentales esta constante desempeña un papel central. Su valor es un número fijo sin incertidumbre (26° CGPM de noviembre de 2018, en vigor desde el 20 de mayo de 2019):[2][3]
Como parte de la Redefinición de las unidades del SI en 2019, la constante de Boltzmann es una de las siete "constantes definitorias" que han recibido definiciones exactas. Se utilizan en diversas combinaciones para definir las siete unidades básicas del SI. La constante de Boltzmann se define exactamente como 1,380649-23J.K-1.[3] Importancia en la definición estadística de entropíaVéase también: Relación estadística-termodinámica
En mecánica estadística, la entropía, S, de un sistema aislado en equilibrio termodinámico se define como el logaritmo natural de W, el número de estados microscópicos definidos en los que puede llegar a estar un sistema dadas las limitaciones macroscópicas (como, por ejemplo, la energía total fija, E): Esta ecuación, que relaciona los detalles microscópicos o microestados del sistema (a través de W) con su estado macroscópico (a través de la entropía S), es la idea central de la mecánica estadística. Es tal su importancia que fue grabada en la lápida de la tumba de Boltzmann. La constante de proporcionalidad, k, relaciona la entropía de la mecánica estadística con la entropía de la termodinámica clásica de Clausius: Podría elegirse una entropía escalada adimensional en términos microscópicos tales que Se trata de una forma mucho más natural, y esta entropía reajustada corresponde exactamente a la entropía de la información desarrollada posteriormente por Claude Elwood Shannon. Aquí, la energía característica, kT, es el calor necesario para aumentar la entropía reajustada por un nat. Funciones de la constante de BoltzmannMacroscópicamente, la ley de los gases ideales establece que, para un gas ideal, el producto de la presión p y el volumen V es proporcional al producto de cantidad de sustancia n y la temperatura absoluta T: donde R es la constante molar de los gases (8.31446261815324 J⋅K−1⋅mol−1).[4] Introduciendo la constante de Boltzmann como la constante de gas por molécula[5] k = R/NA transforma la ley de los gases ideales en una forma alternativa: donde N es el número de moléculas del gas. Papel en la equipartición de la energíaDado un sistema termodinámico a una temperatura absoluta T, la energía térmica media transportada por cada grado de libertad microscópico del sistema es 12kT (es decir, aproximadamente 2,07 -21J, o 0,013 eV, a temperatura ambiente). En general, esto sólo es cierto para sistemas clásicos con un gran número de partículas, y en los que los efectos cuánticos son despreciables. En Mecánica estadística clásica se predice que esta media se cumple exactamente para gases ideales homogéneos. Los gases ideales monoatómicos (los seis gases nobles) poseen tres grados de libertad por átomo, correspondientes a las tres direcciones espaciales. Según la equipartición de la energía, esto significa que existe una energía térmica de 32kT por átomo. Esto se corresponde muy bien con los datos experimentales. La energía térmica se puede utilizar para calcular la velocidad media cuadrática de los átomos, que resulta ser inversamente proporcional a la raíz cuadrada de la masa atómica. Las velocidades cuadráticas medias encontradas a temperatura ambiente reflejan esto con precisión, y van desde 1370 m/s para el helio, hasta 240 m/s para el xenón. La Teoría cinética da la presión media p para un gas ideal como Combinada con la ley de los gases ideales muestra que la energía cinética de traslación media es Si se considera que el vector de velocidad del movimiento de traslación v tiene tres grados de libertad (uno por cada dimensión), la energía media por grado de libertad es igual a un tercio de aquélla, es decir, 12kT. La ecuación de los gases ideales también se cumple a rajatabla en los gases moleculares, pero la forma de la capacidad calorífica es más complicada, ya que las moléculas poseen grados de libertad internos adicionales, además de los tres grados de libertad de movimiento de la molécula en su conjunto. Los gases diatómicos, por ejemplo, poseen un total de seis grados de libertad simples por molécula que están relacionados con el movimiento atómico (tres traslacionales, dos rotacionales y uno vibracional). A temperaturas más bajas, es posible que no todos estos grados de libertad participen plenamente en la capacidad calorífica del gas, debido a los límites de la mecánica cuántica sobre la disponibilidad de estados excitados a la energía térmica pertinente por molécula. Papel en los factores de BoltzmannDe forma más general, los sistemas en equilibrio a temperatura T tienen probabilidad Pi de ocupar un estado i con energía E ponderada por el correspondiente factor de Boltzmann: donde Z es la función de partición. De nuevo, es la cantidad parecida a la energía kT la que adquiere una importancia central. Las consecuencias de esto incluyen (además de los resultados para gases ideales anteriores) la ecuación de Arrhenius en cinética química. Papel en la definición estadística de entropíaEn mecánica estadística, la entropía S de un sistema aislado en equilibrio termodinámico se define como el logaritmo natural de W, el número de estados microscópicos distintos disponibles para el sistema dadas las restricciones macroscópicas (como una energía total fija E): Esta ecuación, que relaciona los detalles microscópicos, o microestados, del sistema (a través de W) con su estado macroscópico (a través de la entropía S), es la idea central de la mecánica estadística. Su importancia es tal que está inscrita en la lápida de Boltzmann. La constante de proporcionalidad k sirve para que la entropía mecánica estadística sea igual a la entropía termodinámica clásica de Clausius: Se podría elegir en su lugar una entropía adimensional reescalada en términos microscópicos tal que Esta es una forma más natural y esta entropía reescalada corresponde exactamente a la posterior entropía de la información de Shannon. La energía característica kT es entonces la energía requerida para incrementar la entropía reescalada en una nat. La tensión térmicaEn semiconductores, la ecuación del diodo de Shockley-la relación entre el flujo de corriente eléctrica y el potencial electrostático a través de una unión p-n-depende de una tensión característica llamada tensión térmica, denotada por VT. La tensión térmica depende de la temperatura absoluta T como donde q es la magnitud de la carga eléctrica del electrón con un valor equivalente, A temperatura ambiente 300 Kelvin (26,9 °C; 80,3 °F), VT es aproximadamente 25.85 mV[6][7] que puede obtenerse introduciendo los valores de la siguiente manera:
A la temperatura estándar de 298,15 K (25 °C;77 °F) es aproximadamente 25,69 mV. El voltaje térmico también es importante en plasmas y soluciones electrolíticas (por ejemplo, la ecuación de Nernst); en ambos casos proporciona una medida de cuánto afecta a la distribución espacial de electrones o iones una frontera mantenida a un voltaje fijo.[8][9] HistoriaAunque Boltzmann vinculó por primera vez la entropía y la probabilidad en 1877, al parecer la relación nunca se expresó a través de una constante específica sino hasta que Max Planck introdujo k por vez primera, y ofreció un valor exacto (1.346×10−23 J/K, aproximadamente 2.5% menor que la cifra que se usa hoy en día), en su derivación de la ley de la radiación del cuerpo negro en 1900–1901.[10] Antes de 1900, las ecuaciones que incluían los factores de Boltzmann no utilizaban las energías por molécula ni la constante de Boltzmann, sino una forma de la constante de los gases R y energías macroscópicas para las cantidades macroscópicas de la sustancia. La breve y simbólica forma de la ecuación S = k log W en la lápida de la tumba de Boltzmann se debe de hecho a Planck, no a Boltzmann. En realidad Planck la introdujo en el mismo trabajo en el que presentó h.[11] Como escribió Planck en su discurso de recepción del Premio Nobel en 1920.[12]
Estas "condiciones peculiares" pueden comprenderse si se recuerda uno de los grandes debates científicos de la época. Existía un enorme desacuerdo, durante la segunda mitad del siglo XIX, respecto a si los átomos y las moléculas eran "reales" o si eran tan sólo una herramienta heurística, útil para la solución de problemas. También había un desacuerdo respecto a si las "moléculas químicas" (medidas a través de los pesos atómicos) eran lo mismo que las "moléculas físicas" (medidas a través de la teoría cinética). Para continuar la cita de la lectura de 1920 de Planck:[12]
En 2013, el Laboratorio Nacional de Física del Reino Unido utilizó las mediciones de microondas y de resonancia acústica para determinar la velocidad del sonido de un gas monoatómico en una cámara elipsoide triaxial y calcular un valor más preciso para la constante, como parte de la revisión del Sistema Internacional de Unidades (SI). El nuevo valor calculado fue de 1.380 651 56 (98) × 10−²³ J K−1, y se espera que sea aceptado por el SI tras una revisión.[13] Unidades naturalesLa constante de Boltzmann proporciona una correspondencia entre la energía microscópica característica E y la escala de temperatura macroscópica T = Ek. En la física fundamental, este mapeo se simplifica a menudo mediante el uso de las unidades naturales de establecer k a la unidad. Esta convención significa que las cantidades de temperatura y energía tienen las mismas dimensiones.[14][15] En particular, la unidad kelvin del SI se convierte en superflua, definiéndose en términos de joules como 1 K = 1.38064x 10-23J.[16] Con esta convención, la temperatura se da siempre en unidades de energía, y la constante de Boltzmann no se necesita explícitamente en las fórmulas.[14] Esta convención simplifica muchas relaciones y fórmulas físicas. Por ejemplo, la fórmula de equipartición para la energía asociada a cada grado de libertad clásico ( anterior) se convierte en Como otro ejemplo, la definición de entropía termodinámica coincide con la forma de entropía de la información: donde Pi es la probabilidad de cada microstado. Véase también
Referencias
Bibliografía
Enlaces externos
|