Entropía de von NeumannEn mecánica estadística cuántica, la entropía de von Neumann es la extensión del concepto de entropía de Gibbs clásica al campo de mecánica cuántica. Recibe su nombre de John von Neumann. Para un sistema cuántico descrito por una matriz densidad , la entropía de von Neumann[1] donde denota la traza y denota el logaritmo natural de matrices. Si está escrito en términos de sus autovectores , , ,... como entonces la entropía de von Neumann es simplemente[1] En esta forma, se puede entender como la entropía de Shannon de la distribución de probabilidad .[1] MotivaciónJohn von Neumann estableció un marco matemático riguroso para la mecánica cuántica en su trabajo de 1932 trabajo Las fundamentaciones matemáticas de la mecánica cuántica[2] En él, propone una teoría de la medición, donde la idea habitual del colapso de la función de onda se describe como un proceso irreversible (las mediciones proyectivas o de von Neumann). La matriz densidad fue introducida, con motivaciones diferentes, por von Neumann y por Lev Landáu. La motivación que inspiró a Landau era la imposibilidad de describir un subsistema de un sistema cuántico compuesto mediante un vector de estado.[3] Por otro lado, von Neumann introdujo la matriz densidad para desarrollar la mecánica estadística cuántica y la teoría de mediciones cuánticas. El formalismo de la matriz densidad se desarrolló para extender las herramientas de mecánica estadística clásica al ámbito cuántico. En el marco clásico se calcula la función de partición del sistema para evaluar todas cantidades termodinámicas posibles. Von Neumann introdujo la matriz densidad en el contexto de estados y operadores en un espacio de Hilbert. El conocimiento de la matriz densidad serviría para poder calcular todos los valores esperados de una manera conceptualmente similar, pero matemáticamente diferente. Sea un conjunto de funciones de onda que dependen paramétricamente de un conjunto de números cuánticos . La variable natural es la amplitud con la que una función de ondas particular del conjunto participa en la función de ondas del sistema. Denotando el cuadrado de esta amplitud por , el objetivo es convertir esta cantidad p a la función de densidad clásica en el espacio de fases clásico. Hay que verificar que p tienda a la función de densidad en el límite clásico, y que tenga propiedades ergódicas. Trase comprobar que es una constante del movimiento, suponer la ergodicidad hace que p dependa solo de la energía. Después de este procedimiento, finalmente se llega al formalismo de la matriz densidad al buscar una forma en la que sea invariante con respecto a la representación utilizada. En la forma en la que está escrita, solo se obtienen los valores esperados correctos para cantidades que sean diagonales con respecto a los números cuánticos . Los valores esperados de operadores que no sean diagonales involucran las fases de las amplitudes cuánticas. Si codificamos los números cuánticos en un único índice , la función de onda tiene la forma El valor esperado de un operador que no es diagonal en estas funciones de onda es El papel que antes tenían las cantidades ahora le corresponde a la matriz densidad Por tanto, queda como La invariancia de esta fórmula está garantizada por el álgebra lineal. Se ha establecido una formulación matemática en la que los valores esperados se obtienen como la traza del operador de densidad y un operador (el producto escalar de Hilbert de dos operadores). Matemáticamente, es una matriz hermítica semidefinida positiva con traza unidad. DefiniciónDada la matriz densidad , von Neumann definió la entropía[4][5] como que es una extensión apropiada de la entropía de Gibbs (salvo un factor ) y la entropía de Shannon al caso cuántico. Para calcular es conveniente calcular su diagonalización . En este caso, la entropía de von Neumann está dada por Como para un estado puro, la matriz densidad es idempotente, , la entropía se anula. Así, si el sistema es de dimensión finita, la entropía cuantifica la diferencia del sistema con respecto de un estado puro. En otras palabras, codifica el grado de mezcla de los estados puros que describen un sistema finito dado. La medición crea decoherencia en un sistema cuántico y lo "hace más clásico"; así, por ejemplo, la entropía nula de un estado puro , al que corresponde una matriz densidad aumenta hasta para la mezcla resultante de la medida ya que la información sobre interferencia cuántica se borra en el proceso de medición. PropiedadesAlgunas propiedades de la entropía de von Neumann:
SubaditividadSi ρA, ρB son las matrices de densidad reducidas del estado ρAB, entonces La desigualdad de la derecha recibe el nombre de subadividad, y las dos desigualdades juntas se conocen como la desigualdad triangular. Fueron probadas en 1970 por Huzihiro Araki y Elliott H. Lieb.[6] Mientras en la teoría de Shannon la entropía de un sistema compuesto nunca puede ser menor que la entropía de cualquiera de sus partes, en la teoría cuántica este no es el caso, es decir, es posible que , mientras que . Intuitivamente, esto se puede entender así: En mecánica cuántica, la entropía del sistema conjunto puede ser menor que la suma de la entropía de sus componentes porque los componentes pueden estar entrelazados. Por ejemplo, el estado de Bell de dos qubits, es un estado puro con cero entropía, pero cada espín tiene la entropía máxima cuándo se considera individualmente su matriz de densidad reducida.[7] La entropía en un espín puede ser "cancelada" por estar correlacionada con la entropía del otro. La desigualdad izquierda puede interpretarse aproximadamente como que la entropía solo puede ser cancelada por una cantidad igual de entropía. Si los sistema A y B tiene cantidades diferentes de entropía, la menor solo se puede compensar parcialmente con la mayor, y queda alguna entropía residual. Así mismo, la desigualdad de la derecha puede ser interpretada como que la entropía de un sistema compuesto es máxima cuando sus componentes no están correlacionados, y en este caso la entropía total es la suma de las entropías de los componentes. UsosLa entropía de von Neumann se usa extensamente en formas diferentes (entropías condicionales, entropías relativas, etc.) en el marco de la teoría de información cuántica.[8] Las medidas de entrelazamiento están basadas a alguna cantidad directamente relacionada con la entropía de von Neumann. Véase tambiénReferencias
|