Zitat:
Zitat von RoKo
Hallo eigenvector,
Anzahl ungleich Informationsmenge!
Wenn ein physisches System sich im Zustand S=k ln A , mit A def. Anzahl der moeglichen Mikrozustaende befindet, dann bringt die Analogie zur Shannon-Entropie zum Ausdruck, wieviel Bits man benoetigt, um A zu speichern oder zu uebertragen.
|
Wenn du ein mikrokanonisches Ensemble betrachtest, dann ist die Anzahl der möglichen Mikrozustände schon die gesamte benötigte Menge an Information.
Die von-Neumann Entropie gilt aber nicht nur für mikrokanonische Ensembles und dann reicht die Anzahl alleine nicht mehr.
Zitat:
Zitat von RoKo
Die Informationsmenge eines der moeglichen Zustaende ist hingegen
N * 3 Ortskoordinaten + Wellenfunktion
oder klassisch
N * 6 Orte+Impulse
mit einer Genauigkeit der Planck-Laenge.
|
Wenn man sich bereits auf die Wahl einer Basis geeinigt hat, braucht man diese ganzen Informationen nicht.