Hallo zusammen
Zitat:
Kwaku Anase:Da die Entropie zugleich ein Maß für die Information ist, die man durch Kenntnis des Mikrozustandes gewinnen könnte, bildet die Bekenstein-Grenze zugleich eine Obergrenze für die Information, die man in einem Raumbereich maximal unterbringen kann.
|
Die Gleichsetzung der Shannon-Entropie mit der physikalischen Entropie ist so, wie sie in obiger Aussage erfolgt, falsch.
Die Shannon-Entropie ist ein Mass fuer den Informationsverlust, den man erleidet, wenn man statt des gesendeten Zeichens einen Zufallswert empfaengt. Die physikalische Entropie ist zugleich ein Mass fuer die Anzahl der moeglichen Mikrozustaende, die mit einem bekannten Makrozustand vertraeglich sind. Die Gleichsetzung Anzahl der moeglichen Mikrozustaende = Informationsmenge ist unzulaessig, weil ein bekannter Mikrozustand nicht nur ein Bit ist, sondern weitere Informationen (klassisch: Orte und Impulse aller Teilchen) enthaelt.
Preisfrage:
Ich habe einem Zugvogel (der sich ueberall auf der Erde befinden koennte) einen Sender eingebaut, der mir im Sekundentakt Ort und Momentangeschwindigkeit sendet. Wie gross ist die Informationsmenge?