PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Entropie (nach Shannon) übertragbar auf Massen der Elementarteilchen?


amc
28.06.13, 01:18
Hi liebe Leute, :)

ich frage mich, ob sich das Prinzip, Entropie (der Informtionstheorie nach Shannon) proportional zum Überraschungswert (Unwahrscheinlichkeit des Eingetroffenen), irgendwie auf die Massen der Elementarteilchen übertragen lässt?

Bzw. lässt sich dieser Zusammenhang sogar irgendwo ablesen? (Wenn wir die eng verwandte Entropie der Physik betrachten)? Oder ist das ein alter Hut, nur keiner spricht drüber und einem (mir) ist das nicht bewusst?


Gilt vielleicht sogar immer:

Je unwahrscheinlicher ein Ereignis / Objekt war, was eingetroffen ist (entstanden), desto massereicher ist es dann ?


Grüße, amc

P.S. Wollte ich häufiger schon mal ansprechen. Denke heute ist ein guter Tag / NAcht.

Hawkwind
28.06.13, 10:19
Je unwahrscheinlicher ein Ereignis / Objekt war, was eingetroffen ist (entstanden), desto massereicher ist es dann ?


Das sehe ich eher umgekehrt: in einem Prozess, in welchem konkurrierend ein leichtes oder ein schwereres Teilchen erzeugt werden können, ist die Wahrscheinlichkeit für das leichtere immer höher (wenn die Bedingungen ansonsten gleich sind). Das liegt daran, dass das leichtere einfach mehr Endzustände einnehmen kann (es kann auch mit höheren Geschwindigkeiten erzeugt werden als das schwere). Der "Fachmann" sagt, der Phasenraum des leichteren ist größer und das wirkt sich zwangsläufig unmittelbar auf die Wahrscheinlichkeit aus.

Also: je massereicher ein Objekt, desto schwieriger (unwahrscheinlicher) ist dessen Erzeugung.

Timm
28.06.13, 13:05
Zitat von amc
Je unwahrscheinlicher ein Ereignis / Objekt war, was eingetroffen ist (entstanden), desto massereicher ist es dann ?



Also: je massereicher ein Objekt, desto schwieriger (unwahrscheinlicher) ist dessen Erzeugung.
Mir ist der Unterschied nicht klar. Massereicher korrespondiert mit unwahrscheinlicher.

Gruß, Timm

Hawkwind
28.06.13, 15:12
Mir ist der Unterschied nicht klar. Massereicher korrespondiert mit unwahrscheinlicher.

Gruß, Timm

Was ich meine, ist ganz simpel. :)

Schau dir beispielsweise die Betazerfälle des tauon an:

tau -> electron + antineutrino


Dieser Zerfall ist viel häufiger als der analoge in das Myon

tau -> myon + antineutrino


Das liegt daran, dass der Impulsraum für ein Elektron im Endzustand viel größer ist. Der entsprechende Prozess für das Myon "verbrät" eben schon mehr Energie für die Erzeugung der größeren Ruhemasse und es bleibt weniger für Impulsraum bzw. Endzustände.

In die Berechnung von Messgrößen (Breite oder sonstige Wahrscheinlichkeiten) geht immer ein Integral über den Impuls des auslaufenden Teilchen ein.

==> Die Erzeugung eines Elektrons beim Zerfall eines Tauons ist also weit wahrscheinlicher als die eines Myons.

Gruss,
Hawkwind

Timm
28.06.13, 17:16
Danke Uli,

Ich hatte das schon so aufgefasst. Mir ist nicht klar, weshalb Du amc's statement eher umgekehrt siehst. Wahrscheinlich stehe ich auf dem Schlauch, mir scheint, Ihr sagt dasselbe.:confused:

Gruß, Timm

amc
28.06.13, 19:26
mir scheint, Ihr sagt dasselbe.:confused:

Yappsi, das tuen wir wohl. :)

Verstehe dich so, Uli, wie ich es eigentlich hören wollte. Das freut mich schon mal.


Grüße, amc

Marco Polo
28.06.13, 22:27
Hi,

also ich sehe es auch so, dass ihr beide das selbe sagt.

Nur finde ich die Formulierung von Uli besser.

amc:
Je unwahrscheinlicher ein Ereignis / Objekt war, was eingetroffen ist (entstanden), desto massereicher ist es dann ?

Hawkwind:
Also: je massereicher ein Objekt, desto schwieriger (unwahrscheinlicher) ist dessen Erzeugung.

Ansonsten sind beide Aussagen imho deckungsgleich.

Nächtle

Jogi
28.06.13, 23:37
amc:
Je unwahrscheinlicher ein Ereignis / Objekt war, was eingetroffen ist (entstanden), desto massereicher ist es dann ?
Aber nur, wenn man ausschließlich die Masse als Kriterium heranzieht.

Ansonsten gilt eben Shannon:
Die Wahrscheinlichkeit des Auftretens eines Objektes/Ereignisses sinkt mit steigendem Informationsgehalt...
...was auch nicht ganz korrekt ist, es sollte heißen: mit steigender Anzahl von Zuständen, die das System (Objekt/Ereignis) annehmen kann.

Masse allein hat einen sehr begrenzten Informationsgehalt.:D

Hawkwind
29.06.13, 14:21
Hi,

also ich sehe es auch so, dass ihr beide das selbe sagt.

Nur finde ich die Formulierung von Uli besser.

amc:
Je unwahrscheinlicher ein Ereignis / Objekt war, was eingetroffen ist (entstanden), desto massereicher ist es dann ?

Hawkwind:
Also: je massereicher ein Objekt, desto schwieriger (unwahrscheinlicher) ist dessen Erzeugung.



So besagt es die Theorie: die Masse ist in den Formeln Input und die Wahrscheinlichkeit Output, d.h. eine Vorhersage.

Timm
29.06.13, 16:08
Mir scheint Uli's Version ziemlich allgemeingültig zu sein.

Die Entropie Schwarzer Löcher ist proportional zur Masse. Je größer es ist, desto unwahrscheinlicher ist seine Entstehung.
In diesem Zustand hat Masse den höchstmöglichen Informationsgehalt.

amc
03.07.13, 10:38
Schon mal vielen Dank für eure Beiträge. Alles sehr interessant für mich.

Ich kam darauf, weil z.B. die Entropie eines Würfelergebnisses von der Anzahl Seiten des Würfels abhängt. (zb. sechsseitiger oder zwanzigseitiger Würfel)

Das bedeutet, mehr Seiten = geringere Wahrscheinlichkeit jedes möglichen Ergebnisses = höhere Entropie im Ergebnis.

Also entscheidet "über den Wert (oder das Gewicht)" einer Botschaft, die Anzahl Zustände, die der Träger der Botschaft, hier der Würfel, einnehmen kann.

Und dann dachte ich einfach, ob es nicht ein sinnvoller Ansatz ist, bei der Frage, warum die Elementarteilchen genau die Masse haben, die Sie nach den bestätigten Messungen immer haben, auch immer die Frage nach dem Überraschungswert zu bedenken.

So in die Richtung .. Hoffe irgendwann mehr Zeit und Verständnis dafür zu finden. Dachte einfach, ich schreibs trotzdem mal.


Die Entropie Schwarzer Löcher ist proportional zur Masse. Je größer es ist, desto unwahrscheinlicher ist seine Entstehung.
In diesem Zustand hat Masse den höchstmöglichen Informationsgehalt.

Hi Timm,

denke, vielleicht ist hier "Informationsdichte" besser. Genau wie ich wohl auch statt "Gesamtenergie", immer von der Energiedichte sprechen sollte. ;)

Finde den ZUstand Schwarzer Löcher auch sehr interessant. Und vor allem, dass sich dieses holografische Prinzip möglicherweise auch auf unser Universum übertragen lässt. Dann wächst mit der Expansion auch der Informationsgehalt - ist es dann möglicherweis die Information, die unser "All" aufbläst?


Grüße an euch alle und thx,

amc

amc
09.07.13, 11:31
Das sehe ich eher umgekehrt
[...]
Also: je massereicher ein Objekt, desto schwieriger (unwahrscheinlicher) ist dessen Erzeugung.

Egal wie rum Uli, das Prinzip bleibt ja erstmal gleich. Auch du beschreibstes es ja als grundlegend. Nur darum gings mir (hier). Also auch um ein (etwas) besseres Versändnis zwischen Entropie in der Physik und in der Informationstheorie. (Denke das lohnt sich. Wenn man(n) nur nicht so faul wäre. Haha ;))

Grüße, Christian

Hawkwind
09.07.13, 12:16
Egal wie rum Uli, das Prinzip bleibt ja erstmal gleich. Auch du beschreibstes es ja als grundlegend.


Die Grundlage ist einfach Energie-/Impuls-Erhaltung.

RoKo
10.07.13, 18:42
Hallo amc,

nur so am Rande - Shannons "Mathematische Theorie der Kommunikation" hat mit .. Informationstheorie. ..nichts zu tun.

eigenvector
10.07.13, 20:20
Hallo amc,

nur so am Rande - Shannons "Mathematische Theorie der Kommunikation" hat mit nichts zu tun.

Das ist falsch.
Der Titel von Shannons Arbeit lautet zwar "The mathematical theory of communication", die korrekte deutsche Übersetzung ist aber "Mathematische Grundlagen der Informationstheorie".
Das liegt daran, dass in der deutschen Sprache der Begriff "Kommunikationstheorie" schon mit einer anderen Bedeutung belegt ist.

amc
10.07.13, 20:28
http://de.wikipedia.org/wiki/Informationstheorie

RoKo
11.07.13, 03:41
Das ist falsch.
Der Titel von Shannons Arbeit lautet zwar "The mathematical theory of communication", die korrekte deutsche Übersetzung ist aber "Mathematische Grundlagen der Informationstheorie".
Das liegt daran, dass in der deutschen Sprache der Begriff "Kommunikationstheorie" schon mit einer anderen Bedeutung belegt ist.Das ist falsch.

Die Shannonsche Theorie handelt ausschliesslich vom Informationsgehalt von Nachrichten. Eine Nachricht setzt jedoch bereits voraus, dass der Sender eine Information hat, die er uebermitteln moechte. Daher ist es logisch falsch, den Begriff Information ueber ihre Codierung definieren zu wollen. Shannon selbst hat das auch nie getan.

Eine halbwegs brauchbare Auseinandersetzung mit dem Informationsbegriff findet sich z.B. hier: http://www.capurro.de/infovorl-kap3.htm

----
wenn ihr Interesse an diesem Thema habt, dann sollten wir dieses verschieben.

amc
11.07.13, 06:59
Shannon ist ein Bisschen so etwas wie der Godfather der IT. Zu sagen, das hätte nichts mit der / einer Informationstheorie zu tun, ist aberwitzig. :)

Wenn du berechnen willst / musst, wie du Nachrrichten / Informationen am effektivsten übertragen kannst, dann interessiert nur welche Daten / Information du übertragen musst und welche Technik dafür zur Verfügung steht. Das Wissen / die Informationen, die der Versender hat .., ist da natürlich absolut unbedeutend.

Ich ahne, aber weiß ehrlich mal wieder nicht so recht was du willst. Muss Dampf raus?

An IT-Schulen lernt man jedenfalls, dass Shannon mit seinen Beiträgen zur Informationstheorie wesentlichen Anteil hat. Und so stehts auch bei Wiki, zurecht. Nur du weeißt es offensichtlich wieder besser und verlkaufst es als Allgemeinwissen.

Es handelt sich ja hier um eine mathematisch / technische Informationstheorie und nicht um eine naturwissenschaftlich / physikalische. Gehts dir darum? Aber deshalb unterscheidet man ja zwischen Wissenschaften.

Grüße und Moin

eigenvector
11.07.13, 11:18
Das ist falsch.

Die Shannonsche Theorie handelt ausschliesslich vom Informationsgehalt von Nachrichten. Eine Nachricht setzt jedoch bereits voraus, dass der Sender eine Information hat, die er uebermitteln moechte. Daher ist es logisch falsch, den Begriff Information ueber ihre Codierung definieren zu wollen. Shannon selbst hat das auch nie getan.

Eine halbwegs brauchbare Auseinandersetzung mit dem Informationsbegriff findet sich z.B. hier: http://www.capurro.de/infovorl-kap3.htm

----
wenn ihr Interesse an diesem Thema habt, dann sollten wir dieses verschieben.

Das ist doch Quark.
Die Theorie heißt (zumindest in der deutschen Sprache) Informationstheorie, auch wenn du diesen Namen möglicherweise unpassend findest.

RoKo
16.07.13, 13:01
Hallo zusammen,
ich war ein paar Tage ohne Laptop in Urlaub.

Hallo amc,
Muss Dampf raus? Nein. Ich will lediglich auf Missverstaendnisse hinweisen, die aus einem durch fehlerhafte Uebersetzung entstandenen Informationsbegriff resultieren - wie diese: Timm: In diesem Zustand hat Masse den höchstmöglichen Informationsgehalt.Was ist mit dieser Aussage genau gemeint? Masse ist eine Eigenschaft eines Teilchens oder eines Koerpers oder auch eines Schwarzen Loches. Worueber diese Eigenschaft informieren koennte waere der Zahlenwert dieser Masse im Verhaeltnis zu einer Vergleichsmasse - mehr nicht.

oder diese:Dann wächst mit der Expansion auch der Informationsgehalt - ist es dann möglicherweis die Information, die unser "All" aufbläst?
Information ist mit Sicherheit keine Kraft.

Shannon ist ein Bisschen so etwas wie der Godfather der IT. Zu sagen, das hätte nichts mit der / einer Informationstheorie zu tun, ist aberwitzig.
Shannons Theorie ist fuer die heutige IT voellig bedeutungslos und ob sie auch fuer chinesische Schriftzeichen gilt, muesste erst einmal gezeigt werden. Fuer effektive Datenuebertragungen gibt es heute zahlreiche Komprimierungsalgorithmen, fuer die Shannons Theorie ebenfalls unzutreffend ist.

Timm
16.07.13, 17:46
ich war ein paar Tage ohne Laptop in Urlaub.

Was ist mit dieser Aussage genau gemeint?
Das sei Dir gegönnt.

Wenn Stück Materie in ein Schwarzes Loch fällt, dann übertrifft dessen Entropiezuwachs die Entropie des Stücks Materie um einen gigantischen Faktor.

Gruß, Timm

Bauhof
16.07.13, 18:21
Wenn Stück Materie in ein Schwarzes Loch fällt, dann übertrifft dessen Entropiezuwachs die Entropie des Stücks Materie um einen gigantischen Faktor.

Hallo Timm,

warum ist das so, dass der Entropiezuwachs des Schwarzen Loches größer ist als die Entropie des verschluckten Stücks Materie? Gibt es dafür eine deutschsprachige Quelle?

M.f.G. Eugen Bauhof

amc
16.07.13, 19:40
Information ist mit Sicherheit keine Kraft.

Ich denke schon, würde diese Kraft Gravitation nennen.
Macht doch Sinn. So grob..

Grüße, amc

Timm
16.07.13, 22:15
Hallo Eugen,

warum ist das so, dass der Entropiezuwachs des Schwarzen Loches größer ist als die Entropie des verschluckten Stücks Materie? Gibt es dafür eine deutschsprachige Quelle?


die Zahl der Mikrozustände ist im SL maximal. Auf die Schnelle habe ich das (http://kwakuananse.de/http:/kwakuananse.de/archives/sind-raum-und-zeit-gequantelt/) gefunden, dazu sollte es aber reichlich Artikel geben,

Gruß. Timm

RoKo
17.07.13, 05:03
Hallo zusammen

Kwaku Anase:Da die Entropie zugleich ein Maß für die Information ist, die man durch Kenntnis des Mikrozustandes gewinnen könnte, bildet die Bekenstein-Grenze zugleich eine Obergrenze für die Information, die man in einem Raumbereich maximal unterbringen kann.


Die Gleichsetzung der Shannon-Entropie mit der physikalischen Entropie ist so, wie sie in obiger Aussage erfolgt, falsch.

Die Shannon-Entropie ist ein Mass fuer den Informationsverlust, den man erleidet, wenn man statt des gesendeten Zeichens einen Zufallswert empfaengt. Die physikalische Entropie ist zugleich ein Mass fuer die Anzahl der moeglichen Mikrozustaende, die mit einem bekannten Makrozustand vertraeglich sind. Die Gleichsetzung Anzahl der moeglichen Mikrozustaende = Informationsmenge ist unzulaessig, weil ein bekannter Mikrozustand nicht nur ein Bit ist, sondern weitere Informationen (klassisch: Orte und Impulse aller Teilchen) enthaelt.

Preisfrage:
Ich habe einem Zugvogel (der sich ueberall auf der Erde befinden koennte) einen Sender eingebaut, der mir im Sekundentakt Ort und Momentangeschwindigkeit sendet. Wie gross ist die Informationsmenge?

eigenvector
17.07.13, 10:04
Die Shannon-Entropie ist ein Mass fuer den Informationsverlust, den man erleidet, wenn man statt des gesendeten Zeichens einen Zufallswert empfaengt. Die physikalische Entropie ist zugleich ein Mass fuer die Anzahl der moeglichen Mikrozustaende, die mit einem bekannten Makrozustand vertraeglich sind. Die Gleichsetzung Anzahl der moeglichen Mikrozustaende = Informationsmenge ist unzulaessig, weil ein bekannter Mikrozustand nicht nur ein Bit ist, sondern weitere Informationen (klassisch: Orte und Impulse aller Teilchen) enthaelt.

Die Shannon-Entropie ist nicht nur für Bits definiert, sondern allgemein für Zufallsvariablen über einem diskreten Ereignisraum.
Die Shannon-Entropie dann noch auf kontinuierliche Zufallsvariablen zu erweitern ist ein Leichtes.

Tut man das, so ist bis auf einen konstanten Faktor die Shannon-Entropie formal identisch zur von-Neumann-Entropie.
Ich sehe nicht, wo da ein Problem bestehen sollte, eine Analogie herzustellen, denn das wird in der Tat ja auch häufig gemacht.

RoKo
18.07.13, 01:07
Hallo eigenvector,

..Ich sehe nicht, wo da ein Problem bestehen sollte, ..

Anzahl ungleich Informationsmenge!

Wenn ein physisches System sich im Zustand S=k ln A , mit A def. Anzahl der moeglichen Mikrozustaende befindet, dann bringt die Analogie zur Shannon-Entropie zum Ausdruck, wieviel Bits man benoetigt, um A zu speichern oder zu uebertragen.

Die Informationsmenge eines der moeglichen Zustaende ist hingegen
N * 3 Ortskoordinaten + Wellenfunktion
oder klassisch
N * 6 Orte+Impulse
mit einer Genauigkeit der Planck-Laenge.

eigenvector
18.07.13, 16:41
Hallo eigenvector,



Anzahl ungleich Informationsmenge!

Wenn ein physisches System sich im Zustand S=k ln A , mit A def. Anzahl der moeglichen Mikrozustaende befindet, dann bringt die Analogie zur Shannon-Entropie zum Ausdruck, wieviel Bits man benoetigt, um A zu speichern oder zu uebertragen.
Wenn du ein mikrokanonisches Ensemble betrachtest, dann ist die Anzahl der möglichen Mikrozustände schon die gesamte benötigte Menge an Information.
Die von-Neumann Entropie gilt aber nicht nur für mikrokanonische Ensembles und dann reicht die Anzahl alleine nicht mehr.

Die Informationsmenge eines der moeglichen Zustaende ist hingegen
N * 3 Ortskoordinaten + Wellenfunktion
oder klassisch
N * 6 Orte+Impulse
mit einer Genauigkeit der Planck-Laenge.
Wenn man sich bereits auf die Wahl einer Basis geeinigt hat, braucht man diese ganzen Informationen nicht.

RoKo
18.07.13, 16:56
Hallo eigenvector,
..Wenn man sich bereits auf die Wahl einer Basis geeinigt hat, braucht man diese ganzen Informationen nicht... weil man dann bereits Informationen hat.