Quanten.de Diskussionsforum  

Zur?ck   Quanten.de Diskussionsforum > Quantenmechanik, Relativitätstheorie und der ganze Rest.

Hinweise

Quantenmechanik, Relativitätstheorie und der ganze Rest. Wenn Sie Themen diskutieren wollen, die mehr als Schulkenntnisse voraussetzen, sind Sie hier richtig. Keine Angst, ein Physikstudium ist nicht Voraussetzung, aber man sollte sich schon eingehender mit Physik beschäftigt haben.

Antwort
 
Themen-Optionen Ansicht
  #11  
Alt 13.03.12, 11:53
Benutzerbild von JoAx
JoAx JoAx ist offline
Singularität
 
Registriert seit: 05.03.2009
Beitr?ge: 4.324
Standard AW: Unzerstörbare Information

Hi amc!

Wilkommen im Forum bruzzito!

Zitat:
Zitat von amc Beitrag anzeigen
kann man sagen, dass Informationserhaltung auch eine zwingende Folge der Erhaltungssätze ist? Welche gibt es da - Energieerhalt, Ladungserhalt, Impulserhalt?
Ich denke, aus der Sicht der QM sollte es genau umgekehrt betrachtet werden - Die einzelnen Erhaltungssätze, auch der klassischen Mechanik, wären eine Folge der Informationserhaltung. Jedenfalls denke ich, dass es ein gutes Beispiel dafür ist, um welche "Information" es dabei geht. Nicht um geschriebenes Wort halt.


Gruß, Johann
Mit Zitat antworten
  #12  
Alt 13.03.12, 13:43
Hawkwind Hawkwind ist offline
Singularität
 
Registriert seit: 22.07.2010
Ort: Rabenstein, Niederösterreich
Beitr?ge: 3.063
Standard AW: Unzerstörbare Information

Aus Sicht der Thermodynamik nimmt die Entropie des Universums beständig zu, d.h. die Unordnung steigt bzw. die Ordnung sinkt. Das entspricht einem Informationsverlust, denn Information basiert auf Ordnung.
Jede Entropieerhöhung entspricht einem Informationsverlust.
Mit Zitat antworten
  #13  
Alt 13.03.12, 13:52
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Unzerstörbare Information

Hi Joax

Zitat:
Jedenfalls denke ich, dass es ein gutes Beispiel dafür ist, um welche "Information" es dabei geht. Nicht um geschriebenes Wort halt.
Das ist ein gutes Beispiel.
Nehmen wir das geschrieben Wort. Und wenn wir die Anzahl Buchstaben kennen incl Leerzeichen und eine Nachricht empfangen und die Auftrittswahrscheinlichkeiten darin messen, dann kennen wir den Shannonschen Informationsgehalt.
Oder wir wandeln das Alphabet in Asci Code und dann Binaercode. So arbeitet ja die Kiste vor uns. Dann wird das noch deutlicher. Und ich meine ein Megabyte wiegt nunmal nichts. Daher ist fuer mich Information abstrakt, nichtphysikalisch weil nicht waegbar. Ich weiss man hoert es nicht gerne hioer. Dieses Wort abstrakt.
Ein Knetwuerfel hat 6 Seiten und jede eine Wahrscheinlichkeit. Der Wurfel ist waegbar, dass er 6 Seiten hat nicht. Warum sollte sich am Gewicht etwas aendern wenn ich den Knetwuerfel aufteile und zwei Knetwuerfel draus mache ? Kernspaltung ist dabei ausgeschlossen. Dann habe ich zweimal die selbe Wahrscheinlichkeitsverteilung und zusammen muessten beide Verteilungen doppelt so viel wiegen. Und das widerspricht der Massenerhaltung. Wenn Information physikalisch waere hat sie sich aber an die Erhaltungssaetze zu richten.
Ich finde es unglaublich dass diese bei Wiki wie Energie eingetragen ist :-) Entropie dagegen ist physikalisch.

Und was ganz anderes ist, ob es Spass macht das Buch zu lesen. Ob wir danach mehr wissen. Das gehoert alles zum semantischen Informationsgehalt. Zum Bedeutungsinhalt, zur qualitativen Logik. Und darueber wissen wir in der Tat wenig.
Und in dem Entropie Film von Prof Lesch der wirklich empfehlenswert ist, da finde ich das Beispiel mit dem neuen Kartenspiel nicht so gut. Denn da interpretieren wie semantische Information hinein. Weil das was ganz besonderes ist dass die Karten so schoen geordnet ist. Beim Kartenspiel kannst du nicht 2 mal das Kreuz Ass anordnen weil es nur ein Kreuz Ass gibt. Und so hat jede Anordnung den selben Infogehalt. IMHO
So erklaert das Lesch aber nicht. Er meint das frische Kartenspiel haette die niedrigste Entropie. Hab extra nochmal angeschaut.
Oder liege ich hier falsch. Es gibt doch keine 2 gleichen Karten ausser man laesst die Farben weg. Dann ist es anders.

Es waere ein Trugschluss zu meinen nur weil semantische Information selbstverstaendlich voellig abstrakt waere dass deshalb shannonsche information physikalisch waere, nur weil ich sie messen kann. Ich kann sie nur messen wenn es da z.B. 6 Wuerfelseiten gibt. Ich kann sie aber nicht auswiegen. Und genauso kann ich einen Mensch nach sinngehalten fragen und diesen messen und bewerten, Aber damit wird die semantische Information selbst kein Deut physikalischer. Beides ist abstrakt. Nicht nur die semantische Information.

Gruesse

Ge?ndert von richy (13.03.12 um 14:10 Uhr)
Mit Zitat antworten
  #14  
Alt 13.03.12, 13:58
Philipp Wehrli Philipp Wehrli ist offline
Profi-Benutzer
 
Registriert seit: 04.07.2009
Ort: Winterthur
Beitr?ge: 255
Standard AW: Unzerstörbare Information

Zitat:
Zitat von Hawkwind Beitrag anzeigen
Aus Sicht der Thermodynamik nimmt die Entropie des Universums beständig zu, d.h. die Unordnung steigt bzw. die Ordnung sinkt. Das entspricht einem Informationsverlust, denn Information basiert auf Ordnung.
Jede Entropieerhöhung entspricht einem Informationsverlust.
Hier wird aber der Begriff 'Information' anders verwendet. Hier meinen wir, die Information, die wir aus dem System ablesen können. Wir betrachten also nur den makroskopischen Zustand. Wenn du den Zustand mikroskopisch exakt nachbauen musst, spielt der 2. Hauptsatz keine Rolle mehr.
Mit Zitat antworten
  #15  
Alt 13.03.12, 14:19
Hawkwind Hawkwind ist offline
Singularität
 
Registriert seit: 22.07.2010
Ort: Rabenstein, Niederösterreich
Beitr?ge: 3.063
Standard AW: Unzerstörbare Information

Zitat:
Zitat von Philipp Wehrli Beitrag anzeigen
Hier wird aber der Begriff 'Information' anders verwendet. Hier ... Wir betrachten also nur den makroskopischen Zustand. ...
"mikroskopischen Zustand" meinst du, oder?
Mit Zitat antworten
  #16  
Alt 13.03.12, 14:39
HolgerBuick HolgerBuick ist offline
Newbie
 
Registriert seit: 29.02.2012
Beitr?ge: 4
Standard AW: Unzerstörbare Information

Zitat:
Zitat von Hawkwind Beitrag anzeigen
Aus Sicht der Thermodynamik nimmt die Entropie des Universums beständig zu, d.h. die Unordnung steigt bzw. die Ordnung sinkt. Das entspricht einem Informationsverlust, denn Information basiert auf Ordnung.
Jede Entropieerhöhung entspricht einem Informationsverlust.
In der Informationstheorie ist das interessanterweise genau umgekehrt.
Eine Nachricht, in der einige Zeichen häufiger vorkommen als andere, lässt sich komprimieren. Im Extremfall enthält eine Binärfolge aus nur Einsen (oder Nullen) die geringste Informationsdichte. Beispiel:In einer ZIP-Datei liegen die Zeichen mit einer höheren Entropie vor, als im Ausgangstext. Die Informationsdichte ist zugleich höher.
Die Begriffe "Information" und "Entropie" haben hier möglicherweise eine andere Bedeutung?
Mit Zitat antworten
  #17  
Alt 13.03.12, 14:52
Hawkwind Hawkwind ist offline
Singularität
 
Registriert seit: 22.07.2010
Ort: Rabenstein, Niederösterreich
Beitr?ge: 3.063
Standard AW: Unzerstörbare Information

Zitat:
Zitat von HolgerBuick Beitrag anzeigen
In der Informationstheorie ist das interessanterweise genau umgekehrt.
Eine Nachricht, in der einige Zeichen häufiger vorkommen als andere, lässt sich komprimieren. Im Extremfall enthält eine Binärfolge aus nur Einsen (oder Nullen) die geringste Informationsdichte. Beispiel:In einer ZIP-Datei liegen die Zeichen mit einer höheren Entropie vor, als im Ausgangstext. Die Informationsdichte ist zugleich höher.
Die Begriffe "Information" und "Entropie" haben hier möglicherweise eine andere Bedeutung?
Ja, da scheint es wohl unterschiedliche Ansichten zu geben. Aus einer Seite der Uni Kiel
http://www.tf.uni-kiel.de/matwis/ama...ed/t5_3_2.html

Zitat:

Das bedeutet, dass eine Entropieerhöhung von 0,957 · 10–23 JK–1 in einen gegebenen System, genau ein bit an Information vernichtet. Und da die Entropie in einem abgeschlossenen System nicht abnehmen kann, kann auch keine Information spontan entstehen.

Das ist nicht nur "Theorie", sondern damit konnte Leo Szilard zum ersten Mal eines der berühmtesten offenen Probleme der Thermodynamik, den "Maxwellschen Dämon" erklären. Mal selbst Googeln; Stichworte: information entropie maxwell dämon.

Immerhin, irgendwie scheinen die gute alte Entropie und die noch recht junge und nicht sonderlich gut definierte Information zusammenzuhängen. Hat das was zu bedeuten? Wird die Informatik möglicherweise auch mal zu einem Untergebiet der Physik, so wie die Chemie?

Nichts genaues weiß man nicht. Es gibt berühmte Leute, die sehr konträre Ansichten vertreten. Atkins, z.B. hält das alles für trivial bis Blödsinn, während Penrose darin einen der Schlüssel für die künftige "neue" Physik sieht.
Mit Zitat antworten
  #18  
Alt 13.03.12, 16:02
RoKo RoKo ist offline
Guru
 
Registriert seit: 12.11.2009
Beitr?ge: 996
Blinzeln AW: Unzerstörbare Information

Hallo, Philipp,

Zitat:
Zitat von Philipp Wehrli Beitrag anzeigen
.. Wenn du den Zustand mikroskopisch exakt nachbauen musst, spielt der 2. Hauptsatz keine Rolle mehr.
Wie, bitteschön, baut mal einen Microzustand von, sagen wir mal bescheiden 10^20 Atomen nach? Die Technik würd ich glatt als Patent anmelden.

Hallo zusammen,

ein kleiner Nachtrag zum Informationsgehalt und Entropie:

Für mich erscheint die Entropie chinesischer Schriftzeichen, insbesondere, wnn sie handschriftlich dargeboten werden, ziemlich hoch und der Informationsgehalt tendiert gegen 0.
__________________
mit freundlichem Gruß aus Hannover

Unendliche Genauigkeit ist eine Illusion
Mit Zitat antworten
  #19  
Alt 13.03.12, 16:05
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Unzerstörbare Information

Eine gewisse Aehnlichkeit gibt es wohl schon :

Die waegbare Entropie S (Einheit J/K )Thermodynamik

Zitat:
Zitat von Wiki
Die Anzahl der Mikrozustände eines Makrozustands heißt sein „Statistisches Gewicht W“. Das W kann, wenn es sich um viele Teilchen in der Gasphase handelt, eine sehr große Zahl sein (im Gegensatz zur mathematischen Wahrscheinlichkeit), kann aber auch sehr klein werden, wenn starke Kräfte zwischen den Teilchen wirken (Nullpunktsentropie). Der natürliche Logarithmus des statistischen Gewichts W eines Zustands, multipliziert mit der Boltzmann-Konstante kB ergibt seine Entropie S:


Der ehemalige Schannonscher Informationsgehalt
nun die nichtwaegbare Entropie (H Einheit 1):

Zitat:
Zitat von Wiki
Entropie (nach dem Kunstwort εντροπία)[1] ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt.

Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication[2] und prägte damit die moderne Informationstheorie.


Zitat:
Zitat von Wiki
Anzahl der Möglichkeiten: N, damit ergibt sich für die Wahrscheinlichkeiten p_i = 1/N und für die Entropie
http://de.wikipedia.org/wiki/Entropi...ionstheorie%29

Vor einigen Jahren wurde das noch als shannonscher Informationsgehalt bezeichnet. Aber da Information nun ab und zu auch mal was wiegen muss und gleich Entropie ist kann man sich das ab sofort aussuchen. Ob Einheit 1 oder J/K So macht die neue Wiki verwechslungsfreie Sprache Spass. Einnert an 1984 oder Kurt

Zitat:
Zitat von Holger
Eine Nachricht, in der einige Zeichen häufiger vorkommen als andere, lässt sich komprimieren. Im Extremfall enthält eine Binärfolge aus nur Einsen (oder Nullen) die geringste Informationsdichte.
Dann ist die Auftrittswahrscheinlkichkeit p(i) gleich 1. Und der Informationsgehalt ld(1) gleich Null.
Ich meine was willst du da codieren :-)

Gruesse

Ge?ndert von richy (13.03.12 um 16:19 Uhr)
Mit Zitat antworten
  #20  
Alt 13.03.12, 16:15
Benutzerbild von JoAx
JoAx JoAx ist offline
Singularität
 
Registriert seit: 05.03.2009
Beitr?ge: 4.324
Standard AW: Unzerstörbare Information

Zitat:
Zitat von richy Beitrag anzeigen
...
Und ich meine ein Megabyte wiegt nunmal nichts. Daher ist fuer mich Information abstrakt, nichtphysikalisch weil nicht waegbar.
Das geht mir zu fix, richy.

Immerhin muss Energie aufgewendet werden, um die x-Byte "in die richtige Form" zu bringen. Der Computer ist thermodynamisch auch eine Heizung und kein Kühler.

Zitat:
Zitat von richy Beitrag anzeigen
Ein Knetwuerfel hat 6 Seiten und jede eine Wahrscheinlichkeit.
Wahrscheinlichkeit für was? Zu sein? Sein tun alle Seiten immer, schätze ich.

Zitat:
Zitat von richy Beitrag anzeigen
Der Wurfel ist waegbar, dass er 6 Seiten hat nicht.
...
Warum soll das eine Information sein, dass er 6 Seiten hat? Dass er 6 Seiten hat folgt aus bestimmten geometrischen Voraussetzungen (3D) und Bedingungen.
Ich denke , man kann hier nicht so "einfache" Schlußfolgerungen anstellen.
Ist "Geometrie" wägbar? War sie es auch vor RT? ...


Gruß
Mit Zitat antworten
Antwort

Lesezeichen


Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beitr?ge zu antworten.
Es ist Ihnen nicht erlaubt, Anh?nge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beitr?ge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 13:11 Uhr.


Powered by vBulletin® Version 3.8.8 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
ScienceUp - Dr. Günter Sturm