Quanten.de Diskussionsforum  

Zurück   Quanten.de Diskussionsforum > Quantenmechanik, Relativitätstheorie und der ganze Rest.

Hinweise

Quantenmechanik, Relativitätstheorie und der ganze Rest. Wenn Sie Themen diskutieren wollen, die mehr als Schulkenntnisse voraussetzen, sind Sie hier richtig. Keine Angst, ein Physikstudium ist nicht Voraussetzung, aber man sollte sich schon eingehender mit Physik beschäftigt haben.

Antwort
 
Themen-Optionen Ansicht
  #1  
Alt 18.06.08, 20:02
hhmoeller hhmoeller ist offline
Newbie
 
Registriert seit: 17.08.2007
Beiträge: 25
Standard Entropie in der Informationstheorie

Paul Davies beschreibt in So baut man eine Zeitmaschine unter der Überschrift So holt man Wissen aus dem Nichts ein interessantes Paradoxon:

Die folgende Parabel illustriert das verblüffendste aller Paradoxa von Zeitreisen. Ein Professor baut im Jahr 2005 eine Zeit- maschine und beschließt, in das Jahr 2010 in die Zukunft zu reisen (hier gibt es kein Problem). Nach seiner Ankunft macht er die Universitätsbibliothek ausfindig und überfliegt die aktuellen Zeitschriften. In der mathematischen Abteilung bemerkt er ein brillantes neues Theorem und notiert sich dessen Einzelheiten. Dann kehrt er in das Jahr 2005 zurück, ruft einen intelligenten Studenten zu sich und schildert ihm das Theorem in Umrissen. Der Student setzt sich hin, bringt Ordnung in den Gedankengang, schreibt eine Arbeit und veröffentlicht sie in einer Fachzeitschrift für Mathematik. Es war natürlich genau diese Zeitschrift, in der der Professor 2010 den Aufsatz gelesen hatte.
Auch hier gibt es keinen Widerspruch: Die Geschichte enthält eine konsistente kausale Schleife, weshalb strenggenommen kein Paradoxon vorliegt, sondern einfach nur eine sehr absonderliche Angelegenheit. Das Problem bezieht sich vielmehr auf den Ursprung der Information. Wo stammte das Theorem ursprünglich her? Nicht von dem Professor, denn der hat es lediglich in der Zeitschrift gelesen. Von dem Studenten jedoch auch nicht, da er es von dem Professor bekam. Es scheint, als wäre die Information über das Theorem einfach aus dem Nichts aufgetaucht.


Gibt es in der Informationstheorie einen Entropiesatz, der ein informationelles Perpetuum Mobile verbietet?
Mit Zitat antworten
  #2  
Alt 18.06.08, 20:36
Benutzerbild von Uranor
Uranor Uranor ist offline
Singularität
 
Registriert seit: 01.05.2007
Beiträge: 2.428
Standard AW: Entropie in der Informationstheorie

Für die Entropie steht der eindeutig gerichtete Zeitpfeil.
Das Superpositionsprinzip stellt für jeden beliebigen Messzeitpunkt nur eine mögliche Ortsrealisierung zur Verfügung.
Sämtliche Erhaltungssätze wären verletzt.
Das Paulische Ausschließungsprinzip ermöglicht im Kehrschluss genau einen Aufenthalt pro Messung.
Die Beobachtung steht ausschließlich für: "SF ist SF, bleibt SF!"
Die Vernunft sagt: "Danke, ich hab heut schon geschmunzelt!"

Gruß Uranor
__________________
Es genügt nicht, keine Gedanken zu haben. Man sollte auch fähig sein, sie auszudrücken.
Mit Zitat antworten
  #3  
Alt 18.06.08, 23:34
JGC JGC ist offline
Gesperrt
 
Registriert seit: 01.05.2007
Ort: ES
Beiträge: 3.276
Standard AW: Entropie in der Informationstheorie

Hi...


Ich behaupte, der Information ist die Entropie piepegal!!


Sie ist immer schon dagewesen, wie und wo man sie findet spielt keine Rolle, solange man den Ort betreten kann, wo man sie erhält(außer, das man vielleicht nicht die letztendlichen Konsequenzen ermessen kann, die so ein Informationserhalt mit sich bringt. Vielleicht baut ja jemand damit versehentlich eine Weltvernichtungsmaschine, weil er denkt, er würde einen prima atomgetriebenen Entsafter bauen)


JGC
Mit Zitat antworten
  #4  
Alt 19.06.08, 00:24
JGC JGC ist offline
Gesperrt
 
Registriert seit: 01.05.2007
Ort: ES
Beiträge: 3.276
Standard AW: Entropie in der Informationstheorie

Fortschreitende Auflösung der Ordnung?

Ich könnte ja einen Wiki-Link jetzt hinschreiben, aber wozu...

JGC
Mit Zitat antworten
  #5  
Alt 19.06.08, 07:58
Benutzerbild von Uranor
Uranor Uranor ist offline
Singularität
 
Registriert seit: 01.05.2007
Beiträge: 2.428
Standard AW: Entropie in der Informationstheorie

Zitat:
Zitat von JGC Beitrag anzeigen
Vielleicht baut ja jemand damit versehentlich eine Weltvernichtungsmaschine, weil er denkt, er würde einen prima atomgetriebenen Entsafter bauen)
Wäre die Welt entsaftbar, wäre sie von den Dinos damals in der Not ausgesaugt worden... Ein atombetriebener Weltentsafter? Diene lustige Phanthasie ist unüberbietbar.
__________________
Es genügt nicht, keine Gedanken zu haben. Man sollte auch fähig sein, sie auszudrücken.
Mit Zitat antworten
  #6  
Alt 19.06.08, 09:04
JGC JGC ist offline
Gesperrt
 
Registriert seit: 01.05.2007
Ort: ES
Beiträge: 3.276
Standard AW: Entropie in der Informationstheorie

Hör mal EMI

Wenn du mich nur für blöde verkaufen willst, dann sprich nicht mit mir. OK?


JGC


zum Nachlesen... http://de.wikipedia.org/wiki/Entropie

Geändert von JGC (19.06.08 um 10:08 Uhr)
Mit Zitat antworten
  #7  
Alt 19.06.08, 11:42
rafiti rafiti ist offline
Gesperrt
 
Registriert seit: 22.11.2007
Beiträge: 673
Standard AW: Entropie in der Informationstheorie

Ich habe nen Extra-Anfertigung-Entsafter, dazu muß ich euch mal wieder die Vorgeschichte erzählen. . Also es war so, es war ein sonniger Tag, viel zu sonnig, um an Melonen zu denken, die Sonne knallte runter (mit 9.58c), was passiert, wenn es zu sonnig ist? klar, man hat Durst. Ich stellte fest, dass eine ganz Melone nicht in den Entsafter passte, klar, ich rief Johnny an, er erledigte das, nun passen 3 ganze Melonen rein.

gruss
rafiti
Mit Zitat antworten
  #8  
Alt 19.06.08, 11:59
Benutzerbild von Hamilton
Hamilton Hamilton ist offline
Profi-Benutzer
 
Registriert seit: 02.05.2007
Ort: Deutschland
Beiträge: 447
Standard AW: Entropie in der Informationstheorie

Die Entropie ist in der Informationstheorie sowas wie der Erwartungswert der Information.
Nach Tukey ist Information I = -log p, wobei die Basis erstmal egal ist und für die Einheit steht (ist sie 2, dann hat I die Einheit Bit, ist sie e, dann nennt man das "nats")

p ist hier die Wahrscheinlichkeit mit der ein Ereignis eintritt.
Hat man z.B. eine Münze, dann ist die Kopf-W'keit 1/2, damit ist die Info aus einem Münzwurf genau 1 Bit.
Aus 10 Würfen können sich 2^10 Möglichkeiten ergeben, da die W'keit für jeden Wurf 1/2 bleibt, ist die Information = - log (1/2^10) = 10 bit.
Mit jedem Münzwurf steigt die Information an. Ist die W'keit für ein Ereignis 1, dann kann ich den Prozess so oft realisieren, wie ich will, die Information bleibt 0 (da schon vorher klar ist, wie das Ergebnis sein wird)

Der Informationsbegrif aus der Inf.Theorie ist also was ganz anderes als unser alltäglicher Gebrauch des Wortes Information. Er sagt nämlich nichts über die Verwertbarkeit von Information aus, sondern eher etwas über die "Überrschung" über ein Ereeignis. Die Überraschung über ein Ereignis, dass sicher eintritt (I = -log (1) = 0) ist null, wärend die Information, dass ein total seltendes/unwahrscheinliches Ereignis eingetreten ist, sehr groß ist.

Die (Shannon-)Entropie ist der Erwartungswert der Information, H = - SUMME { p log p }
Sie kann interpretiert werden als Unsicherheit über den Ausgang eines Zufallsexperimentes (deren Verteilung man kennt).
Betrachten wir z.B. zwei User eines Internetforums. Der eine schreibt immer das selbe und benutzt oft die gleichen Wörten (z.B. "Einstein, doof, falsch, unlogisch ...), der andere neigt nicht zu Polemik, schreibt deshalb nur, wenn es etwas interessantes zu sagen gibt, wiederholt sich nicht ständig und benutzt auch einen reicheren Wortschatz.
Jetzt kann man z.B. ein Histogramm anfertigen über alle Wörter, die die beiden benutzt haben- ein Historgramm ist ja ein Schätzer für die W'keiten der Wörter, also hat man p(wort) für beide und kann die Entropie ausrechnen. Dabei wird sich vermutlich ergeben, dass der zweite User eine deutlich höhere Entropie hat als der erste, was bedeutet, dass er mehr Information generiert.
Wenn ich die beiden also nicht selbst kenne, sondern nur ihre Entropien, würde ich zweifellos eher die Beiträge von User Nr.2 lesen.

(Ein dritter User, der rein zufällige Nonsenswörter schreibt, wie ghkgfhk etc... und dabei eine große Vielfalt walten lässt, hätte zweifellos eine noch viel höhere Entropie, also Vorsicht bei der Interpretation)

Wie man das jetzt mit der Zeit zusammenbringt und deine Frage beantwortet überlasse ich jetzt den anderen. Ich bin der Meinung, dass für das, was dich eigentlich interessiert, die Entropie dich nicht weiter bringt.
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun."
Richard P. Feynman
Mit Zitat antworten
  #9  
Alt 19.06.08, 12:04
hhmoeller hhmoeller ist offline
Newbie
 
Registriert seit: 17.08.2007
Beiträge: 25
Standard AW: Entropie in der Informationstheorie

Zitat:
Zitat von JGC Beitrag anzeigen
Ich behaupte, der Information ist die Entropie piepegal!!
Falsch geraten.

Mit Wikipedia wäre das nicht passiert.
Mit Zitat antworten
  #10  
Alt 19.06.08, 12:12
Benutzerbild von George
George George ist offline
Profi-Benutzer
 
Registriert seit: 16.10.2007
Beiträge: 122
Standard AW: Entropie in der Informationstheorie

Zitat:
Zitat von hhmoeller Beitrag anzeigen
Paul Davies beschreibt in So baut man eine Zeitmaschine unter der Überschrift So holt man Wissen aus dem Nichts ein interessantes Paradoxon:

Die folgende Parabel illustriert das verblüffendste aller Paradoxa von Zeitreisen. Ein Professor baut im Jahr 2005 eine Zeit- maschine und beschließt, in das Jahr 2010 in die Zukunft zu reisen (hier gibt es kein Problem). Nach seiner Ankunft macht er die Universitätsbibliothek ausfindig und überfliegt die aktuellen Zeitschriften. In der mathematischen Abteilung bemerkt er ein brillantes neues Theorem und notiert sich dessen Einzelheiten. Dann kehrt er in das Jahr 2005 zurück, ruft einen intelligenten Studenten zu sich und schildert ihm das Theorem in Umrissen. Der Student setzt sich hin, bringt Ordnung in den Gedankengang, schreibt eine Arbeit und veröffentlicht sie in einer Fachzeitschrift für Mathematik. Es war natürlich genau diese Zeitschrift, in der der Professor 2010 den Aufsatz gelesen hatte.
Auch hier gibt es keinen Widerspruch: Die Geschichte enthält eine konsistente kausale Schleife, weshalb strenggenommen kein Paradoxon vorliegt, sondern einfach nur eine sehr absonderliche Angelegenheit. Das Problem bezieht sich vielmehr auf den Ursprung der Information. Wo stammte das Theorem ursprünglich her? Nicht von dem Professor, denn der hat es lediglich in der Zeitschrift gelesen. Von dem Studenten jedoch auch nicht, da er es von dem Professor bekam. Es scheint, als wäre die Information über das Theorem einfach aus dem Nichts aufgetaucht.


Gibt es in der Informationstheorie einen Entropiesatz, der ein informationelles Perpetuum Mobile verbietet?
Nun ja, in dem Beispiel gibt es doch einen kleinen Fehler. Der Professor reist wieder in das Jahr 2005 zurück. Nach der ART sind ja Überlichtgeschwindigkeiten im direktem Sinne nicht möglich, ein Körper kann sich somit nicht in einer negativen Zeit bewegen (Deswegen kann die Zeit erst garnicht negativ werden, weil die Masse des Körpers zu hoch wird, um angetrieben werden zu können).

Dein Beispiel ist meiner Meinung nach ein weiterer Beweis, das die ART stimmt. Eine Information kann ja schließlich nicht aus dem Nichts kommen. Und daher sind Reisen in die Vergangenheit nicht möglich...

Gruß, George
Mit Zitat antworten
Antwort

Lesezeichen

Themen-Optionen
Ansicht

Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beiträge zu antworten.
Es ist Ihnen nicht erlaubt, Anhänge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beiträge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 00:40 Uhr.


Powered by vBulletin® Version 3.8.8 (Deutsch)
Copyright ©2000 - 2019, vBulletin Solutions, Inc.
ScienceUp - Dr. Günter Sturm