Einzelnen Beitrag anzeigen
  #1  
Alt 18.06.08, 20:02
hhmoeller hhmoeller ist offline
Newbie
 
Registriert seit: 17.08.2007
Beitr?ge: 25
Standard Entropie in der Informationstheorie

Paul Davies beschreibt in So baut man eine Zeitmaschine unter der Überschrift So holt man Wissen aus dem Nichts ein interessantes Paradoxon:

Die folgende Parabel illustriert das verblüffendste aller Paradoxa von Zeitreisen. Ein Professor baut im Jahr 2005 eine Zeit- maschine und beschließt, in das Jahr 2010 in die Zukunft zu reisen (hier gibt es kein Problem). Nach seiner Ankunft macht er die Universitätsbibliothek ausfindig und überfliegt die aktuellen Zeitschriften. In der mathematischen Abteilung bemerkt er ein brillantes neues Theorem und notiert sich dessen Einzelheiten. Dann kehrt er in das Jahr 2005 zurück, ruft einen intelligenten Studenten zu sich und schildert ihm das Theorem in Umrissen. Der Student setzt sich hin, bringt Ordnung in den Gedankengang, schreibt eine Arbeit und veröffentlicht sie in einer Fachzeitschrift für Mathematik. Es war natürlich genau diese Zeitschrift, in der der Professor 2010 den Aufsatz gelesen hatte.
Auch hier gibt es keinen Widerspruch: Die Geschichte enthält eine konsistente kausale Schleife, weshalb strenggenommen kein Paradoxon vorliegt, sondern einfach nur eine sehr absonderliche Angelegenheit. Das Problem bezieht sich vielmehr auf den Ursprung der Information. Wo stammte das Theorem ursprünglich her? Nicht von dem Professor, denn der hat es lediglich in der Zeitschrift gelesen. Von dem Studenten jedoch auch nicht, da er es von dem Professor bekam. Es scheint, als wäre die Information über das Theorem einfach aus dem Nichts aufgetaucht.


Gibt es in der Informationstheorie einen Entropiesatz, der ein informationelles Perpetuum Mobile verbietet?
Mit Zitat antworten