Quanten.de Diskussionsforum

Quanten.de Diskussionsforum (http://www.quanten.de/forum/index.php5)
-   Quantenmechanik, Relativitätstheorie und der ganze Rest. (http://www.quanten.de/forum/forumdisplay.php5?f=3)
-   -   Entropie in der Informationstheorie (http://www.quanten.de/forum/showthread.php5?t=626)

richy 07.07.08 01:55

AW: Entropie in der Informationstheorie
 
@JGC
Information bezieht sich in der physikalischen und auch abstrakten Welt stets auf den shannonschen Informationsgehalt.
Auch wenn es auf meiner HP dazu einen anderen Ansatz gibt.
Mit diesem kann ich vieleicht vereinfacht die Semantik einer Information bestimmen.
Die Theorie hierzu bleibt aber wohl B.Heim und seiner aspektbezogenen Logok ueberlassen.

Hamilton 07.07.08 12:03

AW: Entropie in der Informationstheorie
 
@JGC,
ich weiß, das ist nicht leicht zu verstehen, wenn man nicht aus der Mathe-Stochastik-Ecke
kommt, aber Information im Sinne Shannons (und darüber reden wir hier) ist nicht vergleichbar mit der "Alltagsinformation", siehe dazu auch mein Posting in diesem Thread (kann man den eigentlich irgendwie verlinken?)

"Verwertbare Information" - was soll das sein? Es hängt ja immer vom Empfänger ab, ob ein Strom von Zeichen/Bits wie "DAS WETTER IST SCHÖN" interessant ist, oder nicht.
Jemand, der kein Deutsch kann, hat recht wenig davon. Jemand, der nicht weiß, wo ich wohne und wann ich das geschrieben habe, kann auch wenig damit anfangen.
Es hat schon seinen Sinn gehabt, dass sich Shannon nicht um Inhalte gekümmert hat.

Wenn der "Erwartungswert der Information" nicht "zufällig" Entropie genannt worden wäre, würde hier diese Frage vermutlich auch nie gestellt worden sein.

JGC 07.07.08 14:50

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hamilton (Beitrag 21974)
@JGC,


"Verwertbare Information" - was soll das sein? Es hängt ja immer vom Empfänger ab, ob ein Strom von Zeichen/Bits wie "DAS WETTER IST SCHÖN" interessant ist, oder nicht.
Jemand, der kein Deutsch kann, hat recht wenig davon. Jemand, der nicht weiß, wo ich wohne und wann ich das geschrieben habe, kann auch wenig damit anfangen.
Es hat schon seinen Sinn gehabt, dass sich Shannon nicht um Inhalte gekümmert hat.

Wenn der "Erwartungswert der Information" nicht "zufällig" Entropie genannt worden wäre, würde hier diese Frage vermutlich auch nie gestellt worden sein.

Hm... Lass mich es mal anders versuchen..

Der Empfänger, das ist ein Stichwort..

Überleg mal....

Ist denn nicht im Grunde jedes existierende Irgendwas ein Empfänger und ein Sender gleichzeitig??

Kleine "Irgendwasse" können in der Regel nur kurze Bewegungen ausführen und auch nur entsprechend kurze Wellenlängen emittern.. Große Irgendwasse bleiben von solch winzigen "Bitlängen" wohl unbeeindruckt und diese Informationen verschwinden ganz in der statistischen Wirkung(unbewusstes Wirken). Andere kleine Etwasse werden aber sicherlich davon beeindruckt, da sie von ihrer Größe her ähnlichen Dimensionen gleichen, und untereinander auch Resonanzen und gar Rückkopplungen ausbilden können("Verständige" Kommunikation unter den beiden gleichartigen Etwassen)

Ein großes Irgendwas kann über seine Langwelligkeit seiner "Informationsbits" wiederum kaum bis gar nicht auf kleinste Irgendwasse wirken, weil die erzeugten Schwingungen total weit voneinander im EM-Spektrum auseinander liegen..

Dieser Informationsaustausch findet also immer nur zwischen gleichartigen Sender/Empfänger statt oder auch mit großen Etwassen, die in der Lage sind, bestimmte Teilfrequenzen miteinander auszutauschen(also deren Schwingungsfrequenzen über die Lamda/4, 8, 16 , 32 usw. austauschen können.

Hast du z.B. eine Gitarre? Zupf an ihr ein paar einzelne Saiten mit unterschiedlichen Griffweiten..

Du wirst selbst sehen, das dabei verschiedentlich die anderen Saiten in Resonanz mitschwingen können und andere wieder nicht..

Und ich behaupte, das genau diese Fähigkeit entscheidet, ob ein Irgendwas mit einem anderen Irgendwas Informationen austauschen kann(in Resonanz treten) Was sie dabei tatsächlich miteinander austauschen, das soll tatsächlich mal egal sein, da es in erster Linie um Polaritäten, deren Ausrichtungen, um Positionsangaben, um ihre jeweiligen Stärken und deren jeweiligen Schwing/Bewegungsverhalten geht..

Aber mindestens wird offensichtlich, ob ein Austausch auf endothermer Basis oder exothermer Basis abläuft und die entsprechenden Sender/Empfänger jeweils auch einen "Gewinn" daraus ziehen können..(ein Etwas will Energie loswerden, ein anderes Etwas will Energie aufnehmen, um zu einer stabilen Existenz zu kommen..)

Und nur darum dreht sich meiner Ansicht nach die ganze Kommunikation der Massen oder was sonst noch in der Existenz rumschwirrt...

Um Stabilität.

Machen wir es denn in unserem Leben anders??


JGC

Uranor 07.07.08 15:42

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von JGC (Beitrag 21980)
Kleine "Irgendwasse" können in der Regel nur kurze Bewegungen ausführen und auch nur entsprechend kurze Wellenlängen emittern..

Überlege vielleicht ab und zu, was du sprichst. Es könnte ja durchaus was komplett paradoxes sein. :rolleyes:

ingeniosus 05.08.11 13:08

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von hhmoeller (Beitrag 21265)
Paradoxa von Zeitreisen .... Perpetuum Mobile ?

Beide Themen sind der populärwissenschaftlichen Science Fiction zuzuordnen.

Zeitreisen (Einsteins Zwillingsparadoxon) sind ein guter Werbegag A.Einsteins.

Wenn man sein Zwillingsparadoxon einmal exakt durchrechnet ist das klar.
Vor kurzem habe ich das (in meiner Home nachsehbar) gemacht.

Einsteins Verdienst ist aber, unsere mathematische Vorstellungskraft erweitert zu haben. Die Relativbewegungen ausserhalb unseres Planeten wären sonst nicht bewältigbar gewesen. So ist er ein geistiger Riese.

ingeniosus 28.08.11 19:48

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hamilton (Beitrag 21291)
Der Informationsbegrif aus der Inf.Theorie ist also was ganz anderes als unser alltäglicher Gebrauch des Wortes Information. Er sagt nämlich nichts über die Verwertbarkeit von Information aus, sondern eher etwas über die "Überrschung" über ein Ereeignis.


Jein, Hartley und Shannon - haben als erste die Unwahrscheinlichkeit=den Neuheitswert festgelegt. Hartley hat erstmals das Wort Information in die Physik geholt.

Sie verwendeten dazu das 2-wertige Bit für die Signale die entweder ankamen oder nicht. Man darf nicht vergessen, zu jener Zeit war Morsen und Telefonieren der letzte Schrei der Technik. Eine mathematische Berechnung mittels Logaritmus und Wahrscheinlichkeit galt als genial.

Nur wenige Jahre später wurde aber dieser Informationsbegriff bereits lächerlich gemacht, weil er eben mit der Umgangssprache nicht vereinbar war.

In der heutigen Informationswissenschaft sehe ich eher beide Festlegungen inbegriffen:
Man kann festlegen: INFORMATION ist das, was der Mensch aus aufgezeichneten Daten (Schriften) für sich herausliest, in sich verarbeitet und wieder weitergibt.
Ursächlich ist also der Mensch dabei.
Das erleichtert den Umgang mit dem Wort Information sehr. Die rein mathematische Definition wird dabei ein kleines mögliches Detail für ganz spezielle Reduktionen.

Entropie hat heute eher seine grosse Bedeutung aus der Physik vor dem Begriff und durch den Begriff Information verloren.

ingeniosus 14.02.14 15:51

AW: Entropie in der Informationstheorie
 
Man sagt, SHANNON hat mit seinem Entropiebegriff den damals hochmodernen Begriff "Entropie" in seine Theorie miteinbauen wollen. Er hat aber etwas grundlegend Anderes geschaffen.

"En-tropie" im original physikalischem Sinne wurde konstruiert aus der Abkürzung von "energie - tropein(= ändern)"

ingeniosus 13.05.14 15:26

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von Hamilton (Beitrag 21477)

Du kommst offensichtlich nicht aus der Naturwissenschaftler Fraktion, was OK ist, aber versuch zu verstehen, dass dies allenfalls eine Interpretation von Information ist- keine Definition (was sind Daten? Wie genau funktioniert diese Abstraktion- gibt es ohne Menschen keine Information?)

Hallo Hamilton,

Ihre Auslegungen von SHANNON finde ich OK.

Er selbst hat von HARTLEY übernommen: "no psychological considerations".

Inzwischen habe ich gelesen, dass SHANNON mit seinem Entropiebegriff dem der Wärmelehre entsprechen wollte, dies ihm aber nicht ganz gelungen ist.

Nun ich komme aus der Ecke der Informationswissenschaft und ich bleibe dabei (aus meiner Sicht), dass der Entropiebegriff heute nichts mehr bringt. Manchmal wird er dem Begriff Information gleichgestellt - manchmal als reziproker Wert definiert.

Nun im Sinne einer weltweit einheitlichen Definition des Informationsbegriffes ist der Begriff Information nur in definitiver Verbindung mit dem Menschen festlegbar - wie Sie richtig annehmen.

Information ist keine Materie aber kann in Form von Daten aufgezeichnet werden. Der Begriff "Abstraktion der Daten" ist vielleicht etwas unlogisch, aber rein naturwissenschaftlich faktisch zu verstehen. Man könnte auch sagen: Information ist der für den Menschen wertvolle Inhalt der Daten.

Darf ich Ihnen meine Home empfehlen? Ich bin nur Physiker aus reinem Interesse, aber ein leidenschaftlicher Informationswissenschaftler.

Kritik ist ein Positivum!

ingeniosus 13.05.14 15:45

AW: Entropie in der Informationstheorie
 
Zitat:

Zitat von hhmoeller (Beitrag 21265)
[
Gibt es in der Informationstheorie einen Entropiesatz, der ein informationelles Perpetuum Mobile verbietet?

Dazu

a) in der Informationstheorie (gegründet von C. SHANNON) hat der Entropiebegriff eine andere Bedeutung als in der Wärmelehre.

b) der Begriff "perpetuum mobile" assoziiert per se sofort, dass es das nicht gibt. Ausnahme vielleicht noch: die Bewegungen des Makrokosmos....also Planeten-Elipsen um ihre Sterne oder Spin dieser (alles in eingeschränktem Rahmen)


Alle Zeitangaben in WEZ +1. Es ist jetzt 04:52 Uhr.

Powered by vBulletin® Version 3.8.8 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
ScienceUp - Dr. Günter Sturm