PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Entropie


Gandalf
26.08.08, 18:19
Entropie?

Ähm, ...
...ich weis nicht wie ich diese vielleicht "dumme Frage" fragen soll, aber irgendwie scheint mir was zu fehlen, um diesen Begriff richtig einordnen zu können. Einerseits scheint mir dieser ja klar definiert (als Maß für erreichbare Zustände) (http://de.wikipedia.org/wiki/Entropie) sein und tritt sogar in einer 'Absolutheit' auf, die sich in den Eigenheiten eines schwarzen Loches zu manifestiert:

-> alles was wir über dieses 'Objekt' wissen können sind die physikalischen Eigenschaften: Masse, Impuls, Ladung
-> es besitzt maximale Entropie je Raumeinheit, die sich äquivalent zu seiner Oberfläche verhält

Andererseits erscheint mir Entropie ausgesprochen subjektiv, bzw. 'relational' zu sein:

z.B. (ich gehe im folgenden davon aus, das 'information' ebenfalls etwas physikalisches ist und zählbare Eigenschaften besitzt)
- ein Fachbuch verträgt nur wenige 'Umordnungen' von Seiten (oder Buchstaben)', um weiterhin "nutzbar" zu sein. --> Fachbuch = niedrige Entropie(?)
- Wie stellt sich das gleiche Buch aber für einen Analphabeten dar? ---> hoch entropisch?

weiteres Beispiel:
Ein "Zahlensalat" kann sich doch für mich - je nach Beschäftigung damit - weiterhin als Zahlensalat darstellen, oder als 'hochkomplexe Verschlüsselung einer Information'!? .. und was ist, wenn z.B. das Buch aus einer einzigen Primzahl besteht? Ist dieser "Zahlensalat" hoch oder niedrig entropisch - im Verhältnis zu wem oder was?

.. oder muss man Entropie in Zusammenhang mit Information grundsätzlich anders verstehen? - Dann würde aber der physikalische Entropiebegriff für die Schwarzen Löcher so auch nicht mehr gelten, da wir ja von diesen nichts wissen können, außer der (relativen) Informationsmenge (= erreichbare Zustände), die im Verhältnis zum "Außenraum" (absolut) verloren gegangen ist?

:confused:

Lambert
26.08.08, 20:35
brrrrrrrrrrrrr..............

"Entropie" wurde mal erfunden, um ein unerklärtes Wärmestromphänomen zu begründen.

Das hat der Erfinder nun davon...

Gruß,
Lambert

PS. Boltzmann dürfte sich bei dieser Thread im Grab drei mal umdrehen... Ursache: entropisch natürlich...

;)

richy
28.08.08, 02:12
Hi Gandalf
Entropie ist auf fuer mich ein schwerer Begriff.
Ein Maß der Unordnung aus der Thermodynamik. So fundamental, dass selbst die Richtung des Zeitpfeils danach ausgerichtet ist.

Die Entropie und der Shannonsche Informationsgehalt werden formal gleich gebildet.
Und daher kann man beiders schon vergleichen.

De Physik verwendet also den shannonschen Informationsgehalt als Beschreibung,
Die Zahlenfolgen (1,2,3,4,5,6) und (3,1,2,5,6,4) haben den selben
shannonschen Informationsgehalt.
Ein Fachbuch den selben Informationsgehalt wie dessen verdrehte Buchstaben und Satzfolgen.
Bewertet wird nur die Quantitaet der Information nicht die Qualitaet.

und was ist, wenn z.B. das Buch aus einer einzigen Primzahl besteht?

Es ist im Prinzip egal ob das eine Primzahl ist. Es gibt keine Semantik.
Es kommt darauf an wieviele Zeichen ueberhaupt genutzt werden.
Und die Wahrscheinlichkeit mit der sie Auftreten.

http://de.wikipedia.org/wiki/Informationsgehalt
Der Shannonsche Infogehalt ist definiert als :
http://upload.wikimedia.org/math/0/c/a/0ca0baceb323a1bbcd177d9ee25e1da4.png

Wird nur die Primzahl 13 als Informationstraeger verwendet, so wird die Zahl staendig gesendet und die Info ist logischerweise 0.
Verstehe ich alle Prim oder natuerliche Zahlen als Symbol einer Information so stehen
unendlich viele Symbole zur Verfuegung. Die Auftrittswahrscheinlichkeit eines bestimmten Symbols geht gegen Null und so kann ich mit jedem Symbol unendlich viel Information
uebertragen. Benutzt man den ld gibt der SI an wieviel Bit man benoetigt um die Information zu uebertragen.

Weitere sehr anschauliche Beispiele.:
http://evolutionslehrbuch.wort-und-wissen.de/index2.php?artikel=teil-4/kapitel-08-02-z01.html

Eine qualitative Bewertung waere der semantische Informationsgehalt.
Diese zu Beurteilen ist auch die Grundidee von Heims aspektbezogener Logik.
Die Z-Verteilung waere ein numerisches Guetemaß semantischer Information, dass z.B schon bei Musikstuecken eingesetzt wurde.
Information aber theretisch qualitativ zu erfassen.
Davon ist die Wissenschaft noch relativ weit entfernt.

_hustle4
28.08.08, 05:43
http://www.br-online.de/br-alpha/alpha-centauri/alpha-centauri-entropie-harald-lesch-ID1207829028384.xml

richy
28.08.08, 15:27
Das Beispiel mit dem Bierschaum von Lesch finde ich gut.
Ohne Energiezufuhr zerfaellt der Schaum. Also muss er eine niedrigere Entropie haben als das Bier.
Wie stelle ich Schaum fuer Capuccino her ?
Lesch meint am Schluss : Entropie ist die Anzahl der Moeglichkeiten.
Das Beispiel mit dem Kartenspiel ist also nicht so gut.

richy
28.08.08, 18:28
Hi Emi
Die Anzahl der Karten im Kartenspiel ist aber konstant.
Und es ist eine rein menschliche, semantische Angelegenheit, dass man dem geordneten Zustand, wenn man das Kartenspiel kauft, eine besondere Rolle beimisst. Diese Besonderheit koennte das Beispiel faelschlicherweise vermitteln.
Lesch muesste betonen dass es lediglich darauf ankommt, dass dieser Zustand gegenueber anderen Zustaenden nur einmal im Spiel vorkommt und daher recht selten auftritt.
So koennte man meinen es liege schon irgendeine besondere Information vor wenn die Karten so vorliegen.
Er koennte vereinbaren, dass diese Information per Definition besagt, dass das Kartenspiel als neu zu betrachten ist. Und alle anderen Zustaende und davon gibt es sehr sehr viel mehr, kennzeichenen ein gebrauchtes Kartenspiel. Dann waere es unmissverstaendlicher.
2^(10^10)

JGC
28.08.08, 19:04
Hi...


Hört mal...

Wenn z.B. ein Kartenspiel soundso viele Möglichkeiten hat, ausgelegt zu werden, so bestimmt die Anzahl der Karten, wie viele Möglichkeiten innerhalb eines "entropischen Verhaltens" auftauchen können..

Oder der Bierschaum.. Der hätte auf Grund seiner Struktur natürlich 1.123.. hoch X viele Möglichkeiten, sich so anzuordnen, bis er zuuufälligerweise mal wieder genau den Ausgangsschaum ergibt, wie beim ersten mal des Einschenkens entstanden ist.


Bedeutet das nicht, das die maximale "Arten-Vielfalt" der entropischen Zwischenzustände lediglich beschreibt, wie viele chaotische Zustände mindestens angenommen werden müssen, bis sich wieder ein geordneter Zustand ergibt, so wie er am Anfang bestand?

Eine Zuckerlösung kann z.B. nur so viele Zustände annehmen, je nach dem, wie viel Zuckermoleküle sich mit wie vielen Wassermolekülen bei welcher Temperatur mischen können, bevor der erste negentropische Auskristallisierungs-Prozess in der Lösung bemerkbar macht.

Das Auskristallisieren bei gleichbleibenden physikalischen Vorraussetzungen ist sozusagen das Ende der entropischen Fahnenstange.

Natürlich kann man den auskristallisierten Zucker noch weiter erhitzen, ihn zum schmelzen bringen und eine amorphe Masse draus machen, oder ihn gar verbrennen,(doch dann betritt der Zucker eine völlig neue Zustandsform mit noch viel mehr entropischen Möglichkeiten)

Ist also die Frage nach der Entropie in Wirklichkeit nicht die Frage eines jeweiligen Ordnungs-Verhältnisses zwischen 2 möglichen Zuständen, die eine beliebige, betrachtete Menge Stoff unter den entsprechenden Umständen einnehmen kann??

(also vereinfacht...

1kg Zucker kann einmal im Extremfalle eine einzige monokristalline Gestalt annehmen, im anderen Extremfalle kann dieses Kg Zucker grade noch in einer bestimmten Menge Wasser in Lösung gegangen sein, wenn die Temperatur des Wassers und dessen Menge genau aufeinander abgestimmt sind...

Und dazwischen, zwischen dem "vollständig gelöst" Zustand und dem Monokristall stecken doch auch theoretisch sämtlich mögliche chaotischen Ordnungszustände..

Auskondesieren von Kristallkeimen in einer reinen, staubfreien Lösung ist doch wie ein negentropischer Prozess, oder etwa nicht?

Ich frage mich, warum immer davon ausgegangen werden soll, das im Universum die Entropie ständig nur zunehmen soll..

Wir wissen doch nur noch nicht, welche Mechanismen oder welche Zeiträume veranschlagt werden müssen, um den Universum ein 1:1 Verhältnis zwischen Entropie und Negentropie zu vermitteln..

JGC

deko
06.10.08, 16:59
noch mal was grundsätzliches:
Es gibt zwei Zugänge zur Entropie, sie führen zwar zu physikalisch gleichen Ergebnissen, haben aber einen anderen Ansatz:

Die informationstheoretische, als Mangel an Information, beschreibt nicht das physikalische System, sondern unsere Information über das System. Sie ist also nicht wirklich eine Eigenschaft des Systems, sondern des Beobachters in Bezug auf das System.
Vorteil: es ist verständlich, dass diese Information von selbst nicht zunimmt.

Die thermodynamische: S ist definiert durch dE = T dS + ..
in der Gibbschen Fundamentalform. Hier ist S eine lokale Größe S(x), deren Strom mit einem Energiestrom einhergeht. Sie ist Zustandsgröße des Systems und kommt ihm zu.

Mir gefällt die erste besser: Physik beschreibt nicht die Welt, sondern nur unser Wissen über sie!
deko

richy
06.10.08, 18:34
Zum Kartenspiel vielleicht noch:
Im Prinzip ist es gerade umgekehrt. Der Zustand der geordneten Karten besitzt einen niedrigen Informationsgehalt. Denn jedes Kartenspiel nimmt diesen Zustand wenigstens einmal an. Dann wenn es aus der Fabrik kommt.
Wenn ich eine bedingte Wahrscheinlichkeit benutze und die Bedingung, dass das Kartenspiel neu ist, dann ist der Informationsgehalt, wenn die Karten geordnet sind, so gut wie gleich 0. Denn die Wahrscheinlichkeit hierfuer ist fast 1.
Es koennte hoechstens auch mal ein Fabrikationsfehler auftreten.
Oder ein Betrueger, Handtaschenraeuber, Scheinasylant hat mir ein bereits gebrauchtes Kartenspiel verkauft.
Auf jeden Fall ein hoher Informationsgehalt.

Hamilton
06.10.08, 19:05
Evtl. ist dieser Linkt hilfreich:
http://de.wikipedia.org/wiki/Zustandssumme

JGC
06.10.08, 21:45
Oh ja...


Des schaut gut aus.. :D

Hermes
07.10.08, 01:13
Wenn ich mich nicht täusche ist die Beschreibung der Zustandssumme in dem Wiki-Link ziemlich genau das, was Lesch in dem Link von _hustle4 am Schluß als einzig zulässige Definition der Entropie bezeichnet.
http://de.wikipedia.org/wiki/Zustandssumme
Entropie wird in dem Link aber kaum erwähnt?!:confused:

Ich glaube allgemein werden zwei unterschiedliche Begriffe der Entropie verwendet und vermischt. Die hat deko hier eigentlich bereits schön gegenübergestellt (solange der Formelteil korrekt ist - vermute ich, aber keine Ahnung :D )

noch mal was grundsätzliches:
Es gibt zwei Zugänge zur Entropie, sie führen zwar zu physikalisch gleichen Ergebnissen, haben aber einen anderen Ansatz:

Die informationstheoretische, als Mangel an Information, beschreibt nicht das physikalische System, sondern unsere Information über das System. Sie ist also nicht wirklich eine Eigenschaft des Systems, sondern des Beobachters in Bezug auf das System.
Vorteil: es ist verständlich, dass diese Information von selbst nicht zunimmt.

Die thermodynamische: S ist definiert durch dE = T dS + ..
in der Gibbschen Fundamentalform. Hier ist S eine lokale Größe S(x), deren Strom mit einem Energiestrom einhergeht. Sie ist Zustandsgröße des Systems und kommt ihm zu.

Mir gefällt die erste besser: Physik beschreibt nicht die Welt, sondern nur unser Wissen über sie!
deko

Führen diese beiden Zugänge wirklich zu gleichen Ergebnissen?!
Der Begriff 'Information' ist der Knackpunkt.
Physiker tun sich schwer, die Information in einem Buch physikalisch darzustellen.
Oder?!

Hat beispielsweise ein Roman aus physikalischer Sicht weniger Entropie als das Werk eines 'Verrückten', der in Fantasiesprache und nur ihm verständlicher Logik ein Buch desselben Umfangs füllt?!

Um klassisch zu bleiben: Ohne den Gehalt aus 'Die Leiden des jungen Werther' hätten sich nicht einige begeisterte Leser im Suizid-Trend höchst materiell verändert. Das genauso aufwendig produzierte Werk des 'Verrückten' löst dies nicht aus, weil es niemand versteht.
Diese Art der Information hat physikalische Auswirkung!
Ist die Information als Auslöser selbst auch noch physikalisch?

Jedenfalls kam mir auch Lesch an einigen Stellen etwas verwirrt vor oder als ob ihm ein Widerspruch aufgefallen wäre der ihn für einen Moment aus dem Konzept brachte...

EMI
07.10.08, 01:48
Die Entropie ist eine nicht direkt meßbare Größe.
Man erhält sie durch Integration der aus dem 2. Hauptsatz der Thermodynamik folgenden Beziehung:

ds = (1/T) du = (p/T) dv = ((1/T) dh) - ((v/T) dp)

mit s spezifischer Entropie und den messbaren Größen:
u spez. Energie, v spez. Volumen, h spez. Enthalpie, p spez. Druck und T der absoluten Temperatur.

Die Entropie ist die entscheidende Größe zur Definition der Temperatur!

Die verbreiteste Behauptung ist, die Temperatur ist das Maß der Intensität der Bewegung der Moleküle, aus denen sich der Stoff zusammensetzt.
Sprich, die Temperatur ist nur ein anderes Maß für die mittlere kinetische Energie der Moleküle.

Diese Vorstellung ist falsch, widerlegt und überholt!

Es hat sich gezeigt, das dies vor allem in der Nähe des absoluten Nullpunktes der Temperatur nicht zutreffend ist.
Das Problem wurde erst mit der QT umfassend gelöst:

Die Temperatur ist gleich dem Quotienten aus Gesamtenergieänderung und Entropieänderung eines Systems!
T = dE/dS

EMI