PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Unzerstörbare Information


bruzzito
12.03.12, 12:34
Hallo Miteinander

Ich habe eine Frage zum Thema "Information".
Es wird ja gesagt, dass Information im Universum niemals verlorengehen kann.

Das verstehe ich (noch) nicht ganz.

Wo bleibt die Information, wenn man ein fertiges Mandala-Bild aus Sand wieder zerstört.
Oder wo bleibt die Information der verlorenen Errinnerungen, wenn jemand einen Schlaganfall erleidet oder an Alzheimer erkrankt?

Sind Informationen dieser Art dann nicht doch verloren gegangen?

Danke und Gruss von Bruzzito

RoKo
12.03.12, 16:49
Hallo bruzzito,
..Es wird ja gesagt, dass Information im Universum niemals verlorengehen kann.
Wer sagt das, wo steht das? Würd ich gern nachlesen.

bruzzito
12.03.12, 17:39
Hallo RoKo

Das steht unter Anderem in diesem Internet-Link:

http://www.faz.net/aktuell/feuilleton/buecher/rezensionen/sachbuch/leonard-susskind-der-krieg-um-das-schwarze-loch-ich-bin-hier-um-ihnen-das-unmoegliche-zu-verkuenden-1582603.html

Es ist das erste Unterkapitel:
"Ein zwanzig Jahre langer Kampf gegen Hawkings Informationsparadox"

Im zweiten Abschnitt der letzte Satz.

Es scheint eine grundlegende mathematische Eigenschaft der Quantentheorie, dass Information nie ganz verloren gehen kann, so wie es dort geschrieben steht.

Gruss bruzzito

Philipp Wehrli
12.03.12, 22:13
Wo bleibt die Information, wenn man ein fertiges Mandala-Bild aus Sand wieder zerstört.
Oder wo bleibt die Information der verlorenen Errinnerungen, wenn jemand einen Schlaganfall erleidet oder an Alzheimer erkrankt?


'Information' bedeutet hier die Datenmenge, die du brauchst, um alle Teilchen genau so zu platzieren, wie sie gerade sind. Wenn du jedes einzelne Sandkorn exakt platzieren willst, spielt es keine Rolle, ob die Körner als Ganzes ein Muster bilden oder nicht. Die Information ist so oder so die gleiche.

Allerdings weiss ich nicht, wie das im Universum als Ganzes aussehen soll. Wenn sich nämlich das Universum ausdehnt, vervielfältigen sich die Möglichkeiten, wo die Teilchen sein können. Damit sollte doch auch die Information zunehmen. Umgekehrt sollte die Information stark abnehmen, wenn das Universum schrumpft.

Bist du sicher, dass der Satz von der Informationserhaltung auch für das Universum als Ganzes gelten soll, also nicht nur lokal?

RoKo
13.03.12, 06:19
Hallo bruzzito,

danke für den Link; jetzt verstehe ich auch deine Frage und kann eine Antwort geben.

Der Begriff Information, so wie er in o.a. Buchbesprechung verwendet wird, unterscheidet sich stark von dem, was man im Alltagsleben unter Information versteht. Gemeint ist ungefähr folgendes:

Die Gleichungen der Quantenphysik sind unstrittig unitär. Aus einem bekannten Zustand lässt sich deshalb die Vergangenheit berechnen. Wenn man nun, wie Süsskind, den Anspruch hat, aus den Gleichungen der Quantenphysik unter Einbeziehung der Gravitation eine "Theorie für Alles" zu entwickeln, dann darf Information über die Vergangenheit nicht verloren gehen, sonst sind mit Süsskinds eigenen Worten "die Grundfesten unseres Faches zerstört".

Dass Information über die Vergangenheit nicht verloren gehen kann, ist also keine allgemein anerkannte Tatsache, sondern lediglich Konsequenz der Arbeitshypothesen von Süsskind. Allgemein ist das Thema strittig.

bruzzito
13.03.12, 06:57
Hallo Miteinander

Danke für Eure Antworten.

So wie ich verstanden habe, handelt es sich bei den "Informationen, die nicht verloren gehen", um die Informationen, welche die Teilchen beschreiben, aus der unsere Materie besteht.


Bist du sicher, dass der Satz von der Informationserhaltung auch für das Universum als Ganzes gelten soll, also nicht nur lokal?

Da bin ich mir absolut nicht sicher. Natürlich kann ich das gar nicht wissen....
Man könnte auch noch darüber nachdenken, was Information überhaupt ist....

Allgemein ist das Thema strittig.

Dann bleibt das Thema aber auch spannend, wenn es (noch) keine eindeutigen Antworten dazu gibt.

Danke und Gruss
Bruzzito

richy
13.03.12, 07:10
Hi bruzzito
Ich empfehle zu dem Thema auch die beiden Videos von Prof. Lesch : Information, Entropie. Der Shannonsche Informationsgehalt ist wie die Entropie genau festgelegt.Und beides sehr aehnlich. Der Informationsgehalt von einem Buch aufgrund des semantischen Inhalts oder der Ordnung der gedruckten Buchstaben gegenueber einer Wuerstsemmel ist laecherlich. Es wird ja die gesamte Materie betrachtet. Nicht nur die Worte. Ueber den Unterschied zwischen Entropie und Information schreibe ich lieber mal nichts. Aber gaebe es tatsaechlich Information in abstraktem Sinne, dann musste sowohl die Information der Wurstsemmel (DNA, Geometrien) sowie die des Buches selbst dann erhalten bleiben wenn das schwarze Loch zerstrahlt oder in der Hawkingstrahlung selbst enthalten sein. Und zwar in reiner Form.
Remanents. Das ist keine Privattheorie von mir.
Je nachdem ob man solch eine reine Informationsform ohne Materie annimmt oder nicht. Denn aus der Materie macht das schwarze Loch Hackfleisch.

Ueber die semantische Information weiss man so gut wie nichts. Und ob es bei Hawkings auch um diese geht kann ich nicht sagen. Eher nicht. Angeblich hat seine Begruendung bei der Preisrueckgabe kaum ein anwesender Fachmann verstanden.
Ein gutes Stichwort dazu waere : "Haben schwarze Loecher Haare ?"
Gruesse

amc
13.03.12, 10:11
Hi,

kann man sagen, dass Informationserhaltung auch eine zwingende Folge der Erhaltungssätze ist? Welche gibt es da - Energieerhalt, Ladungserhalt, Impulserhalt? Gibt es hier einfach zu benennende Unterschiede zwischen Klassischer- und Quantenmechanik?

Danke und Grüße,
AMC

HolgerBuick
13.03.12, 10:14
Information kann man nach meiner Ansicht auch als Antwort auf eine Frage auffassen. Da ich für diese Auffassung in einem Physikforum viel Widerspruch geerntet habe, habe ich damals versucht, das genauer darzustellen.
https://docs.google.com/View?id=ddtjdhzm_14dtx3gtcw
bzw.
http://knol.google.com/k/information-ist-die-antwort-auf-eine-frage#
Dabei kann "Antwort" auch durch "Messergebnis" ersetzt werden (siehe Tabelle ganz unten im Text).
Grüße.

richy
13.03.12, 11:50
Hi Amc
Welche gibt es da - Energieerhalt, Ladungserhalt, Impulserhalt? Die Hauptsaetze der Thermodynamik gibt es noch. Das SL jenseits des Ereignishorizontes gehoert nicht mehr zur Realitaet unseres Universums. Da fliegt Materie rein. Teilchen die Zustaende besetzen koennen fehlen. Es aendert sich die globale Entropie. Wobei das ja nichts verbotenes darstellt :-) Weiss auch nicht.

JoAx
13.03.12, 12:53
Hi amc!

Wilkommen im Forum bruzzito!


kann man sagen, dass Informationserhaltung auch eine zwingende Folge der Erhaltungssätze ist? Welche gibt es da - Energieerhalt, Ladungserhalt, Impulserhalt?

Ich denke, aus der Sicht der QM sollte es genau umgekehrt betrachtet werden - Die einzelnen Erhaltungssätze, auch der klassischen Mechanik, wären eine Folge der Informationserhaltung. Jedenfalls denke ich, dass es ein gutes Beispiel dafür ist, um welche "Information" es dabei geht. Nicht um geschriebenes Wort halt. :)


Gruß, Johann

Hawkwind
13.03.12, 14:43
Aus Sicht der Thermodynamik nimmt die Entropie des Universums beständig zu, d.h. die Unordnung steigt bzw. die Ordnung sinkt. Das entspricht einem Informationsverlust, denn Information basiert auf Ordnung.
Jede Entropieerhöhung entspricht einem Informationsverlust.

richy
13.03.12, 14:52
Hi Joax

Jedenfalls denke ich, dass es ein gutes Beispiel dafür ist, um welche "Information" es dabei geht. Nicht um geschriebenes Wort halt.

Das ist ein gutes Beispiel.
Nehmen wir das geschrieben Wort. Und wenn wir die Anzahl Buchstaben kennen incl Leerzeichen und eine Nachricht empfangen und die Auftrittswahrscheinlichkeiten darin messen, dann kennen wir den Shannonschen Informationsgehalt.
Oder wir wandeln das Alphabet in Asci Code und dann Binaercode. So arbeitet ja die Kiste vor uns. Dann wird das noch deutlicher. Und ich meine ein Megabyte wiegt nunmal nichts. Daher ist fuer mich Information abstrakt, nichtphysikalisch weil nicht waegbar. Ich weiss man hoert es nicht gerne hioer. Dieses Wort abstrakt.
Ein Knetwuerfel hat 6 Seiten und jede eine Wahrscheinlichkeit. Der Wurfel ist waegbar, dass er 6 Seiten hat nicht. Warum sollte sich am Gewicht etwas aendern wenn ich den Knetwuerfel aufteile und zwei Knetwuerfel draus mache ? Kernspaltung ist dabei ausgeschlossen. Dann habe ich zweimal die selbe Wahrscheinlichkeitsverteilung und zusammen muessten beide Verteilungen doppelt so viel wiegen. Und das widerspricht der Massenerhaltung. Wenn Information physikalisch waere hat sie sich aber an die Erhaltungssaetze zu richten.
Ich finde es unglaublich dass diese bei Wiki wie Energie eingetragen ist :-) Entropie dagegen ist physikalisch.

Und was ganz anderes ist, ob es Spass macht das Buch zu lesen. Ob wir danach mehr wissen. Das gehoert alles zum semantischen Informationsgehalt. Zum Bedeutungsinhalt, zur qualitativen Logik. Und darueber wissen wir in der Tat wenig.
Und in dem Entropie Film von Prof Lesch der wirklich empfehlenswert ist, da finde ich das Beispiel mit dem neuen Kartenspiel nicht so gut. Denn da interpretieren wie semantische Information hinein. Weil das was ganz besonderes ist dass die Karten so schoen geordnet ist. Beim Kartenspiel kannst du nicht 2 mal das Kreuz Ass anordnen weil es nur ein Kreuz Ass gibt. Und so hat jede Anordnung den selben Infogehalt. IMHO
So erklaert das Lesch aber nicht. Er meint das frische Kartenspiel haette die niedrigste Entropie. Hab extra nochmal angeschaut.
Oder liege ich hier falsch. Es gibt doch keine 2 gleichen Karten ausser man laesst die Farben weg. Dann ist es anders.

Es waere ein Trugschluss zu meinen nur weil semantische Information selbstverstaendlich voellig abstrakt waere dass deshalb shannonsche information physikalisch waere, nur weil ich sie messen kann. Ich kann sie nur messen wenn es da z.B. 6 Wuerfelseiten gibt. Ich kann sie aber nicht auswiegen. Und genauso kann ich einen Mensch nach sinngehalten fragen und diesen messen und bewerten, Aber damit wird die semantische Information selbst kein Deut physikalischer. Beides ist abstrakt. Nicht nur die semantische Information.

Gruesse

Philipp Wehrli
13.03.12, 14:58
Aus Sicht der Thermodynamik nimmt die Entropie des Universums beständig zu, d.h. die Unordnung steigt bzw. die Ordnung sinkt. Das entspricht einem Informationsverlust, denn Information basiert auf Ordnung.
Jede Entropieerhöhung entspricht einem Informationsverlust.
Hier wird aber der Begriff 'Information' anders verwendet. Hier meinen wir, die Information, die wir aus dem System ablesen können. Wir betrachten also nur den makroskopischen Zustand. Wenn du den Zustand mikroskopisch exakt nachbauen musst, spielt der 2. Hauptsatz keine Rolle mehr.

Hawkwind
13.03.12, 15:19
Hier wird aber der Begriff 'Information' anders verwendet. Hier ... Wir betrachten also nur den makroskopischen Zustand. ...

"mikroskopischen Zustand" meinst du, oder?

HolgerBuick
13.03.12, 15:39
Aus Sicht der Thermodynamik nimmt die Entropie des Universums beständig zu, d.h. die Unordnung steigt bzw. die Ordnung sinkt. Das entspricht einem Informationsverlust, denn Information basiert auf Ordnung.
Jede Entropieerhöhung entspricht einem Informationsverlust.
In der Informationstheorie ist das interessanterweise genau umgekehrt.
Eine Nachricht, in der einige Zeichen häufiger vorkommen als andere, lässt sich komprimieren. Im Extremfall enthält eine Binärfolge aus nur Einsen (oder Nullen) die geringste Informationsdichte. Beispiel:In einer ZIP-Datei liegen die Zeichen mit einer höheren Entropie vor, als im Ausgangstext. Die Informationsdichte ist zugleich höher.
Die Begriffe "Information" und "Entropie" haben hier möglicherweise eine andere Bedeutung?

Hawkwind
13.03.12, 15:52
In der Informationstheorie ist das interessanterweise genau umgekehrt.
Eine Nachricht, in der einige Zeichen häufiger vorkommen als andere, lässt sich komprimieren. Im Extremfall enthält eine Binärfolge aus nur Einsen (oder Nullen) die geringste Informationsdichte. Beispiel:In einer ZIP-Datei liegen die Zeichen mit einer höheren Entropie vor, als im Ausgangstext. Die Informationsdichte ist zugleich höher.
Die Begriffe "Information" und "Entropie" haben hier möglicherweise eine andere Bedeutung?

Ja, da scheint es wohl unterschiedliche Ansichten zu geben. Aus einer Seite der Uni Kiel
http://www.tf.uni-kiel.de/matwis/amat/mw1_ge/kap_5/advanced/t5_3_2.html



Das bedeutet, dass eine Entropieerhöhung von 0,957 · 10–23 JK–1 in einen gegebenen System, genau ein bit an Information vernichtet. Und da die Entropie in einem abgeschlossenen System nicht abnehmen kann, kann auch keine Information spontan entstehen.

Das ist nicht nur "Theorie", sondern damit konnte Leo Szilard zum ersten Mal eines der berühmtesten offenen Probleme der Thermodynamik, den "Maxwellschen Dämon" erklären. Mal selbst Googeln; Stichworte: information entropie maxwell dämon.

Immerhin, irgendwie scheinen die gute alte Entropie und die noch recht junge und nicht sonderlich gut definierte Information zusammenzuhängen. Hat das was zu bedeuten? Wird die Informatik möglicherweise auch mal zu einem Untergebiet der Physik, so wie die Chemie?

Nichts genaues weiß man nicht. Es gibt berühmte Leute, die sehr konträre Ansichten vertreten. Atkins, z.B. hält das alles für trivial bis Blödsinn, während Penrose darin einen der Schlüssel für die künftige "neue" Physik sieht.

RoKo
13.03.12, 17:02
Hallo, Philipp,

.. Wenn du den Zustand mikroskopisch exakt nachbauen musst, spielt der 2. Hauptsatz keine Rolle mehr. Wie, bitteschön, baut mal einen Microzustand von, sagen wir mal bescheiden 10^20 Atomen nach? Die Technik würd ich glatt als Patent anmelden.

Hallo zusammen,

ein kleiner Nachtrag zum Informationsgehalt und Entropie:

Für mich erscheint die Entropie chinesischer Schriftzeichen, insbesondere, wnn sie handschriftlich dargeboten werden, ziemlich hoch und der Informationsgehalt tendiert gegen 0.

richy
13.03.12, 17:05
Eine gewisse Aehnlichkeit gibt es wohl schon :

Die waegbare Entropie S (Einheit J/K )Thermodynamik

Die Anzahl der Mikrozustände eines Makrozustands heißt sein „Statistisches Gewicht W“. Das W kann, wenn es sich um viele Teilchen in der Gasphase handelt, eine sehr große Zahl sein (im Gegensatz zur mathematischen Wahrscheinlichkeit), kann aber auch sehr klein werden, wenn starke Kräfte zwischen den Teilchen wirken (Nullpunktsentropie). Der natürliche Logarithmus des statistischen Gewichts W eines Zustands, multipliziert mit der Boltzmann-Konstante kB ergibt seine Entropie S:

http://upload.wikimedia.org/wikipedia/de/math/1/a/e/1ae344e0a32d2e359418fcca52a77e19.png

Der ehemalige Schannonscher Informationsgehalt
nun die nichtwaegbare Entropie (H Einheit 1):

Entropie (nach dem Kunstwort εντροπία)[1] ist ein Maß für den mittleren Informationsgehalt oder auch Informationsdichte eines Zeichensystems. Der Begriff in der Informationstheorie ist in Analogie zur Entropie in der Thermodynamik und Statistischen Mechanik benannt.

Das informationstheoretische Verständnis des Begriffes Entropie geht auf Claude E. Shannon zurück und existiert seit etwa 1948. In diesem Jahr veröffentlichte Shannon seine fundamentale Arbeit A Mathematical Theory of Communication[2] und prägte damit die moderne Informationstheorie.

http://upload.wikimedia.org/wikipedia/de/math/7/f/4/7f4ecfcdec7ddc59e770308ecf91da6a.png

Anzahl der Möglichkeiten: N, damit ergibt sich für die Wahrscheinlichkeiten p_i = 1/N und für die Entropie
http://de.wikipedia.org/wiki/Entropie_%28Informationstheorie%29

Vor einigen Jahren wurde das noch als shannonscher Informationsgehalt bezeichnet. Aber da Information nun ab und zu auch mal was wiegen muss und gleich Entropie ist kann man sich das ab sofort aussuchen. Ob Einheit 1 oder J/K So macht die neue Wiki verwechslungsfreie Sprache Spass. Einnert an 1984 oder Kurt

Eine Nachricht, in der einige Zeichen häufiger vorkommen als andere, lässt sich komprimieren. Im Extremfall enthält eine Binärfolge aus nur Einsen (oder Nullen) die geringste Informationsdichte.
Dann ist die Auftrittswahrscheinlkichkeit p(i) gleich 1. Und der Informationsgehalt ld(1) gleich Null.
Ich meine was willst du da codieren :-)

Gruesse

JoAx
13.03.12, 17:15
...
Und ich meine ein Megabyte wiegt nunmal nichts. Daher ist fuer mich Information abstrakt, nichtphysikalisch weil nicht waegbar.


Das geht mir zu fix, richy.

Immerhin muss Energie aufgewendet werden, um die x-Byte "in die richtige Form" zu bringen. Der Computer ist thermodynamisch auch eine Heizung und kein Kühler.


Ein Knetwuerfel hat 6 Seiten und jede eine Wahrscheinlichkeit.


Wahrscheinlichkeit für was? Zu sein? Sein tun alle Seiten immer, schätze ich. :)


Der Wurfel ist waegbar, dass er 6 Seiten hat nicht.
...


Warum soll das eine Information sein, dass er 6 Seiten hat? Dass er 6 Seiten hat folgt aus bestimmten geometrischen Voraussetzungen (3D) und Bedingungen.
Ich denke , man kann hier nicht so "einfache" Schlußfolgerungen anstellen.
Ist "Geometrie" wägbar? War sie es auch vor RT? ...


Gruß

richy
13.03.12, 17:29
Und unter Hawkwinds Link heisst der Ausdruck auch noch shannonscher Informationsgehalt I http://www.tf.uni-kiel.de/matwis/amat/mw1_ge/kap_5/advanced/t5_3_2.html
Aber anscheinend hat Shannon schon den Begriff fuer eine andere Groesse als Entropie bezeichnet . Die Summe ueber den Informationsgehalt von Zeichen.
Auf jeden Fall ist die Wiki Seite nicht kompatibel mit Hawkwinds Link. Und letzterer meine ich bezeichnet richtig.

Gruesse

richy
13.03.12, 17:58
Hi Joax

Immerhin muss Energie aufgewendet werden, um die x-Byte "in die richtige Form" zu bringen. Der Computer ist thermodynamisch auch eine Heizung und kein Kühler.

Ja. Es gibt im Netz sogar schon mindestens eine Seite die belegt, dass eine Festplatte mit Information mehr wiegt als ohne. Naja.
Ich wiege ein weisses Blatt Papier.
Nun schreibe ich darauf :
Information : Bin um 12.00 Uhr wieder zu hause.
Also ich wuerde schon sagen dass die Tinte etwas wiegt oder ?
Jetzt wird jeder meinen. Ha aber du willst doch nicht behaupten dass diese semantische Information, diese Bedeutung eine physikalische Groesse darstellt ? Das waere doch esoterisch. Noe das behaupte ich nicht, aber dass man den Informationsgehalt messen kann der Zeichen auf dem Zettel das schon.

Wobei die Messbarkeit gar nicht das Ausschlaggende ist. In jeder Physikpruefung wird naemlich die semantische Informaion der Kandidaten ermittelt. Der Unterschied ist nur der :
Fuer semantische Information benoetige ich einen Menschen als Pruefling und fuer shannonsche Information nur Zeichen und Zustaende.
Klar die Esoteriker verwechseln das vielleicht manchmal, Aber im Grunde ist das eine Unterstellung. Und der Unterschied ist doch auch gar nicht so gross wie man das anscheinend unbedingt darstellen moechte. Fuer mich persoenlich ist es natuerlich ganz klar : Wenn ich Information meine, dann meine ich shannonsche Information oder halt irgendeine von Neumannsche, die wohl in der QM eine Rolle spielt und mir am wenigsten klar ist.

Wahrscheinlichkeit für was? Zu sein? Sein tun alle Seiten immer, schätze ich.
Na die Auftrittswahrscheinlichkeit jeder Seite ist 1/6. Aber ich wollte mich ja bessern und stelle diesbezueglich keine Vergleiche an. Es ist halt muehselig mit der neuen Wiki Sprache sich eindeutig auszudruecken.
EDIT
Inzwischen meine ich das es vielleicht doch ein einfacher Wiki Fehler ist ohne Absicht.
Ist "Geometrie" wägbar?
Im Fall des Massendefektes schon. Die Feldenergie ist abhaengig von der Geometrie. Aber was da genau passiert dass darfst du mich natuerlich nicht fragen.

Gruesse

richy
13.03.12, 18:23
Um die Verwirrung zu komplettieren hier noch die von neumannsche Entropie :

http://en.wikipedia.org/wiki/Von_Neumann_entropy

http://upload.wikimedia.org/wikipedia/en/math/1/8/4/18416ae7a274f891790473e2b3eb7f68.png

Der Ld aus einer Groesse mit Einheit geht sicherlich schlecht.

Fassen wir zusammen :
Wenn Zeilinger von Information spricht meint er sicherlich die Von_Neumann entropie. Und die hat wohl die Einheit 1. Er meint nicht die Shannonsche Information, die bei Wiki jetzt Entropie mit der Einheit 1 heisst Genauso wie die thermodynamische Entropie mit der Einheit J/K. Wobei unter Hawkwinds Link angegeben ist dass die Wiki Entropie der Einheit 1 dort immer noch shannonscher Informationsgehalt heisst. Aber die Summe aller Information von Shannon wohl schon als Entropie der Einheit 1 bezeichnet wurde. Aber warum heissen Informatiker dann nicht Entropotiker ? :-)

Und daher muss ich zugeben, dass ich in den letzen Beitraegen die Information auf einer Diskette nicht korrekt nach Hawkwidns Link (den halte ich fuer richtig) als Entropie bezeichnet habe. Und im Grunde ist die semantische Information dann vielleicht doch die am sorgfaeltigsten definierte Informationsform.

Und nun ist natuerlich die grosse Frage welche Information Wiki denn unter dem Begriff immateriell meint :

Naturwissenschaft: immateriell bezeichnet was nicht stofflich ist und aber auch nicht geistig ist (z. B. Energie, Gravitation, Information).
Was meinst du ? Nicht geistig ! Mit Einheit. Es kann nur die thermodynamische Entropie gemeint sein. Dann passt das.

In dem Paper passt es auch ganz gut bis auf das H statt I.
http://www.uni-ulm.de/~phaegele/Vorlesung/Grundlagen_II/_information.pdf
Und da wird von Informationsentropie gesprochen. Das finde ich sinnvoll. Und der shannonsche Informationsgehalt als Ueberraschungswert bezeichnet.

Gruesse

RoKo
13.03.12, 19:04
Information ist schlicht ein zeitlicher oder räumlicher Unterschied von Materie. Ein bit ist der jeweils kleinstmöglichste Unterschied.