Zitat:
Zitat von Hamilton
Der Informationsbegrif aus der Inf.Theorie ist also was ganz anderes als unser alltäglicher Gebrauch des Wortes Information. Er sagt nämlich nichts über die Verwertbarkeit von Information aus, sondern eher etwas über die "Überrschung" über ein Ereeignis.
|
Jein, Hartley und Shannon - haben als erste die Unwahrscheinlichkeit=den Neuheitswert festgelegt. Hartley hat erstmals das Wort Information in die Physik geholt.
Sie verwendeten dazu das 2-wertige Bit für die Signale die entweder ankamen oder nicht. Man darf nicht vergessen, zu jener Zeit war Morsen und Telefonieren der letzte Schrei der Technik. Eine mathematische Berechnung mittels Logaritmus und Wahrscheinlichkeit galt als genial.
Nur wenige Jahre später wurde aber dieser Informationsbegriff bereits lächerlich gemacht, weil er eben mit der Umgangssprache nicht vereinbar war.
In der heutigen Informationswissenschaft sehe ich eher beide Festlegungen inbegriffen:
Man kann festlegen:
INFORMATION ist das, was der Mensch aus aufgezeichneten Daten (Schriften) für sich herausliest, in sich verarbeitet und wieder weitergibt.
Ursächlich ist also der Mensch dabei.
Das erleichtert den Umgang mit dem Wort Information sehr. Die rein mathematische Definition wird dabei ein kleines mögliches Detail für ganz spezielle Reduktionen.
Entropie hat heute eher seine grosse Bedeutung aus der Physik vor dem Begriff und durch den Begriff Information verloren.