Einzelnen Beitrag anzeigen
  #162  
Alt 07.07.08, 12:03
Benutzerbild von Hamilton
Hamilton Hamilton ist offline
Profi-Benutzer
 
Registriert seit: 02.05.2007
Ort: Deutschland
Beitr?ge: 447
Standard AW: Entropie in der Informationstheorie

@JGC,
ich weiß, das ist nicht leicht zu verstehen, wenn man nicht aus der Mathe-Stochastik-Ecke
kommt, aber Information im Sinne Shannons (und darüber reden wir hier) ist nicht vergleichbar mit der "Alltagsinformation", siehe dazu auch mein Posting in diesem Thread (kann man den eigentlich irgendwie verlinken?)

"Verwertbare Information" - was soll das sein? Es hängt ja immer vom Empfänger ab, ob ein Strom von Zeichen/Bits wie "DAS WETTER IST SCHÖN" interessant ist, oder nicht.
Jemand, der kein Deutsch kann, hat recht wenig davon. Jemand, der nicht weiß, wo ich wohne und wann ich das geschrieben habe, kann auch wenig damit anfangen.
Es hat schon seinen Sinn gehabt, dass sich Shannon nicht um Inhalte gekümmert hat.

Wenn der "Erwartungswert der Information" nicht "zufällig" Entropie genannt worden wäre, würde hier diese Frage vermutlich auch nie gestellt worden sein.
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun."
Richard P. Feynman
Mit Zitat antworten