Einzelnen Beitrag anzeigen
  #2  
Alt 04.02.17, 13:38
Plankton Plankton ist offline
Guru
 
Registriert seit: 02.01.2015
Beitr?ge: 915
Standard AW: Entropic Uncertainty Relations and their Applications

Zu dem Thema gibt's quasi eine "Einstiegsarbeit".
Equivalence of wave-particle duality to entropic uncertainty

Das Experiment läuft so (FIG. 1), so weit ich das verstehe:
Man hat ein "Mach-Zehnder interferometer for single photons." und es gibt zwei zu messende Eigenschaften:
a) Which path (Z)? b) Which phase (W)?

Wenn ich a) weiß, dann kann ich b) nicht wissen und umgekehrt. a) und b) sind quasi komplementäre Eigenschaften wie man sie von "Heisenberg-Unschärfe" kennt.
"Which path" steht dabei gleichzeitig für "Partikel-Verhalten" und
"Which phase" für "Wellen-Verhalten".
"lack of particle behavior" = Hmin und "lack of wave behavior" = Hmax [: Hmin + Hmax >= 1 :] (Bitte selbst Formel nachsehen! )
(min- and max-entropies) [Full behavior (no behavior) of some kind corresponds to the associated entropy in (4) being zero (one).]

Wenn ich nun den "path" weiß, dann ist die "minimale Entropie" klein (0 ?), aber die "maximale Entropie" groß, weil ich die "phase"-Information nicht habe. Und umgekehrt, weiß ich "phase", ist die "maximale Entropie" klein, aber die "minimale Entropie" groß.

So kommt man von der "uncertainty relation" zur "entropic uncertainty relation".
Zitat:
The usefulness of (5) for cryptography is due to the clear operational meanings of the min- and max-entropies [32], which naturally express the monogamy of correlations as they give the distances to being uncorrelated (Hmax) and being perfectly correlated (Hmin). One can replace these entropies with the von Neumann entropy in (5) and the relation still holds; however, the min- and max-entropies give more refined statements about information processing since they are also applicable to finite numbers of experiments.
Ich bin mir nicht sicher, wie weit das alles generell gilt, bzw. ob das nur in dem speziellen Aufbau gilt.
Mir ist auch nicht klar, warum generell gilt:
"the more the coherence, the less the entropy". (siehe Hmin und Hmax)

Wollte es nur widerspiegeln hier. Wäre so gesehen ja einfach zu merken, die Beziehung.
Mit Zitat antworten