Quanten.de Diskussionsforum  

Zur?ck   Quanten.de Diskussionsforum > Theorien jenseits der Standardphysik

Hinweise

Theorien jenseits der Standardphysik Sie haben Ihre eigene physikalische Theorie entwickelt? Oder Sie kritisieren bestehende Standardtheorien? Dann sind Sie hier richtig.

Antwort
 
Themen-Optionen Ansicht
  #1  
Alt 31.08.08, 16:38
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard Zipfelsinn III

Hi
Mit dem "Zipfelsinn", ein Guetemass dass ich aus der Zipf Verteilung hergeleitet habe, laesst sich die semantische Information einer Nachricht abschaetzen.
Falls es so eine gibt.
Zum Beispiel laesst sich damit alleine aus den Noten messen, ob Mozart oder Stockhausen harmonischer im Klang ist.
Ich hatte dieses Prinzip auch auf Zahlenreihen angewendet.
Numerisch Versuche ergaben, dass insbesonders folgene Klassen Z-verteilt sind:

- Die Primfaktoren der Fibonaci Zahlen
- Die Werte der Verhulst Gleichung fuer den Parameter 1+Wurzel(8), also
der 3 er Zyklus direkt vor der letzen grossen Insel der Ordnung.
http://home.arcor.de/richardon/richy...zipf/verh1.htm
Hierfuer habe ich das Guetemass auch fuer ein Set der r Parametern verwendet. Und es zeigte sich dass hier eine Korrelation zum, Ljapunov Exponenten, wenigestens bei der Verhulst Gleichung besteht.
Allerdings beschraenkt diese sich vornehmlich auf die Nullstellen.




rot=Zipelsinn
blau=Ljapunov (Ich weiss den schreibt man anders)

Der Ljapunov ist ein numerischer Wert, der die Ordnung eines System beurteilt.
neg=Ordnung, 0=Verzweigung, pos=chaos,
Nachteil: Man benoetigt die Systemfunktion des Prozesses.
Ein Ordnungsmass alleine aus den Messwerten waere doch super. Und ich bin ja nicht weit davon entfernt.

Im folgenden moechte ich dazu mein Guetemass, die Abweichung von der Verteilungs Funktion 1/i "verbessern".
Bisher habe ich dazu einfach das Gaussche Fehlerquadrat benutzt.

Die "schoenste Formel der Welt", die Methode der kleinsten Quadrate von Gauss, hat mich nun angespornt doch mal etwas anderes auszuprobieren.
Mein neuer Ansatz wird uebrigends auch bei Wiki im Zusammenhang mit der Zeta/Zipf-Verteilung erwaehnt. Sorry wenn ich hier manchmal verkeurzt Z Verteilung schreibe. Ich meine dann nicht die Fisher Z Verteilung.
http://de.wikipedia.org/wiki/Zeta-Verteilung

Mir erschien der Aufwand fuer die Berenchnung des Paramaters n in i^n bisher etwas zu gross, da ich damit rechnete, dass man hierfuer ein GL System loesen muesse.
Was natuerlich kein Prob ist,aber zeitintensiv.
Die Synthesefunktion i^n ist aber etwas ganz einfaches.
Im folgenden wird sich auch zeigen, dass fuer die Aproximation auch lediglich ein Integral
numerisch zu bestimmen ist. Also sehr einfach und nicht zeitintensiv.


Bin mir nicht sicher ob meine Rechnung richtig ist, vielleicht kann sie jemand mal kontrollieren, oder die Aufgabenstellung als Uebung selber loesen:


AUFGABE:
********
Gegeben ist eine Reihe von M Messwerten f(x) x=1..M, f(x)>0, x element N
Approximieren sie die Messwerte durch eine Funktion s(x)=x^n
Zu Bestimmen ist also ein Parameter n fuer eine "gute" Approximation.

Skizze meiner Loesung
*****************
Fehlerintegral nach Gauss :
J(x,n)=int( (f(x)-x^n)^2 dx ) soll minimiert werden
dJ(x,n)/dn=int( -2*n*(f(x-x^n)*x^(n-1) dx)=0

Fuer n<>0 und elementaren Umformungen
....
Int f(x)*x^(n-1) dx =int x^(2*n-1) dx
f(x) liegt mir als Messwerte vor. Ich muss also numerisch integrieren.
Sieht bischen uebel aus die Gleichung. Ich habe jetzt folgenden kleinen
Kustgriff verwendet. Auf beiden Seiten logarithmiert.
Frage : Welche Einschraenkungen muss ich dabei beachten ?

Int log(f(x)*x^(n-1)) dx =int log(x^(2*n-1)) dx
Logaritmengesetzt angewendet ...
n=int log(f(x) dx / int log(x) dx
***********************
Sieht schonmal ganz gut aus oder ? :-)
Ich integriere in den Grenzen 0 bis M
NENNER
int log(x) dx = x*(log(x)-x) Grenze 0..M = M*log(M)-M+1

ZAHLER
Den kann ich nur nuerisch intgrieren zum Beispiel ganz einfach ueber eine Summe, so dass ich n nun bestimmen kann:

Ergebnis
******
Eine Messreihe f(x) von M pos Werten wird ueber x^n gut approximiert wenn gilt :
***********************************
n=Integral(x=1..M, log(f(x)) / (M*log(M)-M+1)
***********************************
(x element N)

Ich habe mal ein paar Tests mit verschiedenen Funktionen durchgefuehrt.
Das scheint einwandfrei zu funktionieren.
Damit habe ich nun die Moeglichkeit fuer eine Reihe von Messwerten den Exponenten n zu bestimmen.Fuer n=-1 liegt die Zipf verteilung vor. Als Guetemass waere also 1+n sinnvoll.
Jetzt erhalte ich sowohl pos als auch neg Werte. Ich bin schon gespannt ob die mit dem
Ljapunov korreliert sind.

BTW :
In den Schaubildern oben ist der LE um den Faktor 0.2 gestaucht.

Ge?ndert von richy (02.09.08 um 03:24 Uhr)
Mit Zitat antworten
  #2  
Alt 01.09.08, 00:20
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Zipfelsinn III

Kann jemand mit Zipfelsinn III ueberhaupt etwas anfangen ?
http://de.wikipedia.org/wiki/Zipfsches_Gesetz
http://de.wikipedia.org/wiki/Pareto-Verteilung

Korrektur :
In meiner Formel oben habe ich die Aplitude der Messwerte nicht beruecksichtigt.
Die Synthesefunktion muss korrekterweise, spezieller c*i^n lauten.
Fuer c kann man zum Beispiel f(1) waehlen.
Mit der Methode von Gauss laesst sich c leider offenbar nicht optimieren.

Nur Vollstaendigkeitshalber :
Es ergibt sich dann:

n= [ Interga(f(x) dx,x=1..M)-(M-1)*log(c)] / (M*log(M)-M+1)
**********************************************
Wobei das Integral numerisch ausgewertet wird. Z.B. mittels Trapezregel.

Die Approximation funktioniert recht gut.
Allerdings ist das Ergebnis nicht sehr viel besser, wie das bisherige Guetemaß.
Die Appproximation stellt eine Naeherung dar waerhend das Fehlerquadrat keine Naeherung enthalt.
Das ist ein Vorteil des Zipfelsinns gegenueber dem neuen Guetmaß.

Nur wenn das System nicht Eingeschwungen ist, sich also noch keine Periodizitaeten
ausbilden, wird der Ljapunovexponent dennoch erstaunlich gut, besonders im chaotischen Bereich incl Vorzeichen abgebildet.


ciao

Ge?ndert von richy (02.09.08 um 03:12 Uhr)
Mit Zitat antworten
  #3  
Alt 01.09.08, 21:31
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Zipfelsinn III

Ergebnisse (ohne Vorlauf, Integration 2 ter Ordnung)



rot=Guetemaß
gruen= Ljapunov
Unterteilung des Intervalls 0..1 in 200 Klasse
Parameter ist der Wert r der Verhulst Gleichung
Diese wurde in 100 Abschnitte aufgeloest
Dass Bild zeigt also 100 numerische Experimente (Wie beim Feigenbaumdiagramm)
In jedem Experiment wurden 1000 Iterationsschritte durchgefuehrt.

Bei eingeschwungenen Periodizitaeten liegt eine Gleichverteilung vor.
n ist dann gleich 0 und n+1=1
Alleine aufgrund diesen Aspekts kann das Guetemaß nicht mit dem LE identisch sein.
Daher auch die grossen Abweichungen im negativen Bereich,geordneten,periodischen Bereich.

Beispiel fuer die x^n Approximation in lineraem Maßstab :
n= [ Interga(f(x) dx,x=1..M)-(M-1)*log(f(1))] / (M*log(M)-M+1)

Horizontale Achse : (Klassennummer)
Vertikale Achse : (Auftrittswahrscheinlichkeit)
rot=Meßwerte
gruen=Approximation

Beispiel fuer die x^n Approximation in logarithmischem Maßstab :


Horizontale Achse : log(Klassennummer)
Vertikale Achse : log(Auftrittswahrscheinlichkeit)

Das funktioniert also recht gut.

Ge?ndert von richy (02.09.08 um 03:01 Uhr)
Mit Zitat antworten
  #4  
Alt 02.09.08, 04:14
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Zipfelsinn III

Eingeschwungener Zustand:

Folgendes Schaubild zeigt die Simulation mit einem Vorlauf von 100 Iterationen.
Damit ist gewaehrleistet, dass periodische, geordnete Zusatende eingeschwungen sind :

rot gibt den Exponenten n der Verteilungsfunktion an.

Der roten und gruenen Kurve scheint zunaechst wenig gemeinsam.
Die Darstellung zeigt, dass es nicht das Ziel sein kann, den Ljapunov
Exponenten ueber eine Betrachtung von Verteilungen zu reproduzieren.
Das ist aber auch ueberhaupt nicht notwendig.
Das eigentliche Interesse liegt darin chaotische und nichtchaotische Systeme
zu unterscheiden. Zusaetzlich sollen die Uebrgaenge beider Zustaende, Birfurkationen detektiert werden.

Wenn man genau hinschaut :

Mit n=n'+1 gibt es drei Bereiche :

1)n=0 (auf jeden Fall eine Birfukation)
2)n in etwa 0.5 (chaotischer Bereich)
3) n=1 (deteminierter, periodischer, gleichverteilter Bereich)
Natuerlich gibt es auch gleichverteilte Zufallsprozesse.
Die Methode ist also nicht eindeutig

Aus den Ergerbnissen ohne Vorlauf folgt noch eine vierter
Bereich :
n<0, der dem nichtchaotischen Bereich zuzuorden ist, wenn dieser
nicht eingeschwungen ist.

Man kann mit dem Ergebnis also schon etwas anfangen.

Ge?ndert von richy (02.09.08 um 16:10 Uhr)
Mit Zitat antworten
  #5  
Alt 02.09.08, 21:31
Benutzerbild von Hamilton
Hamilton Hamilton ist offline
Profi-Benutzer
 
Registriert seit: 02.05.2007
Ort: Deutschland
Beitr?ge: 447
Standard AW: Zipfelsinn III

Das ist ja ganz interessant, aber ich hätte da ein paar Kommentare:
Soweit ich das sehe, hast Du mit deiner Zipfdistance (ich schlage diesen Namen vor, denn Zipfelsinn klingt schon etwas naja, oder?), die nichts anderes ist als der (euklidische?) Abstand der Werteverteilung einer Zahlenfolge zu (irgendeiner?)-Zipfverteilung.
Das Gauß'sche Fehlerintegral ist das hier:

Das ist aber völlig unbrauchbar, da du ja nicht davon ausgehst, dass hier irgendwas Gaußverteilt ist, daher denke ich, dass das wieder nur ein Namensproblem ist.
Nach http://en.wikipedia.org/w/index.php?...ldid=229365506
ist
Zitat:
Zipf's law states that given some corpus of natural language utterances, the frequency of any word is inversely proportional to its rank in the frequency table. Thus the most frequent word will occur approximately twice as often as the second most frequent word, which occurs twice as often as the fourth most frequent word, etc. For example, in the Brown Corpus "the" is the most frequently occurring word, and by itself accounts for nearly 7% of all word occurrences (69971 out of slightly over 1 million). True to Zipf's Law, the second-place word "of" accounts for slightly over 3.5% of words (36411 occurrences), followed by "and" (28852). Only 135 vocabulary items are needed to account for half the Brown Corpus.
Also eine typische Verteilung von Wörtern in einem "sinnhaltigen" Text, verfasst in englischer, oder vermutlich auch einer anderen Sprache.
Trotzdem ist es ein bisschen hoch gepokert zu behaupten, es sei ein Maß für den semantischen Inhalt eines Textes- viele Texte folgen scheinbar Zipf's Law, ob nun sinnvoll oder nicht. Der Schritt, das zu verallgemeinern und die Verteilung einer Zahlenfolge damit zu untersuchen und das Ergebnis als semantisches Informationsmaß zu verkaufen ist noch viel gewagter.
Immerhin hast du dort hohe Werte, wo der Verlauf der logist. map periodisch ist, also extrem langweilig, wie ich finde. Warum das Maß scheinbar völlig unbeeindruckt von der Zyklenzahl ist, müsstest du auch noch begründen, wenn du an dieser Interpretation festhalten willst.

Trotzdem ist es interessant zu sehen, dass da was bei herauskommt.
Immer dort, wo der Lyapounovexponent positiv ist, nimmt dein Maß ab. Nur in den nichtchaotischen Inseln und vor dem ersten Übergang ins Chaos hast Du hohe Werte, vermutlich weil du dort n-fach Zyklen hast und die sind halt periodisch und haben eine ganz andere Verteilung als die chaotischen Bereiche, die scheinbar eher eine Powerlaw bzw. Zipfverteilung haben.

Also Fazit: Dein Maß ist interessant, du solltest aber nochmal genau und in möglichst wenigen gut strukturierten Formeln aufschreiben, wie genau es definiert bzw. gebildet wird- von welcher Zipfverteilung du ausgehst, wie du die Parameter wählst und wie du den Abstand genau berechnest (ich weiß, steht irgendwo im Code, aber du kennst mich doch inzwischen, ich mag es auf dem Silbertablett, vorgekaut- ich will nicht lang suchen müssen)
Dann solltest du mal versuchen das gegen andere Verteilungen zu testen- z.b. Gauß, Poisson, Weibull
wäre doch interessant zu wissen, ob es mit denen auch geht oder was da sonst passiert.
Ich weiß allerdings nicht, ob es wirklich eine gute Anwendung dafür gibt, für die es nicht bereits "sauberere" Methoden gibt, aber das wird man sehen.
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun."
Richard P. Feynman
Mit Zitat antworten
  #6  
Alt 03.09.08, 02:35
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Zipfelsinn III

Hallo Hamilton
Vielen Dank fuer dein Interese an meinem Beitrag.
Erstmal :
Ja, ich habe an mehreren Stellen eine falsche Bezeichnung fuer die Methode der kleinsten Quadrate gewaehlt. Diese ist von Gauss und man integriert schliesslich ueber alle Fehlerquadrate. Der Name Gaussches Fehlerintegral ist aber wie du auch festgestellt hast schon fuer ein anderes Integral vergeben :
http://upload.wikimedia.org/math/5/5...292e43433f.png
Das hat mit meiner Berechnung aber nichts zu tun. Ich muss die falsche Bezeichnung noch auf einigen Seiten korrigieren.
Weisst du den korrekten Namen fuer das Integral der Methode der kleinsten Quadrate ?

Methode der kleinsten Quadrate :
*************************
Wenn ich ein Funktion f(x) ueber eine Synthesefunktion s(x) annaehern will, messe ich die Abstandsquadrate wie dieses Bild zeigt.

Man waehlt Synthesefunktionen die von einem oder mehreren Parametern a abhaengen.
Nun integriere ich alle Abstaende :
J=Integral(f(x)-s(x,a)^2dx)
Der Fehler J kann ich minimieren indem ich dJ(a)/da=0 bilde
Liegen mehrere Parameter a vor muss ich dazu ein Gleichungssystem loesen.
Die Mehode ist recht bekannt. Waehlt man harmonische Funktionen ist wegen der Orthogonalitaet nur die Hauptdiagonale des Gleichungssystems besetzt. Dies nuetzt z.B. die Fourierreihenapproximation aus.
Meine Simulation ist aber weitaus einfacher.

Was habe ich fuer die Erstellung der Schaubilder also konkret getan ?
Es sind Simulationen der logistischen Gleichung y(k+1)=r*y(k)*(1-y(k))
in der ich ueber r den Ljapunov analytisch berechne.

Und zusaetzlich :
Messe ich fuer jede Funktion die Verteilung der Werte.
Dazu diskretisiere ich das Intervall [0..1] und zaehle wie oft die Werte in den entsprechenden Bereich fallen. Eine ganz uebliche Vorgehensweise, wie sie auch bei der Zipf Verteilung oder anderen Verteilungen benutzt wird.

Und dann gehe ich recht einfach vor :

(alte "Zipfelsinn") Methode 1:
**********************
Hier bestimme ich lediglich das Integral, besser die Summe ueber alle Abstandsquadrate zwischen der ermittelten Verteilung und der Zipf Verteilung: Die wie du angegeben hast lautet:

Allerdings gilt im Zipfschen Gesetzt s=1. Es ist also eine Konstante/k Verteilung. Wobei die Konstante der Normierung dient.

Ich bestimme also J=Summe( (Zipf(N)-Messverteilung(N)^2 )
Das ist alles. Und wenn die Messverteilung genau einer Konstante/k Verteilung entspricht, so ist J gleich 0.
Zum Beispiel bei der Birfukationsstellen der logistischen Gleichung bei 1+Wurzel(8).
Exakt Zipf Verteilt. Was schon merkwuerdig ist.
Genauso Woerter in Sprachen, Noten in Musik, Staedtegroessen (nicht exakt),
Auch die Primfaktoren der Fib Zahlen. Exakt 1/k. Nicht 1/k^2 oder 1/k^1.1 !
Ich meine man nennt dies einfache Zipf Verteilung oder Zipfsches Gesetz.

Methode 2:
********
Hier gehe ich aehlich vor. Statt der Summe der Abweichungen zur Zipf Verteilung zu messen versuche in den Exponenten s aus dem Messwerten der folgenden Gleichung zu bestimmen :


Dazu benutze ich (eher zufaellig) ebenfalls die Methode der kleinsten Quadrate.
Wobei ich von der Notation Konstante*k^s ausgegangen bin.
Es ergibt sich folgende Bestimmungsgleichung fuer s :
s= [ Interga(f(x) dx,x=1..M)-(M-1)*log(f(1))] / (M*log(M)-M+1)
x element N
f(x) sind die gemessenen Verteilungswerte.
M=Anzahl der Messwerte. Also Anzahl der Klassen die sich ergeben haben.
Das Integral muss natuerlich numerisch ausgewertet werden.

Dass diese einfache Approximationsformel gut funktioniert habe ich oben dargestellt.
Ich habe das auch graphisch in der Simulation fuer jeden Schritt ueberprueft.
Mein ermitteltes s passt recht ordentlich.


Fuer s=-1 ergibt sich die Zipf Verteilung.
Oder besser gesagt das Zipfsche Gesetz. Hier gilt s=-1.
Und mehr aus Anschuungsgruenden habe ich letztendlich s+1 dargestellt. Damit der Wert bei Zipf Verteilungen gleich 0 wird.
Diese treten an Birfukatoionen auf und da ist der Ljapunov auch 0.

Fuer eine weitere Diskussion ist dieses Bild aber geeigneter.
Das stellt nun wirklich s in k^s dar.
Abb A)


Zitat:
Trotzdem ist es ein bisschen hoch gepokert zu behaupten, es sei ein Maß für den semantischen Inhalt eines Textes- viele Texte folgen scheinbar Zipf's Law, ob nun sinnvoll oder nicht.
Ja, es ist gewagt. Darum habe ich auch geschrieben :
Zitat:
Mit dem "Zipfelsinn", ein Guetemass dass ich aus der Zipf Verteilung hergeleitet habe, laesst sich die semantische Information einer Nachricht abschaetzen.
Falls es so eine gibt.
Ich kann in einem Buch alle Woerter umsortieren, so dass der Text sinnlos wird. Dennoch bleibt die Wortverteilung gleich.
Aus A folgt B kann ich nicht schliessen aus B folgt A. Schon klar.
Wobe es dennoch erstaunlich ist warum die Zipfsche oder Benfordsche Verteilung ueberhaupt so oft anzutreffen ist.
Steckt in Mozart mehr semantische Information als in Schoenberg ?
Bisher koennen wir solche Information nicht messen.

Letztendlich ist es eine Spielerei. Wobei so etwas wie ein numerisch ermittelter Ljapunovexponent natuerlich ein ganz handfeste Anwendung waere. Allerdings kann dies mit den Methoden nicht exakt gelingen. Aber Birfukationsstellen zu detektieren scheint moeglich.

Zitat:
Immerhin hast du dort hohe Werte, wo der Verlauf der logist. map periodisch ist,
Ich denke mit Abb A) ist es nun erkenntlicher warum dem so ist.
Im periodischen Bereich habe ich s=0 gemessen. Akso eine Gleichberteilung.
Was natuerlich naheliegend ist.
Man sieht auch sehr schoen dass bei der Naeherung an die Birfukation bei etwa 3.4 eine 1/k Verteilung vorliegt. Wobei diese bei einem laengeren Einschwingen des Systems sich wohl einer Gleichverteilung naehern wurde k^0.

Was man auch schoen sieht und ich mir nicht erklaeren kann.
Im chaotischen Bereich liegt eine 1/(Wurzel(k)) Verteilung vor.
Das liegt wohl am quadratischen Charakter der Gleichung.

Und was man leider nicht gut sieht. Den 0-Peaks (Gleichverteilung,Periodizitaet) bei den Birfulationsstellen geht ein Zipf also 1/K Verteilung oder wenigstens Tendenz hierzu voraus, die nicht wahrscheinlich nicht verschwindet, einschwingt. Man muss hier sehr viel hoeher aufloesen um dies darzustellen. Daher auch diese Bild.


Die alte Methode 1 zeigt dies noch genauer und ist auch genauer

Hier ist die Abweichung zur 1/k Verteilung dargestellt. J=0
(BTW: Den Ljapunov habe ich hier dummerweise mit 0.2 skaliert.)
Vor dem grossen Fester der Ordung bei 1+Wurzel(8) sind die Werte genau einfach Zipf verteilt.
Genau 1/k. Hast du eine Erklaerung ? Ich nicht.

Zitat:
... von welcher Zipfverteilung du ausgehst,
Ich hoffe das ist jetzt klar. 1/k, also s=1, dem Zipfschen Gesetz..
Immer wenn etwas harmonisch ist scheint es genau 1/k verteilt.
Und Chaostheoretiker meinen Leben spielt sich an der Grenze zwischen Ordnung und Chaos ab. Da wird die Welt auch fraktal.
Dass der goldene Schnitt hier wohl eine Rolle spielt zeigen die Fib Zahlen.
In der Musik ist der sonst nicht so offensichtlich wie zum Beispiel der Malerei.

Viele Gruesse

Ge?ndert von richy (03.09.08 um 04:16 Uhr)
Mit Zitat antworten
  #7  
Alt 03.09.08, 03:00
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Zipfelsinn III

MOZART :
http://science.orf.at/science/news/116198


Uebrigends schlecht dargestellt. Auch die Achsen vertauscht ?
Man muss beide Achsen logarithmieren um eine Gerade zu erhalten.
Dann sieht man die Abweichungen sehr viel besser.

Und vielleicht nochmal ganz kurz gefasst :

Zitat:
Soweit ich das sehe, hast Du mit deiner Zipfdistance (ich schlage diesen Namen vor, denn Zipfelsinn klingt schon etwas naja, oder?), die nichts anderes ist als der (euklidische?) Abstand der Werteverteilung einer Zahlenfolge zu (irgendeiner?)-Zipfverteilung.
Genau, das has hatte ich mit der Methode 1 gemessen. Abstand der Werteverteilung einer Zahlenfolge zur Zipf Verteilung Kostante/k.

Und mit Methode 2 habe ich von Kostante/k^s den Exponenten s numerisch approximiert.
Wobei ich von Kostante*k^s ausgegangen bin und bisher s+1 dargestellt habe.
Abb A) zeigt s

Zitat:
Warum das Maß scheinbar völlig unbeeindruckt von der Zyklenzahl ist, müsstest du auch noch begründen.
Was meinst du mit Zyklenzahl ?
Durch das Einschwingen spielt die Anzahl der Iterationen schon eine gewisse Rolle.

Oder meinst du mit Zyklenzahl die Anzahl periodischer Attraktoren ?
Die Gleichverteilung beim Weg zum Chaos laesst sich in etwa erklaeren.
Hier liegt das Prinzip der Periodenverdopplung vor.2 er 4 er 8 er 16 er Zyklen
Ein 16 er Zyklus ist alle 8 Schritte ein 2 er Zyklus. Der groesste Zyklus ist maßgebend.
Pr0blematisch ist hier aber dass wenig Klassen vorliegen.

Beweisen kann ich mit einem numerischen Versuch nichts. Nur zeigen, dass die Werte
beim Weg ins Chaos anscheinend tatsaechlich gleichverteilt sind.
Und das die Konvergenz umso schlechter wird he naeher sich der Ljapunov dem Wert 0 naehert.
Daher auch die beiden Peaks im periodischen Bereich dort.Trotz 100 Vorlaufe ist die
Iteration dort noch auf dem Weg zum Attraktor.
Ein Vergleich der Langzeittendenz bei r=3 und r=1+Wurzel(8) waere noch interessant.
Z.B. ueber 100 000 Iterationen. Das geht in Minuten.
Programmiert habe ich das schon.
Ebenso eine numerisch Approximation des LE:
http://home.arcor.de/richardon/richy...alytic/le3.htm
Unter der Vorraussetzung , dass der gegebenen Wertetabelle eine Differenzengleichung 1 ter Ordnung zugrunde liegt.
Ich vermute das funktioniert nur bei Systemen erster Ordnung.

Was meinst du ?

Ge?ndert von richy (03.09.08 um 14:02 Uhr)
Mit Zitat antworten
  #8  
Alt 03.09.08, 22:58
Benutzerbild von Hamilton
Hamilton Hamilton ist offline
Profi-Benutzer
 
Registriert seit: 02.05.2007
Ort: Deutschland
Beitr?ge: 447
Standard AW: Zipfelsinn III

Hi,
danke für deine Antwort.
Also die Methode der kleinsten Quadrate, so heißt das, glaub ich, kenn ich, allerdings wende ich meist einfach Algorithmen an, die das effektiv implementiert haben, z.b. in Gnuplot, wenn ich eine Funktion gegen eine Datenmenge fitten will- eine typische Anwendung für diese Methode, deswegen wird sie auch gern "least square fit" genannt.
Ich denke, dass das eine Möglichkeit ist, den Abstand abzuschätzen, du könntest aber auch eher in Richtung Kullback-Leibler-Entropie gehen und das Maß damit auf einen informationstheoretischen Boden stellen; das halte ich hier für eleganter und angebracht.

Was Du jetzt mal tun solltest:
Versuch mal verschiedene chaotische Prozesse (Maps oder ODEs) auf ihre Werteverteilung zu untersuchen und zu schauen ob sie mit 1/x verteilt sind.
Also Lorenz, Rössler, Hénon, ...
Das würde mich mal interessieren, ob diese Power Law oder scalefree Verteilung charakteristisch ist für Chaos- sowas hab ich mir nie angeschaut-

Nachwievor kannst Du den Anspruch ein semantisches Maß zu haben (falls es das gibt) nicht halten. Dazu hast Du einfach keinen Anhaltspunkt, es ist nicht plausibel zu begründen.
Du hast z.b. für r=3.2 einen zweierzyklus und bei r=3.5 einen viererzyklus, aber dein Maß ändert sich nicht signifikant. Ich müsste doch davon ausgehen, dass dies einen Unterschied im Semantikgehalt gibt, wenn dein Maß das tatsächlich messen könnte.
Außerdem kann man einfach zufällszahlen generieren, die 1/x verteilt sind und die hätten dann einen anderen Semantikgehalt, als gauß-oder gleichverteilte Zufallszahlen. Mich wundert sowieso, warum du den reinen Abstand als Maß benutzt, wo doch der Abstand zu exakt 1/x verteiltem Text, wie er ja hohe Semantik aufweisen müsste, gerade einen kleinen Abstand hat-
Vergiss also lieber die Semantik, das kannst du nicht halten.

Interessant könnte dein Maß dennoch sein, sollte sich rausstellen, dass man damit leicht chaos von stochastischem Rauschen mit hoher Sicherheit unterscheiden kann, denn das wird derzeit wohl eher mit Periodogrammen gemacht und dann muss man da noch draufgucken und das entscheiden.
Ich bin mir aber nicht sicher, ob es da nicht was besseres gibt.
Also bleib dran.
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun."
Richard P. Feynman
Mit Zitat antworten
  #9  
Alt 03.09.08, 23:03
Benutzerbild von Hamilton
Hamilton Hamilton ist offline
Profi-Benutzer
 
Registriert seit: 02.05.2007
Ort: Deutschland
Beitr?ge: 447
Standard AW: Zipfelsinn III

Zitat:
...Unter der Vorraussetzung , dass der gegebenen Wertetabelle eine Differenzengleichung 1 ter Ordnung zugrunde liegt.
Ich vermute das funktioniert nur bei Systemen erster Ordnung.

Was meinst du ?
Keine Ahnung- warum vermutest du, dass es nur bei system 1. ordnung geht?
Ich würde mal, an deiner Stelle, einige prominente Beispiele untersuchen und die Verteilung anschauen- vielleicht findest du gemeinsamkeiten, vielleicht auch nicht.
__________________
"Wissenschaft ist wie Sex. Manchmal kommt etwas Sinnvolles dabei raus, das ist aber nicht der Grund, warum wir es tun."
Richard P. Feynman
Mit Zitat antworten
  #10  
Alt 03.09.08, 23:51
Benutzerbild von richy
richy richy ist offline
Singularität
 
Registriert seit: 01.05.2007
Ort: karlsruhe
Beitr?ge: 4.170
Standard AW: Zipfelsinn III

Hi Hamilton

Zitat:
... du könntest aber auch eher in Richtung Kullback-Leibler-Entropie gehen und das Maß damit auf einen informationstheoretischen Boden stellen;
Danke fuer den Tipp, danach werde ich mal googeln.

Zitat:
Versuch mal verschiedene chaotische Prozesse (Maps oder ODEs) auf ihre Werteverteilung zu untersuchen und zu schauen ob sie mit 1/x verteilt sind.
Also Lorenz, Rössler, Hénon, ...
Klar das wuerde mich auch interessieren. Oder auch konkrete Messdaten.
Tropfender Wasserhahn, Aktienkurse, Midifiles etc.
Wobei ich die Verteilung nur bei Uebergaengen Chaos->Orednung vermute.

BTW: Das Zipfsche Gesetz ist uebrigends eine Konstante/x Verteilung.
Konstante = 1/Summe(1/n,m=0..M)

Zitat:
Nachwievor kannst Du den Anspruch ein semantisches Maß zu haben (falls es das gibt) nicht halten. Dazu hast Du einfach keinen Anhaltspunkt, es ist nicht plausibel zu begründen.
Naja. Das Gegenteil kann mir aber auch niemand beweisen :-) Semantik ist ein mehr
philosophischer Begriff. Und in der Musik wird die Verteilung genau fuer den Zweck angewendet.Wobei es subjektiv ist was nun als harmonischer empfunden wird. Wenn Lang Lang oder ein Affe Klavier spielt.
Auch einem Lied mit gleichverteilten Noten wird man nicht Lang zuhoeren.
Mal abgesehen von der Basedrum.
Und irgendwie will man ja auch bischen Interesse beim Leser wecken.
Auf meiner Seite sollte auch klar sein wie dies gemeint ist.

Es ist auch seltsam wie ich dazu kam die Primfaktoren der Fib-Zahlen bezueglich der Zipf Verteilung zu untersuchen. Bei Heim spielen die Fibonacci Zahlen bei den informatorischen Koordinaten eine Rolle.
Naja wenn eine Zahl ein Satz ist, dann sind deren Primfaktoren die Woerter.
Der Versuch war recht aufwendig und man freut sich dann, wenn ein Ergebnis dabei herauskommt, das man doch eher nicht erwartet hat.

Wobei man das auch einfacher haben kann. So ist bekannt, dass die Ziffern
der Fibonacci Zahlen der Bendford Verteilung gehorchen. Die meisten beginnen
mit einer 1. Am zeithaeufigsten mit 2 e.t.c .. Irgendwie irre

Aber Ok.Ich werde meine Webseite mal korrigieren, welche Stellen wirklich nicht haltbar sind. Wobei die Seite nicht nur bei Mathematikern interesse wecken soll. Einige Musiker benutzen Verhulst fuer Klangexperimente.
Ein Tipp waere also Werte mit k/x Verteilung zu bevorzugen.
Ebenso gibt es akademische Arbeiten die auf biegen und brechen versuchen in der Musik
wie bei der Malerei den goldenen Schnitt zu finden. Meist an den Haaren herbeigezogen.
Die Primfaktoren der Fibonacci Zahlen koennten hier einen Hinweis liefern.
Ueberhaupt auch was das Besondere an dieser Verteilung ist.

Zitat:
Du hast z.b. für r=3.2 einen zweierzyklus und bei r=3.5 einen viererzyklus, aber dein Maß ändert sich nicht signifikant.
Die Zyklen im geordneten Teil sind gleichverteilt.Wirklich signifikant scheint mir auch nur die Stelle r=1+Wurzel(8). Der Uebergang zu einer grossen Insel der Ordnung mitten im Chaos.
Gerade solche Stellen sind auch von besonderem Interesse.

Zitat:
Außerdem kann man einfach zufällszahlen generieren, die 1/x verteilt sind und die hätten dann einen anderen Semantikgehalt, als gauß-oder gleichverteilte Zufallszahlen.
Klar habe ich mir auch schon ueberlegt. Hier auch programmiert :
http://home.arcor.de/richardon/richy...alytic/rnd.htm
Wobei veschiedene Verteilungen aber auch zu einem abweichenden shannonschen Informationsgehalt fuehren.

Die Zipf Verteilung ist hoestenfalls notwendig aber nicht hinreichend.
Ein Scrabbelspiel mit Buchstaben die nicht der Zipf-Verteilung entsprechen waere jedenfalls dennoch frustruerend. Immerhin steckt darin die Informatiom:
Das sind die Buchstaben einer Sprache.

Zitat:
Mich wundert sowieso, warum du den reinen Abstand als Maß benutzt, wo doch der Abstand zu exakt 1/x verteiltem Text, wie er ja hohe Semantik aufweisen müsste, gerade einen kleinen Abstand hat-
Verstehe ich jetzt nicht so ganz. Meinst du dass ausgerechnet Maß=0 bedeutet Zipfsches Gesetz ? Naja man koennte 1/Maß bilden.
Aber so passt es zufaellig auch gut mit dem Ljapunov zusammen.
Mit s*=s+1 habe ich oben ja auch eher Verwirrung gestiftet.

Periodogramme sind auch interessant. Sollte ich mir wieder mal anschauen.
Auch die Autokorrelationsfunktion.

BTW
Hab die Kullback-Leibler-Entropie gefunden. Danke.

ciao

Ge?ndert von richy (04.09.08 um 05:27 Uhr)
Mit Zitat antworten
Antwort

Lesezeichen


Forumregeln
Es ist Ihnen nicht erlaubt, neue Themen zu verfassen.
Es ist Ihnen nicht erlaubt, auf Beitr?ge zu antworten.
Es ist Ihnen nicht erlaubt, Anh?nge hochzuladen.
Es ist Ihnen nicht erlaubt, Ihre Beitr?ge zu bearbeiten.

BB-Code ist an.
Smileys sind an.
[IMG] Code ist an.
HTML-Code ist aus.

Gehe zu


Alle Zeitangaben in WEZ +1. Es ist jetzt 09:11 Uhr.


Powered by vBulletin® Version 3.8.8 (Deutsch)
Copyright ©2000 - 2024, vBulletin Solutions, Inc.
ScienceUp - Dr. Günter Sturm