PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Quantenchromodynamik mit Superrechner bestätigt


Sino
22.11.08, 00:56
Scinexx-Wissensmagazin: Einem internationalen Forscherteam ist es erstmals gelungen, die Masse der wichtigsten Bausteine der Materie - Protonen und Neutronen - auf theoretischem Weg zu berechnen....

http://www.scinexx.de/wissen-aktuell-9147-2008-11-21.html

Prinzipiell beruht die Quantenchromodynamik zur Erklärung der Vorgänge von Quarks und Gluonen soweit ich weiss auf dem gleichen Ansatz, den Feynman für seine Theorie der QED (Quantenelektrodynamik) verwandt hat, die die Wechselwirkung von geladenen Teilchen mit Photonen und W+Z Bosonen entwickelt hat, wobei die QED als die am besten bestätigte Theorie der Physik gilt.

Das Problem der Quantenchromodynamik war nun lange Zeit, dass man sich zwar ziemlich sicher war, dass die Theorie funktioniert, aber da die Vorgänge soviel komplexer gegenüber der QED waren durch ein Gros mehr an Möglichkeiten der Wechselwirkung, war eine genaue Überprüfung bisher kaum möglich.
Nun hat man mit dem Supercomputer JUGENE in Jülich wohl viel genauer gerechnet und die im Computer errechnete Protonen- und Neutronenmasse stimmen mit den Messdaten überein. Die Massen ergeben sich danach grössenteils aus der Bewegungsenergie der Quarks und Gluonen nach Einsteins Formel E=mc².

(edit: Genauigkeit stand in dem Artikel nicht, vielleicht gibt es dazu etwas auf einer Seite vom Forschungzentrum Jülich)

richy
22.11.08, 03:24
Steht heute auch bei CNN NTV drin
http://www.n-tv.de/1057260.html

Jogi
22.11.08, 11:51
...Einsteins Spezielle Relativitätstheorie von 1905 auf subatomarer Ebene: Auch dort sind Energie und Masse äquivalent. "Bisher war das eine Hypothese", erklärte das CNRS. "Es wird nun zum ersten Mal untermauert."

Und weiter:

Basis sei ein Modell gewesen, "das Raum und Zeit als Teil eines vierdimensionalen Kristallgitters darstellt, mit diskreten Punkten, die entlang Spalten und Reihen verteilt wurden".

Verstehe ich das richtig?

Man hat da also auch eine Art dynamische Struktur geschaffen, die bei entsprechend hoher Auflösung die Messwerte bestätigt und auch noch theoretisch erklärt.

Wie würde wohl eine Visualisierung dieser Gitterpunkte aussehen?


Gruß Jogi

Sino
22.11.08, 12:41
@Jogi

Hier steht auch noch etwas mehr dazu:
http://www.pro-physik.de/Phy/leadArticle.do?laid=11262

Das Modell läuft unter dem Namen Gitter-QCD ( engl. Lattice GCD ).
Weiss leider selber nichts über die Felder, mit denen da gearbeitet wird.

Aber dass man das Ganze als Kristallstruktur auf einem Raumzeitgitter betrachten kann, scheint mir nicht so abwegig.
Es gibt ja auch die klassischen Verfahren, um z.b. die Maxwellschen Gleichungen im Raum zu simulieren, wie Finite-Difference-Time-Domain.
Da hat man dann Gitterpunkte im 3-dimensionalen Raum und geht in Zeitschritten Delta_t voran, berechnet die Veränderung, die sich aus der Wechselwirkung zwischen benachbarten Gitterpunkten ergibt und bekommt damit den Zustand des neuen Gitters.

Nun könnte man die Zeitachse natürlich auch diskretisieren und dann mit den 4-D Raumzeitkoordinaten der SRT arbeiten.
Dann hätte man es nicht mehr mit einen dynamischen 3D-Raumgitter zu tun, dass man sukzessive über die Zeit verändert, sondern quasi mit einem Gitter aus 4-D Raumzeitpunkten, dass man mit Hilfe der in 4D formulierten Wechselwirkungen füllt. Das Gebilde könnte man dann wohl auch "Kristallgitter" in einer Raumzeit nennen.

Ist natürlich etwas spekulativ von mir, aber die Sache mit dem Übergang von klassischer 3D Simulation mit einem Raumgitter, dessen Punkte man über die Zeit verändert, zu einem 4D Raumzeit-Gitter, weil die Theorien eh so formuliert sind, scheint mir naheliegend.

P.S.: Der Simulationsaufwand wird aber sicher ungeheuer hoch sein, 3D Probleme relativ genau so zu lösen zwingt die Rechner schon in die Knie, bei 4D muss es übel werden.

Uli
22.11.08, 14:09
...
Das Problem der Quantenchromodynamik war nun lange Zeit, dass man sich zwar ziemlich sicher war, dass die Theorie funktioniert, aber da die Vorgänge soviel komplexer gegenüber der QED waren durch ein Gros mehr an Möglichkeiten der Wechselwirkung, war eine genaue Überprüfung bisher kaum möglich.
...


Hinzu kommt, dass bei den niedrigen Energien, die typisch sind für Confinement (Bindung der Quarks zu Hadronen), der störungstheoretische Ansatz (Feynman-Diagramme) versagt, da in diesen Bereichen die effektive Kopplungskonstante der QCD zu groß ist, um Reihenentwicklungen zu ermöglichen.

Bei hohen Energien ("asymptotische Freiheit") - z.B. tief inelastische Streuung - hat sich die QCD ja schon lange bewährt.

richy
22.11.08, 14:10
P.S.: Der Simulationsaufwand wird aber sicher ungeheuer hoch sein, 3D Probleme relativ genau so zu lösen zwingt die Rechner schon in die Knie, bei 4D muss es übel werden.


Hab mir das auch gerade ueberlegt.
Es kommt aber natuerlichauf die Aufloesung, Anzahl der Gitterpunkte an.
Als ich noch an der Uni gearbeitet habe, hat eine Workstation fuer eine 2 D Simulation schon mal 14 Tage gerechnet. Das waeren Wellenausbreitungen, also Zeitfunktionen und daher im Grunde 3 D Simulationen. Wobei man ueber Symetrie im Grunde immer 4 D rechnet,.abhaengig vom Koordinatensystem.

Und jedes Ballerspiel stellt so gesehen auch eine 4 D Simulation dar.
Aber verktoriell und mit geringer Aufloesung.

Sorry dass ich hier wieder B.Heim erwaehne. Aber diese Simulation ist seiner Vorgehensweise schon recht aehnlich. Quantisierte Feldgleichungen der ART werden bis hinunter zur Quantenebene betrachtet.
@sino
Hast du mitverfolgt, dass die Gravitation der Gravitation von Heim im Detail doch anders behandelt wurde als von Einstein ?
http://www.relativ-kritisch.de/forum/viewtopic.php?t=272&start=60
Heim hat hier noch die E,M Felder beruecksichtigt.

Wuerde man dies aendern und noch "etwas" analytische Vorarbeit leisten, muesste man automatisch bei der Heim Theorie landen.

Aber jetzt wird mir gerade auch klar. Wollte man hier numerisch etwas simulieren. Das waeren ja 6D oder 8D Simulationen !
Mit der heutigen Rechnergeneration gar nicht realisierbar.
Wobei Heim uns einen Teil der Arbeit bereits abgenommen hat, indem er analytische Loesungen berechnet hat.
Diese Metronenrechnung.
Damit muesste sich doch auch eine neues numerisches Verfahren konstruieren lassen.
Potential, dass einfach so auf der Strasse liegt. Dazu kostenlos. Man muesste es "nur" aufheben.

Hermes
22.11.08, 16:02
Diese Simulation bestätigt doch auch vor allem Einstein einmal mehr!

Was mir nicht ganz einleuchtet, wieso Quantenmechanik und Relativitätstheorie nicht zusammenpassen sollen? Hier wird doch E=mc² sehr erfolgreich auf Quantenebene angewendet!
Habe den Verdacht, das liegt am 'nichtlokalen' der Quantenmechanik, und die ist für mich persönlich mit der Annahme verschränkter Teilchen als ein einziges hochdimensionales Objekt das in Form dieser Teilchen in unsere Raumzeit ragt zufriedenstellend erklärt.

Was mir auch auffällt ist, daß man die Teilchenmasse mithilfe eines Rechenverfahrens/Modell berechnen konnte das mit einer quantisierten Raumzeit arbeitet.
Erinnert wirklich an Heim, der ja (wie auch immer?!;) ) eventuell:rolleyes: auch schon die Elementarteilchenmassen errechnen konnte.

Was für ein Kunstwerk nebenbei, auf makroskopischer Ebene (JUGENE) mikroskopische Teilchen (Elektronen) in ein extrem komplexes logisches Labyrinth (die Leiterbahnen) zu führen und damit einen Vorgang im Inneren anderer subatomarer Teilchen (Protonen) abzubilden.

criptically
22.11.08, 16:38
Diese Simulation bestätigt doch auch vor allem Einstein einmal mehr!

...
Genau, vor allem wurde bestätigt dass die Geschwindigkeit in allen Bezugssystemen eine Konstante ist. :D :D :D

mfg

richy
22.11.08, 17:05
Genau, vor allem wurde bestätigt dass die Geschwindigkeit in allen Bezugssystemen eine Konstante ist.
Klar das steckt auch in der ART mit drin, ist aber nur ein Aspekt der RT.

@Hermes
Der Witz ist ja, dass man bei numerischen Simulationen immer quantisiert z.B. mit Differenzen rechnen muss. Wenn eine analytische Loesung nicht existiert wird numerisch simuliert.
Und das geschieht stets diskretisiert. Analoge Rechner gibt es ja nicht mehr.
Darueber koennte man aber auch mal nachdenken. Ein hochintegrierter digital programmierbarer Analogrechnerbaustein.
Absolute Genauigkeit laesst sich bei nichtlinearen Systemen soundso nicht erreichen.
Und Rechenzeit waere kein Problem mehr.
Nur wie erzeuge ich da eine Matrix ?

Sino
22.11.08, 17:10
Hast du mitverfolgt, dass die Gravitation der Gravitation von Heim im Detail doch anders behandelt wurde als von Einstein ?
http://www.relativ-kritisch.de/forum/viewtopic.php?t=272&start=60
Heim hat hier noch die E,M Felder beruecksichtigt.

Dass Heim einen Unterschied bei der Behandlung der Gravitation der Gravitation macht, wundert mich nicht, da es natürlich verzwickt ist, wie man die Auswirkungen, des Phenomen's das man zu erklären versucht, wieder als Ursache mit einrechnet.
Das EM-Feld sollte aber doch schon bei Einstein mit drin sein. Einstein macht da seit spezieller Relativitätstheorie keinen Unterschied zwischen Energie und Masse. Damit sollte er EM-Felder schon mit seinem Energie-Impulstensor mit abgedeckt haben.

Achso, was Heim betrifft, ich habe mich noch nicht weiter damit befasst. Nicht weil ich nicht will, sondern weil ich erstmal "gut genug" werden muss, um solche Theorien mathematisch nachvollziehen zu können. Das ist mir alles noch zu hoch. ( Das ist bei mir bei der ART aber auch noch so. Ich glaub, ich würde sagen, mein Zugang dazu ist bisher eher "qualitativ", zumindest wenn "quantitiv" heissen würde: "Ich kann die Herleitung mathematisch nachvollziehen und mit dem Ding rechnen." ;) )

Was diese Simulation hier betrifft, das hat ja alles mit Gravitation noch nichts zu tun. Da geht es um das Standardmodell der Physik. Das spielt Quantenphysik und spezielle Relativitätstheorie eine Rolle. Die sind aber schon lange vereint. ( Die Dirac-Theorie des Elektrons war doch schon relativistisch, und das ist lange her. )
Von daher seh ich da noch keinen Bezug zu Heim. Wenn man etwas auf dem Rechner simuliert, muss man quantisieren. Das ist ganz normale Numerik und wenn man die Gleichungen kennt, kann man auch schauen, wie sich Quantisierungsfehler auswirken. Ich meine, auf einer CD sind ja auch Zeitachse und den Wertebereich des Musiksignals quantisiert und es funktioniert im Rahmen gewisser Fehlergrenzen.
Ich denk mal, in der Simulation haben die einfach einen Kompromiss zwischen Rechengenauigkeit und Rechendauer gemacht und sich damit dann auf die Gitterabstände bzw. soundsoviel Millionen Zellen festgelegt.

richy
22.11.08, 17:22
Wenn man etwas auf dem Rechner simuliert, muss man quantisieren. Das ist ganz normale Numerik und wenn man die Gleichungen kennt, kann man auch schauen, wie sich Quantisierungsfehler auswirken. Ich meine, ein CD-Spieler quantisiert ja auch die Zeitachse und den Wertebereich des Musiksignals und es funktioniert.

Ja klar muss man quantisieren. Und das ist der Bezug den ich zu Heim nochmal betonen wollte. Er rechnet analytisch schon quantisiert.
Und bei linearen Systemen konvergiert die Loesung des numerischen Verfahrens gegen die analytische Loesung. Falls alles konsistent ist.
Im nichtlinearen Fall ist das aber keinesfalls so !
Es gibt zwar Konvergenzkriterien aber nur fuer den schwach nichtlinearen Fall.

DGL und deren DZGL sind zwei paar Stiefel.
Beschreiben aehnliche Vorgaenge die im Detail aber voellig verschieden sind.
Man kann die Ursache auch so formulieren, dass in einer DZGL Werte uebersprungen werden koennen. Das geht bei einer DGL nicht.

Bestes Beispiel waere hier wieder die logistische Gleichung:
http://de.wikipedia.org/wiki/Logistische_Gleichung
und die logistische Differentialgleichung / Funktion
http://de.wikipedia.org/wiki/Logistische_Funktion

Man darf dies nicht nur so betrachten, dass die logistische Gleichung im chaotischen Bereich eine instabile Simulation der logistischen DZGL darstellt.
Beides sind eigenstaendige Beschreibungen.
Insbesonders gibt es keine DGL die bereits bei 1. Ordung chaotisches Verhalten aufweisen kann.
Das sind zwei Welten, die nur im linearen Fall ineinander uebergehen.
Die Welt ist aber nichtlinear. Und daher ist die Frage einer allgemeinen Quantisierung entscheidend.

criptically
22.11.08, 17:22
... Wenn man etwas auf dem Rechner simuliert, muss man quantisieren. Das ist ganz normale Numerik und wenn man die Gleichungen kennt, kann man auch schauen, wie sich Quantisierungsfehler auswirken. Ich meine, auf einer CD sind ja auch Zeitachse und den Wertebereich des Musiksignals quantisiert und es funktioniert im Rahmen gewisser Fehlergrenzen. ;)
Das funktioniert nur deshalb weil die Frequenzen über ca. 20kHz nicht unbedingt benötigt werden.

mfg

Sino
22.11.08, 18:32
Das funktioniert nur deshalb weil die Frequenzen über ca. 20kHz nicht unbedingt benötigt werden.

Schon klar, Shannon's Theorem, weil man das Eingangssignal im Frequenzbereich begrenzen muss und mindestens doppelte Abtastfrequenz braucht, um Eindeutigkeit zu bewahren. Wollte da nicht tiefer einsteigen ;)


@Richy, ok, so kann man es sehen. Mit Chaos hast Du natürlich recht.
Aber Strömungssimulation funktioniert ja auch, obwohl man die kleinsten Wirbel nicht vorhersagen kann. Die fügt man dann vielleicht einfach mit einem Extramodell zufallsbasiert abhängig von den übergeordneten Verhältnissen ein und am Ende funktioniert die Simulation hinreichend gut.

Bei der QCD-Simulation interessiert mich letztenendes ja auch nicht, was mit jedem Quark und Gluon passiert, sondern die statistischen Verhältnisse, die am Ende die Masse des Protons bestimmen.
Da hab ich dann naiv gesprochen vielleicht viele Wellenfunktionen, die Teilchen beschreiben. Dann hab ich die Wahrscheinlichkeitsamplitude dafür, dass sich ein Teilchen im Zeitintervall delta_t im Volumen delta_V aufhält, was einer Zelle in der Raumzeit entspricht.
Genauso hab ich die Wahrscheinlichkeitsamplituden dafür, dass zwei in der gleichen Raumzeitzelle sitzende Teilchen miteinander wechselwirken. Oder die Wahrscheinlichkeitsamplitude dafür, dass ein Teilchen sich in ein anderes umwandelt.
Gäbe halt eine Unmenge an Daten. Da muss man halt sinnvoll Grenzen ziehen bzw. vielleicht mal den Effekt eines Zweiges mit Hilfe schon bekanner Daten abschätzen, den man nicht weiterverfolgt.
Aber prinzipiell wüsste ich nicht, was dagegen spricht, dass es prinzipiell so funktionieren könnte. Wenn es nicht soviel Rechenaufwand bedeuten würde. Ich meine die Rechnung mit Wahrscheinlichkeitsamplituden selber ist ja nicht allzu kompliziert.


@EMI Stimmt natürlich. Es geht nicht um die Quarkmassen selber. Weiss nicht, ob ich irgendwo was anderes gesagt habe, sollte eigentlich nicht so sein. :)

Jogi
22.11.08, 18:44
Hi.


Für mich sieht das so aus:

Je näher man Rom kommt, umso mehr ähneln sich die Wege, die dort hin führen.


Gruß Jogi

Lambert
22.11.08, 23:29
ein Verwirrspiel?

Gruss,
Lambert

PS. die Ergebnisse bringen doch nichts Neues.

Kurt
23.11.08, 00:01
Hallo Lampe,

doch, doch! Das ist ein "Vielzahlkörperproblem"! Wenn da die Berechnung zu gelungen ist, sind wir einen RIESIGEN Schritt weiter.

Bleibt nur noch die winzige Aufgabe die Quarksmassen zu berechnen.;)

Gruß EMI

Hallo EMI, gut das ihr das berichtet habt.
Erinnerst du dich an den "Würfel".
(es kann sein das du ihn nicht kennst)
Da hab ich eine "Gitterstruktur", bestehend aus lauter Würfeln angeregt.
Jeder Knotenounkt sollte als Datenpunkt dienen, also eine Datenbank werden.
Jedoc hat man mich deswegen -zur Sau- gemacht (nicht hier).
Und nun wurde "in Kristallstruktur" gerechnet.
Freut mich (fühle mich...) .

Kurt

PS: Der "Würfel" ist grösser als das All, er lässt sich immer so -hindrehen- (verwenden) wie man ihn gerade braucht.
Seine Knoten dienen als Datenpunkte für den Trägerzustand des betrachteten Ortes.
Somit ist der Absolutbezug der RT auf den Beobachter hinfällig.
Das lässt sich erst jetzt erstellen nachdem es technisch möglich ist eine solche Datenbank zu verwalten und zu händeln.

Kurt
23.11.08, 00:28
In 4 Dimensionen wurde da gerechnet, nicht in 3 Dimensionen. Kennst Du den Unterschied?


Ich weiss.


Keine Sorge ich weis was ein Würfel ist, must nicht beunruhigt sein.


Ich weissdas du weisst was ein Würfel ist.
Es ging mir nicht um einen Würfel, sondern um -den- "Würfel", um die (den Bereich der Beobachtung umspannende) Datenbank.
Diese lässt sich selbstverständlich auch mit mehr als nur den drei Raumdimensionen ausstatten.

Kurt

richy
23.11.08, 04:33
@Kurt
Akzeptiere mal einfach, dass du dich mit einem alten Hut schmueckst. Die quantiserte Berechnung gibt es zudem nicht erst seit es Digitalrechner gibt.
Julia hat die Julia Menge schon 1920 ohne PC konstruiert :
http://de.wikipedia.org/wiki/Gaston_Maurice_Julia
Deswegen interessiert dein Tic Tac auch niemanden.

@sion
Ich wollte mit meiner Bemerkung zu nichtlinearen Diffenzengleichungen keinesfalls die Leistung oder Ergebnis dieser Simulation in Frage stellen.
Dass ich nochmal auf die Unterschiede zwischen DGL und DZGL hingewiesen hatte war im Grunde nur wegen deinem Satz :
Das ist ganz normale Numerik und wenn man die Gleichungen kennt, kann man auch schauen, wie sich Quantisierungsfehler auswirken.


Und zum Zweiten habe ich mir oefters schon,auch hier, die Frage gestellt, warum denn noch niemand auf die Idee kam die Feldgleichungen mal zu quantisieren und auch auf Quantenebene anzuwenden.
Weil ich der Meinung war, dass der einzigste Unterschied der Heim Theorie gegenueber der ART die Quantisierung ist. Dabei ist aber zu beachten :

a) dass Heim die quantisierte, Gleichungen dann nicht numerisch sondern analytisch betrachtet.
b) dass Heims Feldgleichungen nicht voellig identisch sind mit denen der ART.

zu b)
Das EM-Feld sollte aber doch schon bei Einstein mit drin sein. Einstein macht da seit spezieller Relativitätstheorie keinen Unterschied zwischen Energie und Masse. Damit sollte er EM-Felder schon mit seinem Energie-Impulstensor mit abgedeckt haben.

Die Masse des Gravitationsfeldes ist in der ART auf jeden Fall mit drin.
Da sind wir uns einig.
Das wird in mancher Literatur zu Heim leider missverstaendlich dargestellt.
Der Unterschied liegt bei den E/M Feldern. Aber den Blicke ich im Detail leider auch noch nicht. Heim gelangt schliesslich auch zu Elektro Gravitations Gleichungen. Einstein nicht.
Zeitgenosse waere da der richtige Ansprechspartner.

zu a)
Da tappe ich auch noch im dunkeln. Ist es tatsaechlich die analytische Behandlung der quantisierten Gleichungen, also ohne b, die auf mathematischem Wege zu den erweiterten Dimensionen fuehrt ?
Alleine dafuer reichen meine Mathematikkentnisse schon nicht.

Aber Strömungssimulation funktioniert ja auch, obwohl man die kleinsten Wirbel nicht vorhersagen kann. Die fügt man dann vielleicht einfach mit einem Extramodell zufallsbasiert abhängig von den übergeordneten Verhältnissen ein und am Ende funktioniert die Simulation hinreichend gut.

Mit den fuer die Akusik modifizierten Navier Stokes Gleichungen habe
ich schon Simulationen durchgefuehrt. Das Verfahre das ich verwendet
habe konnte Schalldruckvelaufe bis zu 50 MEGA Pascal verblueffend uebereinstimmend mit dem Experiment darstellen.
Das sind schon massif nichtlineare Schalldruckamplituden.
Das Verfahren war etwa bis ein Giga-Pascal stabil.
Da treten dann auch Kavitation und chaotisches Verhalten ein.
Das Programm ist dann einfach abgeschmiert.

Aber solche starke Nichtlinearitaeten traten bei besagtem Experiment
sicherlich auch nicht auf. Man wird natuerlich auch ein geeignetes Rechenverfahren verwendet haben.

Wenn denn die Welt nichtquantisiert waere !
Darauf wollte ich hinaus.
Wenn sie quantisiert waere ist kein geeignetes Rechenverfahren zu verwenden sondern die Feldgleichungen der ART in Differenzenform umzuschreiben.
Ein fundamentaler Unterschied !

zeitgenosse
23.11.08, 13:22
Prinzipiell beruht die Quantenchromodynamik zur Erklärung der Vorgänge von Quarks und Gluonen soweit ich weiss auf dem gleichen Ansatz, den Feynman für seine Theorie der QED (Quantenelektrodynamik) verwandt hat...

Präzisierend (ohne belehrend zu sein):

Die Quantenelektrodynamik (Feynman, Tomonaga, Schwinger) befasst sich vornehmlich mit den Wechselwirkungen von Photonen mit Materie. W-und Z-Bosonen gehören nicht zur Theorie, sind vielmehr Bestandteile der 'Elektroschwachen Vereinheitlichung' (Glashow, Salam, Weinberg), welche nebst den schwachen Kräften die QED umfasst und gruppentheoretisch zur U(1)×SU(2)-Gruppe zählt. Die experimentelle Verifikation (Z-Teilchen) erfolgt am CERN (1973). Die geladenen Ströme (W-Bosonen) wurden hinegen erst zehn Jahre später nachgewiesen.

Die QED gehört zur U(1)-Gruppe und ist abelsch. Weil im Feldstärketensor der Kommutator der A-Potentiale wegfällt, resultieren lineare Feldgleichungen und das Superpositionsprinzip bleibt erhalten.

Die QCD gehört SU(3)-Gruppe und ist nichtabelsch. Der Kommutator der A-Potentiale fällt nicht weg. Das führt zu Nichtlineraität und Selbstwechselwirkung sowie zum Confinement und zur asymptotischen Freiheit.

Gr. zg

Uli
23.11.08, 14:46
Präzisierend (ohne belehrend zu sein):
...
Gr. zg

Naja, sicherlich gibt es Unterschiede - es sind ja Theorien für unterschiedliche Wechselwirkungen; aber dennoch kann man mit Fug und Recht sagen, dass die QED Pate gestanden hat bei der Entwicklung von QCD und elektroschwacher Theorie. Die gemeinsame Grundidee ist die Einführung der Wechselwirkung durch die Forderung nach lokaler Eichinvarianz.

Die resultierenden Methoden (Störungsentwicklung, Feynmandiagramme, Eichbosonen als Träger etc.) sind auch sehr ähnlich.

Gruß,
Uli

Sino
23.11.08, 17:05
Wie gesagt, ich hab bei Heim noch nicht weitergelesen bzw. hänge noch bei seiner Gravitationstheorie, aber bei dem Versuch ging es ja wie EMI nochmal hervorgehoben hat nur um die dynamisch erzeugte Masse.

Ich denke, wenn man es mit soetwas wie diskreten Volumina z.b. in einer Gravitationstheorie zu tun bekommt, dann gehen die Grössenordnungen wohl in Richtung Plancklänge. Die Abmessungen des Protons sind aber ca. um Faktor 10e+20 grösser. Von daher sollte in den Grössenordnungen des Protons die Raumzeit genauso als Kontinuum funktionieren, wie von uns aus betrachtet.

Vielleicht haben wir uns da einfach missverstanden.
Ich habe bei der Simulation keinen Bezug dazu gesehen, ob der Raum in Wirklichkeit auch diskrete Strukturen aufweist oder nicht. Für mich ist für diese Simulation die kontinuierliche Raumzeit, die in den Gleichungen vorkommt, einfach nur willkürlich zerhackt worden, um rechnen zu können, wobei jedes einzelne Raumzeitvolumen in der Simulation vielleicht grössenordnungsmässig so weit von einer möglichen diskreten realen Raumzeitstruktur weg war, wie ein Fussballplatz von einem Kernradius.

zeitgenosse
23.11.08, 19:13
Naja, sicherlich gibt es Unterschiede - es sind ja Theorien für unterschiedliche Wechselwirkungen; aber dennoch kann man mit Fug und Recht sagen, dass die QED Pate gestanden hat bei der Entwicklung von QCD und elektroschwacher Theorie.

Im historischen Kontext ja.

In der QCD haben wird es mit Baryonen, Mesonen, Resonanzen sowie Subkonstituenten (Quarks und wechselwirkende Gluonen) zu tun. Dass Formelzeichen und Feynman-Diagramme auch bei anderen Partikeln als Photonen und Elektronen gelten, ist zu hoffen und noch kein Beleg für die Gleichartigkeit des Ansatzes. Es dürfte doch einigermassen evident sein, dass sich Gell-Mann's "achtfacher Weg" (1961) vom Feynmanschen Ansatz unterscheidet. Dass ist auch deshalb offensichtlich, weil es sich bei den Hadronen und ihrer Vielfalt nicht um Leptonen handelt.

Dass es sich bei QED und QCD um deutlich verschiedene Modelle handelt, erkennen wir bereits an der jeweiligen Eichgruppe (abelsch und nichtabelsch). Dazu kommt, dass Hadronen eine innere Struktur aufweisen, was vom Elektron nicht behauptet werden kann. Quarks kommen zudem als freie Partikel nicht vor. Ferner unterscheidet sich die starke Wechselwirkung erheblich von der elektromagnetischen.

In Summe legitime Gründe, die die prinzipielle Verschiedenheit nahelegen. Während die QED eine experimentell getestete Theorie ist, kann man die QCD noch keineswegs als abgeschlossen bezeichnen. Das liegt an ihrer Verschiedenheit und Komplexizität.

Gr. zg

criptically
23.11.08, 19:26
...
In Summe legitime Gründe, die die prinzipielle Verschiedenheit nahelegen. Während die QED eine experimentell getestete Theorie ist, kann man die QCD noch keineswegs als abgeschlossen bezeichnen. Das liegt an ihrer Verschiedenheit und Komplexizität.

Gr. zg
Vorausgesetzt Uli löscht meinen Beitrag nicht: warum musste mit "Renormierung" die Theorie angepasst werden wenn die Experimente die QED so schön bestätigen?

mfg

Sino
23.11.08, 20:14
Vorausgesetzt Uli löscht meinen Beitrag nicht: warum musste mit "Renormierung" die Theorie angepasst werden wenn die Experimente die QED so schön bestätigen?

In meinen Augen, weil diese Theorien generell nur einen Teilaspekt abdecken. Experimentelle Daten wie Masse und Ladung müssen benutzt/eingesetzt werden, um die Kopplungskonstanten zu bestimmen, weil man nicht genau weiss, wie man die Elementarladung und die Ruhemasse des Elektrons theoretisch genau herleiten soll. Die Grössen, die man misst, sind schon beeinflusst durch die Wahrscheinlichkeitsamplituden für die möglichen Wechselwirkungen. Somit wurde die Renormierung notwendig, damit die theoretischen errechneten Werte mit den gemessenen übereinstimmen. Das Verfahren, das man dabei anwendet, konvergiert aber. Deshalb funktioniert es.

Aber hinter der Frage, wie man das umgeht und eine Theorie aufstellt, die für jeden Energiebereich funktioniert, steckt dann letzten Endes auch die ungelöste Frage, wie man die Feinstrukturkonstante theoretisch ermitteln kann. ( Es hat immer mal wieder jemand behauptet, er hätte sie durch reine Mathematik hergeleitet und dann hat man genauer gemessen und es hat nicht mehr gepasst. )

Aber ich bin kein QED-Experte. So hab ich nur die Passage in Feynmans Buch QED verstanden.

rene
23.11.08, 20:21
Vorausgesetzt Uli löscht meinen Beitrag nicht: warum musste mit "Renormierung" die Theorie angepasst werden wenn die Experimente die QED so schön bestätigen?

Weil eine einfache Störungstheorie, in der physikalische Systeme durch algebraische Relationen zwischen den Zustandsgrössen mit wenigen kritischen Exponenten beschrieben werden können, nicht anwendbar ist. Die divergenten Ausdrücke entstehen aus den Störungsentwicklungen und sind nur innerhalb eines begrenzten Energiebereichs gültig. Energiebeiträge jenseits des Gültigkeitsbereichs liefern somit unendliche Ergebnisse, die durch die Feldoperatoren entstehen, die Distributionen sind, und deren Multiplikation am selben Raumzeitpunkt üblicherweise nicht definiert ist.

Aus einer Renormierung lässt sich die Essenz kritischer Exponenten mit beliebiger Genauigkeit (und entsprechendem Rechenaufwand) bestimmen. Das Problem damit ist ein rechentechnisches.

Grüsse, rene

criptically
23.11.08, 20:53
...

Aus einer Renormierung lässt sich die Essenz kritischer Exponenten mit beliebiger Genauigkeit (und entsprechendem Rechenaufwand) bestimmen. Das Problem damit ist ein rechentechnisches.

Grüsse, rene

Das bedeutet aber die Theorie ist gar nicht richtig und muss fallen gelassen werden (weil sie falsche Ergebnisse liefert).

mfg

Uli
23.11.08, 21:35
Vorausgesetzt Uli löscht meinen Beitrag nicht: warum musste mit "Renormierung" die Theorie angepasst werden wenn die Experimente die QED so schön bestätigen?

mfg

"Renormierung" bedeutet nicht "Anpassung". Renormierung ist ein Feature, das es schon in klassischen Feldtheorien gibt: Wechselwirkungen verändern die Werte einiger Konstanten einer Theorie - nämlich die Werte, die sie in einer Welt ohne Wechselwirkungen hätten. Betroffen sind z.B. Kopplungskonstanten und Massen. Es ist natürlich überhaupt nicht erstaunlich, dass Wechselwirkungen z.B. Massen verändern bzw. erzeugen; schließlich erwarten wir von einer fundamentalen Theorie aller Wechselwirkungen, dass sie die Massen der beobachteten Elementarteilchen vorhersagen kann.

Auch das Thema dieses Threads - die Veränderungen der Current-Massen der (freien) Quarks zu ihren Constituent-Massen (um die Nukleonen-Massen zu bekommen) durch die starke Wechselwirkung lässt sich als Renormierung verstehen. Aufgrund der starken Wechselwirkung bekommen die Quarks im Nukleon viel höhere effektive Massen.

Einzig suspekt war anfänglich die Divergenz der Renormierungsfaktoren der QED. Rene hat dazu bereits einiges gesagt. In einer renormierbaren Theorie müssen sich in jeder Ordnung der Störungstheorie alle auftretenden Divergenzen immer wieder in eine Redefinition derselben Konstanten absorbieren lassen, d.h. es darf in einer höheren Ordnung kein neuer Typ von Divergenz auftreten. Das ist eine starke Forderung, die manches spekulative Modell von vornherein ausschließt Der allgemeine Beweis der Renormierbarkeit einer Theorie ist extrem anspruchsvoll. T'Hooft hatte für den entsprechenden Beweis der Renormierbarkeit der elektroschwachen Theorie den Nobelpreis bekommen. Ich sage mal, wirklich verstanden hatte diesen Beweis damals nur einige sehr wenige Gurus.

Uli

PS. ich werde weiterhin Beiträge von dir löschen, wenn du Threads über Schul- bzw. Standardphysik für RT-kritische Themen "hijackst".

Sino
23.11.08, 22:38
Das bedeutet aber die Theorie ist gar nicht richtig und muss fallen gelassen werden (weil sie falsche Ergebnisse liefert).


Ok, hat Uli schon beantwortet, aber da ich das nicht umsonst getippt haben will, nochmal meine Antwort dazu, dass die QED angeblich falsch ist:

Das Problem ist doch nur, dass man keine idealen Elektronen oder Photonen in einem wechselwirkungsfreien Zustand beobachten kann.

Was man misst, ist immer schon eine Superposition aus allen möglichen Alternativen, d.h in dem, was man misst, sind die grundlegenden Grössen, die die Wechselwirkung zwischen Elektron und Photon festlegen, schon unendlich oft mit eingeflossen.
Nun braucht man aber Kopplungsamplitude für eine einzige Wechselwirkung für die QED. Sowas kann man aber nicht messen. Man misst wie gesagt immer nur die Überlagerung von allem was möglich ist.
D.h. im Endeffekt muss man das Ding so tunen, dass es für einen Energiebereich passt. ( Laut Feynman sind es nur 2 Grössen, n und j. Eine steht wohl für die Kopplung Photon<->Elektron, die andere hängt mit der Masse des Elektrons zusammen. )

Muss man halt warten, bis man eine Theorie hat, die die Grössen ausspuckt, die die QED benötigt. Somit ist die QED unvollständig, wie alle Theorien, aber nicht falsch. ART ist auch nicht komplett, sondern nur ein Baustein.

An die Kopplungsamplituden kommt man vielleicht wirklich erst theoretisch ran, wenn man wirklich verstanden hat, wie ALLES zusammenpasst und in eine Theorie vereinigt werden kann. Vielleicht findet man die auch nie, weil extrem viele Universen möglich sind, die alle anders wären und unseres nur so ist, wie es ist, weil wir sonst nicht da sein könnten.

P.S.: So, und nun muss ich aber Terrentino's "Kill Bill" schauen. Fängt gerade an ;)
Wenn meine Sicht mathematisch inkorrekt ist, kann natürlich sein, ich weiss nicht in wie weit Feynman da in seinem populärwissenschaftlichem Buch unzulässig vereinfacht hat, damit der Gedankengang für den Ottonormalbürger verständlich bleibt.

Kurt
23.11.08, 22:58
Akzeptiere mal einfach, dass du dich mit einem alten Hut schmueckst. Die quantiserte Berechnung gibt es zudem nicht erst seit es Digitalrechner gibt.
Julia hat die Julia Menge schon 1920 ohne PC konstruiert :
http://de.wikipedia.org/wiki/Gaston_Maurice_Julia
Deswegen interessiert dein Tic Tac auch niemanden.


Äh. hm, was hat mein "Würfel" mit der Taktung zu tun, Weist dus?
Ja er hat damit zu tun, er stellt die Ortsumstände zur Verfügung die die "Taktfrequenz" bezeichnen und auch bedingen.
Das er ein alter Hut ist, naja, hab ich behauptet das die Idee neu ist?
Die Idee den "Würfel" einzusetzen ist geboren aus dem Wunsch die unglückseelige Abhängigkeit von einem "Betrachter", eingeführt mit der RT, zu verlassen, verzichtbar zu machen.

Es ist übrigens nicht seit dem Digitalrechner ein quantisierter Vorgang.
Auch Analogrechner produzieren eine Digitalzahl.
Jede Zahl ist quantisiert.

Kurt

Lambert
23.11.08, 23:06
Hallo Lampe,

doch, doch! Das ist ein "Vielzahlkörperproblem"! Wenn da die Berechnung zu gelungen ist, sind wir einen RIESIGEN Schritt weiter.

Bleibt nur noch die winzige Aufgabe die Quarksmassen zu berechnen.;)

Gruß EMI

eben

Gruss,
Lambert

zeitgenosse
24.11.08, 01:44
Gehen wir etwas weiter zurück in der Geschichte. Yukawa führte 1935 ein neues Potential in die Physik ein, das exponentiell gegen Null abfällt. Beim Atomkern hat es eine Reichweite von ≈ 1e-15 m. Gemäss der Theorie sollten Mesonen die Vermittler der Kernkräfte sein. Dabei würden sich Neutronen in Protonen und umgekehrt umwandeln. Bereits Heisenberg hatte die Vermutung ausgesprochen, dass Baryonen nicht grundsätzlich verschieden seien. Das Yukawa-Modell stiess aber bald einmal an seine Grenzen.

Allmählich nahm die Zahl der Teilchen zu. Bis 1960 konnte man mit Fug und Recht vom Teilchenzoo sprechen. Noch fehlte ein überzeugendes Ordnungsschema.

Der belesene Gell-Mann (1961) bezeichnete das neue Ordnungsschema als "Eightfold Way". Die hypothetischen Elementare - in Anlehnung an "Finnegan's Wake" - benannte er als "Quarks". Aufschlussreich (wie ich dem Büchlein "Feynmans Regenbogen" von Leonard Mlodinow entnahm) ist, dass sich Feynman und Gell-Mann gegenseitig überboten, wo immer sich Gelegenheit dazu ergab. Beide waren am Caltech tätig. Gell-Mann war ein Schwerkaliber und Fenyman - halb Genie, halb Clown - diesem völlig ebenbürtig. Feynman (1969) hat die Vorstufen der QCD insofern mitgeprägt, indem er - angeregt von Bjorken - das Partonmodell vorschlug, welches dann durch das vollständigere Quarkmodell abgelöst wurde.

Unabhängig von Gell-Mann schlug auch Ne'eman (1962) ein Klassifizierungsschema der Hadronen durch eine SU(3)-Symmetrie vor. Von einer gewissen Tragik ist, dass G. Zweig, der unabhängig von Gell-Mann eine adäquate Strukturtheorie der Hadronen entwickelte, völlig unberücksichtigt blieb, als es den Nobelpreis zu verteilen galt. Zweig (1963) sprach von "Aces", fand aber nur wenig Beachtung und wandte sich später der Neurobiologie zu.

Gemäss dem statischen, durch Gell-Mann und Zweig vorgestellten Quarkmodell (1964) mussten Baryonen aus drei und Mesonen aus einem Quark-Antiquark-Paar konstituiert sein. Grundlegend neu waren die "gebrochenen Ladungen" und die von Greenberg et al.(1965) postulierten Farbladungen. Quarks wirken "stark" mittels Farbladungen, aber euch elektromagnetisch mittels Photonen. Interessant ist schon, dass die Farbenlehre in spezifischer Form anwendbar ist (daher auch der Name "Chromodynamik"). Die QCD - als Theorie der starken Wechselwirkung - wurde aber erst ab 1972 ff. voll ausgeformt. Daran massgeblich beteiligt waren u.a. Weinberg, Fritzsch, Gell-Mann und Leutwyler.

Gr. zg

EMI
24.11.08, 03:20
Dazu kommt, dass Hadronen eine innere Struktur aufweisen, was vom Elektron nicht behauptet werden kann.

Hallo Zeitgenosse,

warum kann das beim Elektron nicht auch so sein?
Allein der "Teilchenzoo" der Leptonen/Quarks ist auf 48 Teilchen angewachsen und es gibt zur Zeit keine theoretische Begrenzung auf weiteres Anwachsen.
Es wird bereits nach Teilchen einer 4. Familie gesucht. Alles deutet auf eine Substruktur der Leptonen/Quarks.

Auch das hier ist ein starkes Argument für eine Substruktur:

................................Q
.... d....... u.........
.................
e- ....(v,v).... e+
..
. ...u....... d


......s...... c

µ- ....(v,v).... µ+

.....c....... s


.....b....... t

Τ- ....(v,v).... Τ+

.....t....... b

Gruß EMI

zeitgenosse
24.11.08, 09:58
warum kann das beim Elektron nicht auch so sein?

Bis zur Stunde gibt es aus experimenteller Hinsicht kein hinreichend überzeugendes Argument für eine innere Elektronenstruktur. Es gab und gibt natürlich immer wieder geistreiche Ansätze wie bspw. das 'Spinning-Ring-Elektron' von Bergman und Wesley. Dieses Modell erklärt gewisse Dinge sogar viel besser, als das Standardmodell. Doch ohne experimentelle Verifikation bleiben solche Ansätze eine Hypothese.

Gr. zg

zeitgenosse
25.11.08, 12:46
welche Substruktur nehmen Bergman und Wesley für die Leptonen/Quarks an?

Ich sprach vom Elektron (Spinning-ring), das von Bergmann/Wesley alternativ erklärt wird. Über Quarks sagen diese Autoren nichts. Leider ist die diesbezügliche Literatur im deutschen Sprachraum nur schwer aufzutreiben.

Gr. zg

Lambert
25.11.08, 14:11
Hallo Zeitgenosse,

warum kann das beim Elektron nicht auch so sein?
Allein der "Teilchenzoo" der Leptonen/Quarks ist auf 48 Teilchen angewachsen und es gibt zur Zeit keine theoretische Begrenzung auf weiteres Anwachsen.
Es wird bereits nach Teilchen einer 4. Familie gesucht. Alles deutet auf eine Substruktur der Leptonen/Quarks.

Auch das hier ist ein starkes Argument für eine Substruktur:

................................Q
.... d....... u.........
.................
e- ....(v,v).... e+
..
. ...u....... d


......s...... c

µ- ....(v,v).... µ+

.....c....... s


.....b....... t

Τ- ....(v,v).... Τ+

.....t....... b

Gruß EMI

Hallo EMI,

Sqt sieht keine physikalische Substruktur der Elektronen (Info). Die tiefere Struktur der Elektronen ist mathematisch; die zusammenstellenden Teilchen sind Raumquanten.

Gruß,
Lambert

Lambert
25.11.08, 15:33
Hallo Lampe,

Du weist doch was ich von der "sqt" halte. Warum drängst Du sie mir immer wieder auf:confused:

EMI

Hallo EMI,

damit Du bescheid weißt.

Ich will EMI Rat geben.

Für seine Zukunft in der neuen mathematischen Physik. Lambert hat Zeit (t).

Gruß,
Lambert

Lambert
25.11.08, 16:47
Ok. Dann gib mir doch mal einen "Rat", wie man die 6polige Farbladung so "fassen" kann, damit man dann mit den zuordbaren 6 Farbquantenzahlen rechnen kann.
Nur um zu sehen ob es eine Verknüpfung von Fabladung und el.Elementarladung gibt und ob man mit dem farbmagnetischen Moment die Massenverhältnisse der el.geladenen Leptonen berechnen kann.
Gibt deine "sqt" das her?, wenn ja, dann her damit.

EMI

Nach sqt sind die drei Farben Gravitation, Elektrizität und Magnetismus. Diese drei kombinieren sich potenziert 2³ = 8 mal. Diese bilden die 8 starken Kernkräfte.

Gruß,
Lambert

Lambert
25.11.08, 17:00
Es sind aber 6"Farben":confused:

ja, jede der drei Farben ist "ein" oder "aus". So enstehen die 8 Kombinationen nach der Mengenlehre.

Gruß,
Lambert

Lambert
25.11.08, 17:06
Willst Du mich veralbern:confused:

certainly not...

Gruß,
Lambert

PS. bin heute weiter unterwegs

zeitgenosse
25.11.08, 18:09
Wie soll das gehen, wenn die Autoren NUR das Elektron behandeln Es ist ein Modell des Elektrons. Nur für dieses Partikel sind einige Aspekte besser verständlich, als im Standardmodell der Fall. Zumindest, wenn man Wert auf Anschaulichkeit legt. Das Modell stammt von Parson (1915) und wurde von Bergman als auch Wesley verbessert. Gr. zg

Sino
26.11.08, 14:08
Nach sqt sind die drei Farben Gravitation, Elektrizität und Magnetismus. Diese drei kombinieren sich potenziert 2³ = 8 mal. Diese bilden die 8 starken Kernkräfte.


Elektrizität und Magnetismus sind aber Kehrseiten der gleichen Medaille, was wir seit Maxwell, Lorentz und Co. wissen. Wenn ich mich relativ zu einer Ladung bewege, messe ich ein Magnetfeld, wenn ich neben ihr ruhe, nicht, von daher macht das für mich irgendwie keinen Sinn.

Lambert
26.11.08, 14:30
Elektrizität und Magnetismus sind aber Kehrseiten der gleichen Medaille, was wir seit Maxwell, Lorentz und Co. wissen. Wenn ich mich relativ zu einer Ladung bewege, messe ich ein Magnetfeld, wenn ich neben ihr ruhe, nicht, von daher macht das für mich irgendwie keinen Sinn.

Es ist noch stärker: Gravitation, Elektrizität und Magnetismus sind alledrei streng mathematisch verbunden, nicht nur E und M.

Wann das für Dich nun irgendwie Sinn macht oder nie, kann ich nicht forzieren. Dein Verständnis der Natur macht die Aussage nicht weniger wahr. Vielleicht fällt irgendwann the coin. Ein Nachteil ist sicherlich, dass sqt numerisch in den Kinderschuhen steht; da sind alle sonstige gängigen Theorien und gar Heim in Teilbereichen weiter. Das schmälert jedoch nicht die wahre und bestendige Grundbasis der sqt.

Gruß,
Lambert

Sino
26.11.08, 15:40
@Lambert Achso, bei deinem an und abschalten von Gravitation, Elektrizität und Magnetismus klang das so, als ob es unabhängige Grössen sind.

Dagegen, dass die Gravitation nicht unabhängig von den anderen Kräften ist, habe ich sowieso schon mal nichts einzuwenden.

Dahingehend ist Einsteins Ansatz wohl mit der radikalste, den man sich denken kann. Der sagt quasi einfach Masse=Energie, und egal was hinter der Energie konkret steckt, sie bestimmt die Geometrie des Raumes ( über das Äquivalenzprinzip, dass den Aufenthalt in einem Gravitationsfeld einer Beschleunigung im Feldfreien Raum gleichsetzt). Den daraus resultierenden Effekt, den man beobachtet, nennen wir Gravitation.
Zumindest habe ich die ART bisher so verstanden. Das ist halt schon extrem radikal und gefällt mir, obwohl es sich vielleicht als etwas zu einfache Sicht herausstellen könnte.

edit: Wenn das nicht Einsteins Ansatz war, dann entschuldige ich mich. Das war auf jeden Fall meine Vorstellung, als ich mir mal überlegt habe, wie man am schnellsten von der SRT zu einer Gravitationstheorie kommen sollte.

Lambert
26.11.08, 16:16
@Lambert Achso, bei deinem an und abschalten von Gravitation, Elektrizität und Magnetismus klang das so, als ob es unabhängige Grössen sind.

Dagegen, dass die Gravitation nicht unabhängig von den anderen Kräften ist, habe ich sowieso schon mal nichts einzuwenden.

Dahingehend ist Einsteins Ansatz wohl mit der radikalste, den man sich denken kann. Der sagt quasi einfach Masse=Energie, und egal was hinter der Energie konkret steckt, sie bestimmt die Geometrie des Raumes ( über das Äquivalenzprinzip, dass den Aufenthalt in einem Gravitationsfeld einer Beschleunigung im Feldfreien Raum gleichsetzt). Den daraus resultierenden Effekt, den man beobachtet, nennen wir Gravitation.
Zumindest habe ich die ART bisher so verstanden. Das ist halt schon extrem radikal und gefällt mir, obwohl es sich vielleicht als etwas zu einfache Sicht herausstellen könnte.

edit: Wenn das nicht Einsteins Ansatz war, dann entschuldige ich mich. Das war auf jeden Fall meine Vorstellung, als ich mir mal überlegt habe, wie man am schnellsten von der SRT zu einer Gravitationstheorie kommen sollte.

Es ist richtig, dass man die Welt aus der Richtung der Masse/Energie sehen kann und dann die Gravitation entdeckt.
Es ist jedoch auch möglich, (wie bei sqt) die Welt aus der Sichtweise der Gravitation zu sehen und dann Masse/Energie zu entdecken.

Das gibt den neuen Blickwínkel, der zum Durchbruch führt.

Gruß,
Lambert

zeitgenosse
26.11.08, 21:32
warum kann das beim Elektron nicht auch so sein?

Spinning Charged Ring Model of Electron (Bergman, Wesley):

http://www.commonsensescience.org/pdf/articles/spinning_charged_ring_model_of_electron_yields_new .pdf

Gr. zg

Sino
27.11.08, 16:20
Spinning Charged Ring Model of Electron (Bergman, Wesley)
http://www.commonsensescience.org/pdf/articles/spinning_charged_ring_model_of_electron_yields_new .pdf


Das muss ich mir auch nochmal anschauen. Ich wollte mir doch vor kurzem mal ein quasiklassisches räumliches Elektronenmodell basteln, wo das Feld nicht an der hervorrufenden Ladung direkt ansetzt, um das Elektron kompatibel mit den maxwellschen Gleichungen zu machen. ( Eine punktförmige Ladung würde sich nach den maxwellschen Gleichungen durch ihr eigenes Feld schon bei der kleinsten Störung zwangsläufig auf Lichtgeschwindigkeit katapultieren. )

Hatte aber Probleme bei der Rechnung und an Spin hab ich da noch gar nicht gedacht. Deshalb finde ich das Paper mit dem Elektron als Ring ziemlich interessant.

Sino
27.11.08, 16:34
hatte Anfang der 80ziger mit meinem Mitstreiter dashalb auch an einer "Ringladung" "gebastelt". El.Ladung als stehende Welle im Ring halt.

Ja, solche Ideen sind ja nicht schlecht. Selbst wenn das Modell Quantenmodelle nicht ablösen kann, so kann man doch vielleicht neue Einblicke gewinnen oder es da einsetzen, wo ein vereinfachtes Modell reicht und die Anwendung der komplizierterer Modell sich aus Gründen des Aufwands verbietet.

edit: Wobei ich dein Modell auch interessant finde. Seid ihr zu einem Ergebnis gekommen ?

P.S. Hmm das mit dem Ring ist wirklich interessant. Frag mich, was passiert, wenn man das Ding in Bewegung betrachtet. Der Spin stellt sich bei Fermionen doch schräg zur Flugrichtung ein. Ist das dann einfach ein sich bewegender Ring, eine Helix oder noch etwas komplizierteres, weil diese klassische Spin-/Drehachse selber noch rotiert ? Das müsste man sich echt mal genauer anschauen.

Uranor
27.11.08, 17:10
Ja, solche Ideen sind ja nicht schlecht. Selbst wenn das Modell die QED nicht ablösen kann, so kann man doch vielleicht neue Einblicke gewinnen oder es da einsetzen, wo ein vereinfachtes Modell reicht und die Anwendung der QED sich aus Gründen des Aufwands verbietet.

edit: Wobei ich dein Modell auch interessant finde. Seid ihr zu einem Ergebnis gekommen ?
Hmmm. Ein Modell wird erst wirklich gut sein können, wenn es Superpositionierung, Aufenthaltswahrscheinlichkeit enthält. Wir haben gelernt, die Zeit abstrahiert zu verstehen. Was sind Raumbezüge? Unsere Erfahrung auf Makro-Orientierung gaukelt und ein völlig falsches Bild vor.

Der Aufenthalt eines Elektrons ist das ganze Universum. Aber mein Test-Elektron wird gerade hier vor mir am wahrscheinlichsten anzutreffen sein. c und Aufenthaltswahrscheinlichkeit bzw. Korrelation scheinen sich gegenseitig auszuschließen. Die Hürde ist offenbar entscheidend und will genommen werden, völlig egal, wie lang wir nun dafür benötigen.

Was sind Raumbezüge tatsächlich?...

Gruß Uranor

Lambert
27.11.08, 17:35
Es ist richtig, dass man die Welt aus der Richtung der Masse/Energie sehen kann und dann die Gravitation entdeckt.
Es ist jedoch auch möglich, (wie bei sqt) die Welt aus der Sichtweise der Gravitation zu sehen und dann Masse/Energie zu entdecken.

Das gibt den neuen Blickwínkel, der zum Durchbruch führt.

Gruß,
Lambert

PS. So hat sqt mal angefangen.

Lambert
27.11.08, 17:46
und aufgehört

Hallo EMI.

verstehst Du schon, dass die drei Farben G, M und E sind?

Stark, wa?

Gruß,
Lambert

PS. die Positionierung der Gravitation als Basiskraft ist die Grundposition. Das hört nie auf.

Lambert
27.11.08, 17:53
@Lambert Achso, bei deinem an und abschalten von Gravitation, Elektrizität und Magnetismus klang das so, als ob es unabhängige Grössen sind.



Im Grunde eine interessante, dennoch etwas verwirrte Aussage. In ihr steckt das Geheim der "Dimensionen".

Gruß,
Lambert

EMI
29.11.08, 03:16
Wobei ich dein Modell auch interessant finde. Seid ihr zu einem Ergebnis gekommen ?

Hallo Sino,

na ja, Modell? Wir haben damals halt unbedarft drauf los gerechnet, lang lang isses her.
Ist das eigentlich eine "Aktuelle Meldung":confused:
In alten Zeiten wurde ja noch alles auf Papier geschrieben. In meinem "Archiv" wird ein Nachlassverwalter diese Papiere deshalb auch mal wiederfinden;)

So viel hab ich noch im Hinterkopf, das sich die Elementarladung e für uns als Effektivwert Leff [m] einer stehenden Kreissinusschwingung ergab.

Leff = e√(µo/ko) mit c²=1/µoεo und c²=1/koXo und Xo=8π*g/c²c² (ko ist eine von mir damals eingeführte Konstante ko=5,3597625*10^25 [kg/m])


setzt man Leff zur Plancklänge LPL ins Verhältnis und teilt noch durch 4√π erhält man die Feinstrukturkonstante α.


α = Leff/LPL*4√π = e√(µo/ko)/√(hg/c³)*4√π = e²/2hcεo ~ 1/137

Gruß EMI

Lambert
29.11.08, 23:25
Hallo EMI,

ich schau's mir Montag an.

Gute Nacht,
Lambert

Lambert
01.12.08, 22:39
Hallo EMI,

ich schau's mir Montag an.

Gute Nacht,
Lambert

studiere noch. Kann ein paar Tage dauern.

Gruß,
Lambert

Lambert
02.12.08, 22:00
Hallo Sino,

na ja, Modell? Wir haben damals halt unbedarft drauf los gerechnet, lang lang isses her.
Ist das eigentlich eine "Aktuelle Meldung":confused:
In alten Zeiten wurde ja noch alles auf Papier geschrieben. In meinem "Archiv" wird ein Nachlassverwalter diese Papiere deshalb auch mal wiederfinden;)

So viel hab ich noch im Hinterkopf, das sich die Elementarladung e für uns als Effektivwert Leff [m] einer stehenden Kreissinusschwingung ergab.

Leff = e√(µo/ko) mit c²=1/µoεo und c²=1/koXo und Xo=8π*g/c²c² (ko ist eine von mir damals eingeführte Konstante ko=5,3597625*10^25 [kg/m])


setzt man Leff zur Plancklänge LPL ins Verhältnis und teilt noch durch 4√π erhält man die Feinstrukturkonstante α.


α = Leff/LPL*4√π = e√(µo/ko)/√(hg/c³)*4√π = e²/2hcεo ~ 1/137

Gruß EMI

Hallo EMI,

ich verstehe nicht, warum Du diese Berechnung nicht mal versuchst mit G als Basisfeld. So weit ich überblicken kann, würde das zum guten Resultat führen.

Gruß,
Lambert