Diskrepanz in der Hubble Konstante

P_E_T_E_R

Aktives Mitglied
Wir hatten ja hier schon mehrfach über die Diskrepanzen im Wert der Hubble Konstante, wie sie sich aus verschiedenen Messmethoden ergeben, berichtet. Dabei weichen insbesondere die aus parallaktischen Messungen an Cepheid-Sternen bestimmten Werte, siehe dazu diesen Beitrag, erheblich von dem bislang präzisesten Wert vom Planck Observatorium ab, wobei letzterer aber unter Zugrundelegung des kosmologischen Standardmodells extrahiert wird.

Neuere HST-Messungen an weiter entfernten Cepheiden in der großen Magellanschen Wolke verschärfen die Diskrepanz mit dem Planck-Wert jetzt sogar noch weiter:

The difference between H_0 measured locally and the value inferred from Planck CMB and ΛCDM is 6.6±1.5 km s−1 Mpc−1 or 4.4 σ (P=99.999% for Gaussian errors) in significance, raising the discrepancy beyond a plausible level of chance. We summarize independent tests which show this discrepancy is not attributable to an error in any one source or measurement, increasing the odds that it results from a cosmological feature beyond ΛCDM.

Es sieht also immer mehr danach aus, dass mit dem Standard-Modell etwas nicht stimmt ...
 
New Hubble measurements confirm universe is expanding faster than expected

As the team's measurements have become more precise, their calculation of the Hubble constant has remained at odds with the expected value derived from observations of the early universe's expansion by the European Space Agency's Planck satellite based on conditions Planck observed 380,000 years after the Big Bang.

"This is not just two experiments disagreeing," Riess explained. "We are measuring something fundamentally different. One is a measurement of how fast the universe is expanding today, as we see it. The other is a prediction based on the physics of the early universe and on measurements of how fast it ought to be expanding. If these values don't agree, there becomes a very strong likelihood that we're missing something in the cosmological model that connects the two eras."

While Riess doesn't have an answer as to exactly why the discrepancy exists, he and the SH0ES team will continue to fine-tune the Hubble constant, with the goal of reducing the uncertainty to 1%. These most recent measurements brought the uncertainty in the rate of expansion down from 10% in 2001 to 5% in 2009 and now to 1.9% in the present study.
 
Spiegel-Online zum Thema: Weltraumteleskop "Hubble": Das Universum wächst schneller als erwartet - SPIEGEL ONLINE - Wissenschaft

Ich weiß aber nicht, ob diese Überschrift die Problematik richtig wiedergibt. Wir wissen doch schon, dass die Ausdehnung des Weltraums beschleunigt vonstatten geht - dazu wurde doch die dunkle Energie "erfunden".

Auf welchen Grundannahmen basiert denn die Hochrechnung der Ergebnisse der Planck-Mission mit dem Ergebnis H0 =ca. 67? Wurde dabei schon die dunkle Energie "eingepreist"? (Falls Nein, würde dies die Diskrepanz vllt. schon erklären -aber das kann's ja auch nicht sein, weil "zu einfach") Oder vermehrt sich jetzt die dunkle Energie noch stärker als in der Nobelpreisarbeit von Riess et al. aufgezeigt?

Mir fehlt gerade ein bisschen der "Kompass" und meine Überlegungen drehen sich wie ein Windradl. o_O

Thomas

P.S. Hier noch ein Video: The Crisis in Cosmology Ab 6:14 wird auf die Berechnung auf Basis der Planck-Ergebnisse eingegangen - aber für mich noch unverdaulich.
 
Zuletzt bearbeitet:
Hallo Thomas, die Extraktion eines Hubble-Wertes aus den Planck-Daten für unsere gegenwärtige Epoche erfordert natürlich eine in sich schlüssige Analyse im Rahmen des kosmologischen Standardmodells. Wenn die Grundannahmen dieses Modells korrekt sind, sollte der damit bestimmte Wert des Hubble-Parameters mit dem von Riess et al. bestimmten Wert übereinstimmen, das tut er aber anscheinend nicht und das ist das Problem.

Eine der Grundannahmen des Modells ist, dass die kosmologische Konstante, die ja die beschleunigte Expansion parametrisiert, tatsächlich konstant ist. Aber bevor man daran jetzt vor lauter Verzweiflung wild rumschraubt, sollte man erst mal weitere Messungen abwarten, welche nicht nur die gegenwärtige Epoche, sondern die gesamte kosmologische Evolution darstellt.

Das ist doch eigentlich das Steckenpferd von Riess, schließlich hat er uns ja die Sache mit der beschleunigten Expansion mit seinen weit entfernten Supernovae eingebrockt. Also sollte er die Sache nun auch auslöffeln.

Gruß, Peter
 
Zuletzt bearbeitet:
> Das ist doch eigentlich das Steckenpferd von Riess,
> schließlich hat er uns ja die Sache mit der beschleunigten
> Expansion mit seinen weit entfernten Supernovae
> eingebrockt. Also sollte er die Sache nun auch auslöffeln.

? Du hast vollkommen recht! Er sieht da wahrscheinlich auch eine Bringschuld. Wie immer, wieder mal sehr, sehr spannend!

Thomas
 
6.6 +- 1.5 (km/s) / Mpc ist ja die Abweichung der Riess'schen Messungen von den Ergebnissen des Planck-Projekts, nicht die von Planck berechnete Hubblekonstante.

Thomas
 
Ach, herrje, mein Fehler :eek:

6.6 +- 1.5 (km/s) / Mpc ist ja die Abweichung der Riess'schen Messungen von den Ergebnissen des Planck-Projekts, nicht die von Planck berechnete Hubblekonstante.
Das steht doch auch so im abstract:
The difference between H_0 measured locally and the value inferred from Planck

Wer lesen kann, ist klar im Vorteil.
Danke dir, Thomas, für die Aufklärung!
 
Den gleichen Fehler hab ich beim Lesen vorhin auch gemacht und gedacht, da ist der Dezimalpunkt verrutscht... Du bist also entschuldigt! :cool:

Thomas
 
Wie Thomas schon klargestellt hat, 6.6 +- 1.5 (km/s) / Mpc beschreibt die Diskrepanz zwischen den konkurrierenden Methoden:

H_0 = 74.03 ± 1.42 (km/s)/Mpc .......................... Riess et al. (2019)

H_0 = 67.39 ± 0,54 (km/s)/Mpc .......................... Planck Collaboration (2018) - Table 1 (Combined Result)

Und ja, das Papier von Riess et al. wurde natürlich fachlich begutachtet und vor einem Monat zur Publikation in ApJ akzeptiert.
 
Ja, Peter,
und es ist mir auch mehr als peinlich, dass ich das nicht selbst wahrgenommen habe :cautious:
Ich war aber so fixiert auf die „6.6 +- 1.5 (km/s) / Mpc“, dass ich den Satzanfang schon beim Lesen ausgeblendet hatte.
Die von dir genannten Werte des Hubble-Parameters kenne ich natürlich, deswegen war ich ja so schockiert.
Aber da kann man mal sehen, wie (auch gedanklich) aus dem Zusammenhang gerissene Sätze zu Fehlinformationen führen können.
Dass mir das in der Öffentlichkeit passieren musste - schäm (n)
 
Wo Menschen am Werke sind ...

Insofern ... - die Zahlenwerte sind aber auch recht heftig. Dass eine solche Diskrepanz aus den beiden Betrachtungsweisen erwächst ist schon einigermaßen eindrucksvoll, ich bin sehr gespannt, wer dabei am Schluß Recht behält bzw. wie sich diese Diskrepanz auflöst. Unterstellt man beiden Verfahren, dass sie mir der gebotenen Sorgfalt überprüft wurden stellt sich auch für den von außen zuschauenden die Frage, wie derart abweichende Werte in einem Umfeld, dass man ja doch recht gut verstanden glaubte auftauchen können - und wo im Standardmodell nun der Fehler tatsächlich liegt.

Auch wenn ich an der einen oder anderen Stelle verständnismäßig an meine Grenzen stoße sieht da doch nach einem Grundsatzproblem aus, dass das Potenzial zu einem großen Verbesserungsschritt des Standardmodells bietet.

CS
Jörg
 
Standardmodell und so sind definitiv nicht meine Themen. Ich stecke da nicht drin, und weiss nicht viel über die unterschiedlichen Symmetrien, die zur Basis des Theoriekonstrukts gehören.
Bei dem Standardmodell bzw. seinen Erweiterungen habe ich jedoch immer ein Bisschen den Eindruck, dass es Flickschusterei ist. Es werden bestimmte Eigenschaften (oder Teilchen) benötigt - und die bekommt man durch eine Erweiterung des Modells.

Mühsam erhährt sich das Eichhörnchen, oder war's das Murmeltier? Jedenfalls wäre es ja verwunderlich, wenn so ein Modell beim ersten Wurf gleich alles richtig erklärt. Insbesondere, wo wir erst seit Kurzem wissen, dass der Großteil des Universums garnicht aus baryonischer Materie besteht, sondern bisher nur indirekt messbar ist - wenn überhaupt. Und korrigiert mich, wenn ich falsch liege - bei der offenbar vorhandenen Asymmetrie zwischen Materie und Antimaterie tappt man auch noch ziemlich im Dunkeln. Das bedeutet, irgendwas fehlt noch.
Ich weiss von der gemessenen CS-Asymmetrie beim D0-Meson und seinem Antiteilchen. Aber was bedeutet das für das Standardmodell?

CS Hoschie
 
Es wird übrigens eine dritte Methode diskutiert, wie man die Hubble-Konstante H_0 messen kann, unabhängig von Cepheiden (Riess et al.) und kosmischer Hintergrundstrahlung (Planck Collaboration et al.).

Man kann aus der Messung von Gravitationswellen von zwei verschmelzenden Neutronensternen auf deren Entfernung schließen. Zusammen mit der Geschwindigkeit, die man aus der Rotverschiebung der entsprechenden Galaxie bekommt, kann man die Hubble-Konstante berechnen.

Verschmelzende Neutronensterne sind daher "Standardsirenen", d.h. "akustische" Pendants zu den optischen Standardkerzen, wie Cepheiden.

Diese Methode könnte in einigen Jahren sehr genaue Ergebnisse für die Hubble-Konstante liefern und zur Klärung der Diskrepanz der bisherigen Messungen von H_0 beitragen.

A gravitational-wave standard siren measurement of the Hubble constant

Scientific American: The Universe's Fate Rests on the Hubble Constant - Which Has So Far Eluded Astronomers

Nature: A two per cent Hubble constant measurement from standard sirens within five years

Viele Grüße
Mark
 
Standardmodell und so sind definitiv nicht meine Themen. Ich stecke da nicht drin, und weiss nicht viel über die unterschiedlichen Symmetrien, die zur Basis des Theoriekonstrukts gehören.
Bei dem Standardmodell bzw. seinen Erweiterungen habe ich jedoch immer ein Bisschen den Eindruck, dass es Flickschusterei ist. Es werden bestimmte Eigenschaften (oder Teilchen) benötigt - und die bekommt man durch eine Erweiterung des Modells.
In diesem Zusammenhang geht es nicht um das Standardmodell der Teilchenphysik, sondern um das Standardmodell der Kosmologie, auch Lambda-CDM-Modell genannt (Lambda = Kosmologische Konstante, CDM = cold dark matter ). Siehe am besten die engl. Wikipedia, Lambda-CDM model - Wikipedia Aber natürlich würde auch ein besseres Verständnis der dunklen Materie aus Sicht der Teilchenphysik helfen.

Thomas
 
Ich weiss von der gemessenen CS-Asymmetrie beim D0-Meson und seinem Antiteilchen. Aber was bedeutet das für das Standardmodell?
Vorsicht, solche Sachen gehören zum Themenkomplex der Teilchenphysik. Das Standardmodell der Teilchenphysik hat aber mit dem Standardmodell der Kosmologie, um das es hier geht, außer dem Namen gar nichts gemeinsam. Letzteres wird in Fachkreisen gewöhnlich das Lambda-CDM-Modell genannt, wobei Lambda die so genannte kosmologische Konstante ist, und CDM für "Cold Dark Matter" steht.

Das Standardmodell der Teilchenphysik ist zwar in seinem Gültigkeitsbereich sehr erfolgreich, es klammert aber gravitative Effekte völlig aus und es liefert auch in vielen Teilbereichen wie der Teilchen/Antiteilchen-Asymmetrie oder in der Neutrinophysik noch keine überzeugenden Erklärungen. Ein wesentlicher Teil der aktuellen Teilchenphysik befasst sich deshalb mit Tests und Untersuchungen am Rande der gültigen Grenzen (beyond the Standard Model).

Das Lambda-CDM-Modell der Kosmologie ist (jedenfalls in der Wahrnehmung seiner Befürworter) ebenfalls sehr erfolgreich, so liefert es ja zum Beispiel aus dem beobachteten Granularitätsmuster der kosmischen Mikrowellen, welches vor Milliarden von Jahren entstanden ist, eine Vorhersage für die aktuell gültige Raumexpansion, was schon sehr bemerkenswert ist. Aber wie das Thema dieses Beitrags zeigt, ist die Übereinstimmung mit der lokal gemessenen Expansionsrate eben doch nicht perfekt.

Haben wir es hier mit unverstandenen systematischen Fehlern zu tun? Oder stimmen die Grundannahmen vom Lambda-CDM-Modell ganz oder teilweise nicht? Darum geht es hier letztlich ...

P.S.: Thomas war schneller, aber doppelt hält besser ...
 
In diesem Zusammenhang geht es nicht um das Standardmodell der Teilchenphysik, sondern um das Standardmodell der Kosmologie, auch Lambda-CDM-Modell genannt.

Vorsicht, solche Sachen gehören zum Themenkomplex der Teilchenphysik. Das Standardmodell der Teilchenphysik hat aber mit dem Standardmodell der Kosmologie, um das es hier geht, außer dem Namen gar nichts gemeinsam.

Danke für den Hinweis! Den Term "Standardmodell" habe ich bisher immer mit dem Standardmodell der Teilchenphysik in Verbindung gebracht. ALs Bezeichnung für das Lambda-CDM-Modell kannte ich es bisher nicht. Wieder was dazugelernt! Alle Aussagen, die ich oben getroffen habe, beziehen sich daher auf das Erstere...

CS Hoschie
 
Es wird übrigens eine dritte Methode diskutiert, wie man die Hubble-Konstante H_0 messen kann, unabhängig von Cepheiden (Riess et al.) und kosmischer Hintergrundstrahlung (Planck Collaboration et al.). Man kann aus der Messung von Gravitationswellen von zwei verschmelzenden Neutronensternen auf deren Entfernung schließen. Zusammen mit der Geschwindigkeit, die man aus der Rotverschiebung der entsprechenden Galaxie bekommt, kann man die Hubble-Konstante berechnen.
Eine weitere unabhängige Strategie, die allmählich Fahrt aufnimmt, basiert auf der systematischen Analyse von weak gravitational lensing Effekten, wie sie vom Dark Energy Survey (DES) oder bald auch vom Large Synoptic Survey Telescope (LSST) durchgeführt wird.

Die Gestalt und Position von weit entfernten Objekten werden durch den Gravitationslinseneffekt von Massen entlang der Sichtlinie geringfügig verändert. Über große statistische Ensembles gemittelt lassen sich so nicht nur Informationen über die Verteilung und Dichte von dunkler Materie gewinnen, sondern auch über kosmologische Parameter wie den Hubble-Parameter auf verschiedenen Entfernungs- und Zeitskalen:

Viewpoint: Weak Lensing Becomes a High-Precision Survey Science

Analyzing its first year of data, the Dark Energy Survey has demonstrated that weak lensing can probe cosmological parameters with a precision comparable to cosmic microwave background observations.

One of the most important aspects of the DES reports is the comparison with the most recent CMB measurements from the Planck satellite mission. The CMB is the radiation that was left over when light decoupled from matter around 380,000 years after the big bang, so Planck probes the Universe at high redshift ( z∼1100). The DES data, on the other hand, concern much more recent times, at redshifts between 0.2 and 1.3. To check whether Planck and DES are consistent, the CMB-constrained parameters need to be extrapolated across cosmic history (from z∼1100 to z∼1) using the standard cosmological model. Within the experimental uncertainties, this extrapolation shows good agreement, thus confirming the standard cosmological model’s predictive power across cosmic ages. While this success has to be cherished, everyone also silently hopes that experimenters will eventually find some breaches in the ΛCDM model, which could provide fresh hints as to what dark matter and dark energy are.


Credit: LSST

104921
 
T. M. C. Abbott et al. - Dark Energy Survey Year 1 Results: Cosmological Constraints from Galaxy Clustering and Weak Lensing

Die Extraktion der kosmologischen Parameter findet man in Tabelle II auf Seite 16, wobei dort anstelle von H_0 für den Hubble-Parameter die dimensionslose Größe h verwendet wird. Daraus folgt

H_0 = 100 h (km/s) / Mpc
 
Hallo Thomas, ja, das trifft es ganz gut!
Zumal solche opportunistischen "Anpassungen" so ziemlich das Gegenteil einer aus sich heraus überzeugenden Theorie darstellen.
Gruß, Peter

Prokrustes bot Reisenden ein Bett an, aber in manchen Sagen zwang er auch Wanderer, sich auf ein Bett zu legen. Wenn sie zu groß für das Bett waren, hackte er ihnen die Füße bzw. überschüssigen Gliedmaßen ab; waren sie zu klein, hämmerte und reckte er ihnen die Glieder auseinander, indem er sie auf einem Amboss streckte.

Als Prokrustesbett oder Bett des Prokrustes bezeichnet man redensartlich eine Form oder ein Schema, wohinein etwas gezwungen wird, das dort eigentlich nicht hineinpasst.
 
Prokrustes hatte in seiner Herberge zwei Betten, ein ganz großes und ein ganz kleines. Er legte die großen Leute absichtlich in das kleine Bett und umgekehrt. Und dennoch hat am Ende alles gepaßt ... wie oben beschrieben.
 
Das war ja zu befürchten, jetzt kommen die kosmologischen "Feinstimmer" mit postfaktischen "Toy Models", um die Diskrepanz zwischen dem primordialen und dem lokalen Hubble Parameter wieder hinzubiegen:

Synopsis: Dark Energy Solution for Hubble Tension

Early Dark Energy can Resolve the Hubble Tension

Model suggests how early dark energy could resolve the Hubble tension

Hi Peter,

ich sehe nicht, was daran falsch sein sollte. Das Bestreben nach immer genaueren, unabhaengigen Messungen kosmologischer Parameter hat doch genau das Ziel, eben solche Diskrepanzen endlich nachzuweisen. Das ist physikalisch hoechst interessant und enthaelt evtl. die langgesuchten Hinweise auf eine Physik jenseits des quantenmechanischen und des kosmologischen Standardmodells (und damit der allg. Relativitaetstheorie).
"Neue Physik" kann alles moegliche beinhalten, neue Teilchenarten bis hin zu zeitlich veraenderlichen Eigenschaften der Raumzeit oder neuer Wechselwirkungen. Alle drei Artikel weisen darauf hin, dass ihre Vorhersagen mit im Bau befindlichen Observatorien getestet werden koennen (die wiss. Veroeffentlichungen dazu selbst habe ich nicht gelesen). Genau so soll es sein, hier kann und soll sich die theoretische Physik einmischen. Endlich gibt es eine Diskrepanz, an der man etwas festmachen kann.

LG,

mischa
 
ich sehe nicht, was daran falsch sein sollte. Das Bestreben nach immer genaueren, unabhaengigen Messungen kosmologischer Parameter hat doch genau das Ziel, eben solche Diskrepanzen endlich nachzuweisen. Das ist physikalisch hoechst interessant und enthaelt evtl. die langgesuchten Hinweise auf eine Physik jenseits des quantenmechanischen und des kosmologischen Standardmodells (und damit der allg. Relativitaetstheorie).

Hallo Mischa, natürlich ist es gut und wichtig, diese kosmologischen Parameter immer besser festzunageln, und wenn sich - wie es nun scheint - zwischen dem primordialen Wert aus den CMB-Daten und den immer genaueren lokalen Bestimmungen des Hubble-Parameters eine, wenn auch noch kleine Diskrepanz entwickelt, so ist das sogar von äußerster Bedeutung und, wenn sich das bestätigt, ein Hinweis auf Abweichungen vom kosmologischen Standardmodell.

Dass der Hubble-Parameter nicht von vornherein als zeitlich variabel betrachtet wurde, lag bislang natürlich an der fehlenden Evidenz für eine Veränderung, aber mehr noch am Mangel einer überzeugenden Theorie, die aus ihrer eigenen Logik solch einen Effekt nicht nur qualitav möglich macht, sondern auch quantitativ vorhersagt.

Davon kann hier hier ja wohl überhaupt nicht die Rede sein. Es sieht doch eher so aus, dass die Autoren eins ihrer Pet-Modelle aus dem Hut gezogen und an die gefundene Diskrepanz angepasst haben. So erscheint mir das jedenfalls.

Nichts für ungut,
mit besten Grüßen,
Peter

In deriving the CMB estimate, researchers have assumed a “standard” cosmological model, in which the density of dark energy is constant through time. To resolve the Hubble tension, Marc Kamionkowski of Johns Hopkins University, Maryland, and colleagues imagined a second contribution to the dark energy coming from a so-called scalar field that has a time-varying energy density. Focusing on types of scalar field potentials, the team determined parameters of these potentials that could give just enough acceleration in the early Universe to bring the CMB estimate of the Hubble constant in line with the local measurement. The researchers predicted that the brief acceleration from this scalar field could produce subtle, but detectable, signatures in the CMB that future surveys might observe.
 
Zuletzt bearbeitet:
in which the density of dark energy is constant through time.
Peter,
Nur darauf hin zu weisen, das in dem " Zeit und Zeiger" thread, the Theorie angebracht wird, dass Zeit und Energie ewig , unzerstoerbar, ungeschaffen sind, und dass das Universum sich in diese Ur- dimension (energytime, timespace) hinein ausdehnt, und in diesem Prozess immer mehr von dieser Urenergie :(("dark energy" innerhalb des Universums genannt) aufnimmt.
Vor und ausserhalb des Universums ist es nur Ur-energy.
Energytime, timespace ist das Selbe #1 das vor dem Urknall da war, und auch noch in unsere Zukunft liegt. und die These, dass das Universums sich durch die Zeit bewegt, die Zeit aber, (voller Energie), still steht.
Gruesse: guenter.
 
Zuletzt bearbeitet:
Abonniert!
 
Dass der Hubble-Parameter nicht von vornherein als zeitlich variabel betrachtet wurde, lag bislang natürlich an der fehlenden Evidenz für eine Veränderung, aber mehr noch am Mangel einer überzeugenden Theorie, die aus ihrer eigenen Logik solch einen Effekt nicht nur qualitav möglich macht, sondern auch quantitativ vorhersagt.

Hi Peter,

das trifft es nicht ganz. Natuerlich ist der Hubble-Parameter zeitlich variabel (siehe Friedmann-Gleichungen). Die Planck-Daten machen eine Vorhersage aufgrund Beobachtungen des sehr jungen Universums, welchen Wert der Hubble-Parameter *heute* haben muesste (unter Zugrundelage des kosmologischen Standardmodells). Demgegenueber stehen die anderen Messungen, welche an Beobachtungen im aelteren Universum festgemacht werden (lensing, Supernovae, Clustering, etc). Mit ueber 4 sigma Signifikanz laesst sich diese Diskrepanz nicht mehr so ohne weiteres auf unverstandene Systematiken oder "unknown unknowns" zurueckfuehren.

Eine "ueberzeugende Theorie" kann nur dann ueberzeugend sein, wenn man sie an irgendwas festmachen kann. Und automatisch kommen sie mit den Beobachtungen ja nicht mit. Die Ansaetze gehen alle in eine vernuenftige Richtung, und weitere Beobachtungen werden die Spreu vom Weizen trennen, dafuer sorgt die Schwarmintelligenz der Wissenschaft.

Zum jetzigen Zeitpunkt eine Theorie zu haben, welche diese Diskrepanz sozusagen basierend auf "first principles" quantitativ richtig erklaert, ist unrealistisch. Falls diese Diskrepanz tatsaechlich auf neuer Physik beruht, dann wuerde es mich extrem ueberraschen, wenn sich diese Physik alleine anhand dieser einen Messung parametrisieren liesse, und das wars. Das wird viel komplexer werden, da muss man sich rantasten und durch neue Beobachtungen und Experimente leiten lassen und absichern.

mischa
 
Natuerlich ist der Hubble-Parameter zeitlich variabel (siehe Friedmann-Gleichungen). Die Planck-Daten machen eine Vorhersage aufgrund Beobachtungen des sehr jungen Universums, welchen Wert der Hubble-Parameter *heute* haben muesste (unter Zugrundelage des kosmologischen Standardmodells).
Ja richtig, da habe ich mich oben falsch ausgedrückt.
Zum jetzigen Zeitpunkt eine Theorie zu haben, welche diese Diskrepanz sozusagen basierend auf "first principles" quantitativ richtig erklaert, ist unrealistisch. Falls diese Diskrepanz tatsaechlich auf neuer Physik beruht, dann wuerde es mich extrem ueberraschen, wenn sich diese Physik alleine anhand dieser einen Messung parametrisieren liesse, und das wars. Das wird viel komplexer werden, da muss man sich rantasten und durch neue Beobachtungen und Experimente leiten lassen und absichern.
Das sehe ich auch so, zumal ja zur Zeit bezüglich dark matter und dark energy noch alles im Fluss ist ... - Gruß, Peter
 
Oben