Diskrepanz in der Hubble Konstante

Noch ein neues Messergebnis:

New Hubble constant measurement adds to mystery of universe's expansion rate

Dabei wurden nicht Cepheiden, sondern Rote Riesensterne zur Kalibrierung verwendet. Wenn deren Energieproduktion aus dem Proton-Proton Fusionsprozess erschöpft ist, kollabiert der Stern bis die damit einhergehende Aufheizung bei einer Kerntemperatur von 100 Millionen Kelvin explosionsartig die Fusion von Helium auslöst. Das Phänomen ist unter dem Namen Helium-Blitz bzw. Helium flash bekannt.

Siehe auch:

Tip of the red-giant branch / Spitze des Roten Riesenastes
 
Zuletzt bearbeitet:
Wendy L. Freedman et al. The Carnegie-Chicago Hubble Program. VIII. An Independent Determination of the Hubble Constant Based on the Tip of the Red Giant Branch *

∗ Based on observations made with the NASA/ESA Hubble Space Telescope

We present a new and independent determination of the local value of the Hubble constant based on a calibration of the Tip of the Red Giant Branch (TRGB) applied to Type Ia supernovae (SNe Ia). We find a value of H0 = 69.8 ± 0.8 (±1.1% stat) ± 1.7 (±2.4% sys) km s−1 Mpc−1 . The TRGB method is both precise and accurate, and is parallel to, but independent of the Cepheid distance scale. Our value sits midway in the range defined by the current Hubble tension. It agrees at the 1.2σ level with that of the Planck Collaboration et al. (2018) estimate, and at the 1.7σ level with the HST SHoES measurement of H0 based on the Cepheid distance scale.

 
NASA/Hubble

111172


These galaxies are selected from a Hubble Space Telescope program to measure the expansion rate of the universe, called the Hubble constant. The value is calculated by comparing the galaxies' distances to the apparent rate of recession away from Earth (due to the relativistic effects of expanding space). By comparing the apparent brightnesses of the galaxies' red giant stars with nearby red giants, whose distances were measured with other methods, astronomers are able to determine how far away each of the host galaxies are. This is possible because red giants are reliable milepost markers because they all reach the same peak brightness in their late evolution. And, this can be used as a "standard candle" to calculate distance. Hubble's exquisite sharpness and sensitivity allowed for red giants to be found in the stellar halos of the host galaxies. The red giants were searched for in the halos of the galaxies. The center row shows Hubble's full field of view. The bottom row zooms even tighter into the Hubble fields. The red giants are identified by yellow circles.
Credits: NASA, ESA, W. Freedman (University of Chicago), ESO, and the Digitized Sky Survey
 
Jetzt auch bei Sky & Telescope: Tension Over Hubble Constant Continues

111674


Credit: W. Freedman et al. (Astrophysical Journal)

Conclusion by S&T: Ultimately, current measurements won’t settle the debate. Freedman and colleagues argue that to resolve the tension, astronomers must locally measure the Hubble constant to a precision better than 1%. That’s out of reach for now, but in just a couple years, the European Space Agency’s Gaia mission will be providing trustworthy and exquisitely precise distances to a heap of red giant stars, allowing a far better calibration than what is possible now. Perhaps then we’ll resolve the Hubble constant debate for once and for all.
 
L. Verde, T. Treu, A.G. Riess, Tensions between the Early and the Late Universe

"Discrepancies developing between observations at early and late cosmological time may require an expansion of the standard model, and may lead to the discovery of new physics. The workshop "Tensions between the Early and the Late Universe" was held at the Kavli Institute for Theoretical Physics on July 15-17 2019 [...] to evaluate increasing evidence for these discrepancies, primarily in the value of the Hubble constant as well as ideas recently proposed to explain this tension."
 
Und noch eine Bestimmung der lokalen Hubble Konstante, diesmal aus Untersuchungen von drei bekannten Quasaren, PG1115+08 - HE0435-1223 und RX 1131-1231J, welche trotz ihrer Entfernung von mehreren Milliarden Lj. durch zufällig davor stehende Gravitationslinsen mit relativ starken Signalen sogar als multiple Bilder registriert werden. Dabei wurden Messdaten von Hubble und Keck, letzteres mit adoptiver Optik, kombiniert. Die kombinierten Daten ergeben H_0 = 76.8 +2.6/-2.6 km/s/Mpc, in Übereinstimmung mit anderen lokalen Bestimmungen, nicht aber mit dem per Lambda-CDM Standardmodell aus den CMB Planck-Daten des frühen Universums abgeleiteten Wert.

Geoff C.-F. Chen et al.: A SHARP view of H0LiCOW: H0 from three time-delay gravitational lens systems with adaptive optics imaging

We present the measurement of the Hubble Constant, H0, with three strong gravitational lens systems, of both PG 1115+080 and HE 0435−1223 as well as an extension of our previous analysis of RXJ 1131−1231. For each lens, we combine new adaptive optics (AO) imaging from the Keck Telescope, obtained as part of the SHARP AO effort, with Hubble Space Telescope (HST) imaging, velocity dispersion measurements, and a description of the line-of-sight mass distribution to build an accurate and precise lens mass model. This mass model is then combined with the COSMOGRAIL measured time delays in these systems to determine H0. The joint result of the AO+HST analysis for the three lenses is H0 = 76.8 +2.6/−2.6 km/s/Mpc .

A Crisis in Cosmology

QSO.jpg


Multiple lensed quasar images of HE0435-1223 (left), PG1115+ 080 (center), and RXJ1131-1231 (right). Credit: G. Chen, C. Fassnacht, UC Davis
 
Die Frage ist bei den Fehlerintervallen immer, ob wirklich an alle möglichen Fehlerquellen gedacht wurde. Auch wenn mir für Mutmaßungen die Sachkenntnis fehlt würde ich doch bei jeder einzelnen Methode sagen dass das nicht so ganz trivial ist. Insofern tendiere ich im Moment noch eher dazu die Zahlen und Diskrepanzen mit Vorsicht zu genießen.

Nicht nur mir ist es im Studium in Pendelversuchen problemlos gelungen trotz großzügiger Fehlerannahmen eine überzeugend analysierte, aber auch samt Fehlerintervall ordentlich daneben liegende Erdbeschleunigung zu messen.

Man kann jetzt sagen, okay junge Studenten sind da kein Maßstab. Aber auch ein legendärer Millikan lag mit seinen ersten Elementarladungsbestimmungen kräftig daneben. Der Wert wurde dann peu a peu korrigiert.

Naja oder es steckt eben doch mehr dahinter. Warten wir's ab.

VG Klaus
 
Hallo Peter,

es bleibt also spannend. Mal abgesehen von den Bildern der gelinsten Quasare, die an sich schon das Zeigen wert sind, verfestigt sich bei mir der Eindruck, dass da doch noch etwas systematisches hinter steckt, nachdem die beiden Auswerteverfahren konstant unterschiedliche Werte liefern. Nach einem stochastischen Einfluss sieht das irgendwie nicht aus. Spannend, wie ich schrieb, ich verfolge es mit großem Interesse.

CS
Jörg
 
Der theoretische Physiker Lucas Lombriser von der Universität Genf schreibt, dass sich die Diskrepanz in der Hubble-Konstante durch eine lokale Dichteschwankung erklären lässt: Demnach befinden wir uns zusammen mit den zur Entfernungsbestimmung verwendeten Supernovae in einer 250 Millionen Lichtjahre großen Blase geringerer Dichte:

L. Lombriser: Consistency of the local Hubble constant with the cosmic microwave background

Within conventional cosmology a likely source of this discrepancy is identified here as a matter density fluctuation around the cosmic average of the 40 Mpc environment in which the calibration of Supernovae Type Ia separations with Cepheids and nearby absolute distance anchors is performed. Inhomogeneities on this scale easily reach 40% and more. In that context, the discrepant expansion rates serve as evidence of residing in an underdense region of δenv≈−0.5±0.1.

Solved: The mystery of the expansion of the universe

The Earth, solar system, the entire Milky Way and the few thousand galaxies closest to us move in a vast "bubble" that is 250 million light years in diameter, where the average density of matter is half as high as for the rest of the universe.
 
Zuletzt bearbeitet:
Wie Thomas schon klargestellt hat, 6.6 +- 1.5 (km/s) / Mpc beschreibt die Diskrepanz zwischen den konkurrierenden Methoden:

H_0 = 74.03 ± 1.42 (km/s)/Mpc .......................... Riess et al. (2019)

H_0 = 67.39 ± 0,54 (km/s)/Mpc .......................... Planck Collaboration (2018) - Table 1 (Combined Result)
Hallo P_E_T_E_R,

Eine Frage, kann es sein, dass es verm. gar keine Diskrepanz ist? Ich habe mich nicht intensiv damit beschäftigt, weiß aber worum es geht.
Ich habe Messwerte von 65 bis 78 gesehen.
Das empfinde ich als normal. Ich würde da voll mitgehen.
Aus welchem Grunde muss es unbedingt eine Konstante sein?
Ich würde sogar noch weiter gehen und Werte von 50 bis 100 als realistisch betrachten. Nur meine Meinung.

Es gibt das progressive Abdriften der Galaxien, aber m.E. sind es unterschiedliche Galaxien, die alle unterschiedliche Werte haben können.

lawrence
 
Es gibt neue Messergebnisse vom Atacama Cosmology Telescope, welche die Resultate vom Planck Satelliten insbesondere zur Hubble Konstante bestätigen.

S. Aiola et al. - THE ATACAMA COSMOLOGY TELESCOPE: DR4 MAPS AND COSMOLOGICAL PARAMETERS

We present new arcminute-resolution maps of the Cosmic Microwave Background temperature and polarization anisotropy from the Atacama Cosmology Telescope, using data taken from 2013–2016 at 98 and 150 GHz. The maps cover more than 17,000 deg² , the deepest 600 deg² with noise levels below 10µK–arcmin. We use the power spectrum derived from almost 6,000 deg² of these maps to constrain cosmology. From these one can derive the distance to the last-scattering surface and thus infer the local expansion rate, H0. By combining ACT data with large-scale information from WMAP we measure H0 = 67.6±1.1 km/s/Mpc, at 68% confidence, in excellent agreement with the independently measured Planck satellite estimate (from ACT alone we find H0 = 67.9±1.5 km/s/Mpc). The ΛCDM model provides a good fit to the ACT data, and we find no evidence for deviations ...

New research of oldest light confirms age of the universe

ACT_a.jpg

ACT_b.JPG

Credit: Wikipedia
 
Sehr interessant, danke für den Hinweis auf die neuen Ergebnisse.


Zitat: “For the first time we have two data sets measured independently and with enough precision to make a comparison,” Calabrese says. Having also been a member of the Planck team, she says it was a relief to find that the two experiments’ Hubble-constant predictions agreed to within 0.3%.

This agreement between ACT and Planck on the Hubble constant is “a truly major milestone”, says Paul Steinhardt, a theoretical physicist at Princeton University. “I am very impressed by the quality of the new data and their analysis,” he adds.


Viele Grüße
Mark
 
Zuletzt bearbeitet:
Hallo,

verstehe ich es richtig, daß die Atacama-Messungen zwar den Expansionswert der Planck-Daten bestätigen, aber damit noch nicht den Konflikt zu den Werten auflösen, die durch nähere Messungen an Supernovae ermittelt wurden?

Gruß

*entfernt*
 
Und noch eine weitere unabhängige Messung der Hubble-Konstante im Einklang mit den CMB-Resultaten, diesmal aus dem gerade fertiggestellten riesigen Sloan Digital Sky Survey (SDSS) in seiner IV. Generation als "extended Baryon Oscillation Spectroscopic Survey (eBOSS)":

SDSS-IV eBOSS-SURVEY: Cosmological Implications

H0 = 68.20 ± 0.81 km/s/Mpc , remaining in tension with several direct determination methods; the BAO data allow Hubble constant estimates that are robust against the assumption of the cosmological model. In addition, the BAO data allow estimates of H0 that are independent of the CMB data, with similar central values and precision under a ΛCDM model.

No need to Mind the Gap: Astrophysicists fill in 11 billion years of our universe’s expansion history

SDSS_Hubble.jpg

Image credit: Eva-Maria Mueller (Oxford University) and the SDSS Collaboration

SDSS Home Page
 
Und das schreibt Sky & Telescope dazu:

New 3D-Map of the Universe - and a Growing Cosmological Debate

The massive amounts of data collected for the EBOSS project fills in part of a huge gap between observations of supernovae or variable stars in relatively nearby galaxies and the distant cosmic microwave background, emitted 13.4 billion years ago.

One of the most striking results from the EBOSS survey is a new measurement of the Hubble constant, a number that reveals how fast the universe is expanding now. This number has famously been the subject of debate ever since it was first measured; currently, most measurements of the early universe, such as the density fluctuations of the CMB, show the number to be on the lower side, while measurements in nearer galaxies give a higher number.

The EBOSS team is taking a side in the fight. Estimating a Hubble constant value between 67.4 and 69.0 km/s/Mpc, the team has results on the level of the measurements from the CMB.

“If people thought that after more data collecting the discrepancy would just disappear, that hasn’t happened,” says Adam Riess (Johns Hopkins University), who also was not involved in the study. “In fact, its significance has generally been growing.”

Riess and Freedman, who have both run studies based on stars in nearby galaxies, agree that the fact that the discrepancy persists strengthens the tensions between methods that use faraway light to sample the early universe and methods using nearby objects to sample later on in the cosmic timeline. “I think there is something interesting at play,” Riess muses.

“The baryon acoustic oscillation measurements are further important because they provide information on how the universe has evolved with time, and constraints on how, for example, the dark energy has evolved with time,” Freedman explains. Indeed, EBOSS measurements show that dark energy hasn’t changed a whit - which actually eliminates one possible explanation for the Hubble constant discrepancy.
 
Dark energy: map gives clue about what it is – but deepens dispute about the cosmic expansion rate

Using the Sloan Digital Sky Survey telescope, we measured more than 2 million galaxies and quasars - extremely bright and distant objects that are powered by black holes - over the last two decades. This new map covers around 11 billion years of cosmic history that was essentially unexplored, teaching us about dark energy like never before.

Our results show that about 69% of our universe's energy is dark energy. They also demonstrate, once again, that Einstein's simplest form of dark energy - the cosmological constant - agrees the most with our observations.

When combining the information from our map with other cosmological probes, such as the cosmic microwave background - the light left over from the big bang - they all seem to prefer the cosmological constant over more exotic explanations of dark energy.

Recent studies of the cosmic microwave background suggested that the geometry of space may be curved instead of being simply flat - which is consistent with the most accepted theory of the big bang. But our study concluded that space is indeed flat.
 
Danke Peter, das ist eine Literatursammlung, die einen Sommerurlaub füllen kann :)

Ich bin beeindruckt von der unglaublichen Anzahl von Publikationen, die in den letzten 10 Jahren zum Thema veröffentlicht worden sind. Es gibt jetzt eine Vielfalt von neuen Daten, deren Auswertung noch Jahre in Anspruch nehmen wird. Da liegt etwas in der Luft und wir werden in absehbarer Zeit ein paar Überraschungen erwarten können.

Die Supernova-Daten (als Teil der 'distance-ladder') zur Hubble Konstanten scheinen also wirklich systematisch von den CMB und BAO Messungen abzuweichen und es sieht momentan so aus, als seien sie etwas isoliert. Es gab zuletzt sogar Spekulationen darüber, ob sich die SN Ia Supernovae doch nicht so als ideale Standardkerzen eignen könnten, weil deren Helligkeit im frühen Universum ein wenig von heutigen Werten abgewichen haben könnte.

Dunkle Energie und ein sehr flaches Universum scheinen sich zu festigen. Verdammt, ich dachte, die dunkle Energie würde sich im Laufe der Jahre als eine Messungenauigkeit herausstellen und dann allmählich verflüchtigen, aber sie bleibt störrisch in unseren Daten; damit werden wir uns auch in den nächsten Jahren anfreunden müssen.

Viele Grüße,
Holger
 
Hallo Holger, jedenfalls zeigen diese neuen Resultate, dass ein wirklicher Fortschritt im Verständnis nur mit bahnbrechenden Präzisionsdaten möglich ist.

Ich bin selber kein Astrophysiker und verfolge diese Entwicklungen als interessierter Nebenfächler. In meinem Fachgebiet der experimentellen Teilchenphysik stand ich aber lange an vorderster Front der Forschung und habe dort sehr ähnliche Erscheinungen beobachtet, mit teilweise dramatischen Fortschritten, die in kürzester Zeit neue Einsichten vermittelten.

Die Theoretiker benutzen dann schon mal Bezeichnungen wie "November Revolution" oder "das große Massaker", wenn ihnen plötzlich wie seinerzeit im Herbst 1974 neue Quarks um die Ohren fliegen, oder kurze Zeit später durch unsere Messergebnisse am SLAC sämtliche alternative Modelle massakriert wurden. Übrig blieb dann nur noch Weinberg-Salam, oder was wir heute die elektro-schwache Theorie nennen.

Das setzt aber eine vernünftige Verzahnung zwischen Theorie und Experiment voraus. Wenn sich die Theorie zu sehr von den experimentellen Möglichkeiten entfernt, etwa indem sie nur noch mit Energieskalen jongliert, die sich völlig der experimentellen Untersuchung entziehen, dann funktioniert dieses Erfolgsrezept nicht mehr. Und wenn das so weiter geht, erübrigt sich bald auch jede weitere theoretische Spekulation.

Kürzlich wurde ein Partikel als DM-Kandidat mit einer Masse im Bereich von Milli-Elektronenvolt vorgeschlagen. Nur ein Jahr später brachten die selben Theoretiker dafür stattdessen ein Teilchen mit der Planck-Masse ins Spiel. Dazwischen klaffen sage und schreibe dreißig Größenordnungen. Dieser theoretische Augiasstall schreit geradezu nach einer radikalen Ausmistung, und das wird dann zweifelsohne ein neuerliches Massaker werden.

Was wir also brauchen, sind keine weiteren theoretischen Spekulationen, sondern Daten, jede Menge Daten, und zwar Präzisionsdaten!

Peter
 
Zuletzt bearbeitet:
Hallo Peter,

das sehe ich genauso, denn die bisherigen Daten ließen noch viel Spielraum für die Theoretiker. Das wird im Laufe der Zeit dann wieder eindampfen, und die momentan beobachteten Diskrepanzen in der Hubble-Konstanten sind ein guter Ausgangspunkt für eine gründliche Überarbeitung der Modelle.

Ich bin auch kein Astrophysiker, hatte nur in der Vergangenheit mal Verbindung mit dem Thema: Promotion in der theoretischen Hochenergie-Kernphysik (Schwerionenphysik, GSI Darmstadt), später Postdoc am Indian Institute of Astrophysics in Bangalore (präzise Berechnung von Spektren schwerer Atome), danach bin ich abgedriftet und arbeite inzwischen in der Polymerphysik. Die Kosmologie interessierte mich aber immer, so dass ich sie als Außenstehender weiter beobachte. Spannend, was da abgeht ...

Viele Grüße,
Holger
 
Diese Messungen bestätigen, dass die Expansion, die in unserer näheren Umgebung erfolgt (wenn man 20 Mpc als 'Nachbarschaft' bezeichnen möchte), von der Expansion auf sehr großen Skalen abweicht. Es ist klar, dass die kosmologischen Modelle auf der Annahme einer homogenen und isotropen Massenverteilung beruhen und dass diese Annahme auf kleineren Skalen nicht gerechtfertigt ist. Man muss also unterscheiden zwischen der Expansionsrate des ganzen (beobachtbaren) Universums und der Expansionsrate in dem Gebiet, in dem wir uns aufhalten. Vermutlich müssen zuerst die Eigenschaften der dunklen Materie besser untersucht werden, um zu verstehen, wie genau diese die Dynamik auf kleineren und mittleren Entfernungsskalen beeinflusst. Das meinen die Autoren wohl mit ihrer Bemerkung auf Seite 15 (Mitte), wenn sie sagen: '... there is increasing reason to doubt the CDM paradigm on galaxy scales ... despite its success on cosmological scales'.

Viele Grüße,
Holger
 
Neben der hier bereits ausführlich diskutierten "Tension" in der Hubble-Konstante, gibt es noch einen weiteren kosmologischen Parameter, bei dem im ΛCDM-Modell nicht alles perfekt zusammen passt. Man spricht da von einem Clustering Parameter S8, der die heutige RMS Streuung der Materieverteilung in einer räumlichen Kugel mit dem Radius 8h–1 Mpc angibt.

Klingt jetzt erst mal sehr technisch und ist es natürlich auch. Für den Zusammenhang mit der Hubble-Konstante reicht hier erst mal, dass auch beim Parameter S8 eine Anomalie beobachtet wird. Anscheinend sind die Fluktuationen in der heutigen Materieverteilung geringer, als man das im Rahmen von ΛCDM aus den CMB-Beobachtungen von Planck erwarten würde. Also eine weitere Diskrepanz zwischen dem heute beobachteten Zustand und dem aus CMB-Daten extrapolierten Verhalten.

We present cosmological constraints from a cosmic shear analysis of the fourth data release of the Kilo-Degree Survey (KiDS-1000), doubling the survey area with nine-band optical and near-infrared photometry with respect to previous KiDS analyses. Adopting a spatially flat ΛCDM model, we find S 8 = σ8 (Ωm/0.3)0.5 = 0.759+0.024/−0.021 for our fiducial analysis, which is in 3σ tension with the prediction of the Planck Legacy analysis of the cosmic microwave background.

Die neuen Daten zu dieser S8-Anomalie stammen vom Kilo-Degree-Survey (KiDS) am VLT Survey Telescope der ESO in Chile. Im Cassegrain-Fokus der Optik befindet sich eine riesige Digitalkamera mit 268 Megapixeln. Mit maximal 12 Filtern kann das Spektrum von UV bis zum nahen Infrarot abgedeckt werden.

S&T: Our Unexpectedly Smooth Universe May Point To New Physics

The latest data release from the Kilo-Degree Survey (KIDS) confirms earlier indications that the current distribution of gravitating matter is less clumpy than predicted by the standard model scientists use for cosmology.

The statistical significance of the result is 3 sigma. Analysis of the full 1,350-square-degree dataset of the KIDS survey is now underway; the fifth and final data release is expected next year. Another cosmic-shear project, the Dark Energy Survey has just published results from their first survey year, yielding a clustering parameter 5.5% smaller than the ΛCDM value. A third project with the Japanese Hyper Suprime-Cam Survey is also expected to publish results within the next few months

Starting three or so years from now, the European Space Agency’s Euclid mission and the Vera C. Rubin Observatory will greatly improve on current surveys, both in sensitivity and in sky coverage. Eventually, it will become clear whether or not we’ll have to discard our cherished theoretical model of the universe.
 
Könnte es sein, dass auf kleinen Skalen wie etwa der der lokalen Gruppe oder vielleicht sogar des Virgo-Supercluster oder selbst noch größerer Strukturen die dunkle Energie nicht DIE dominierende Rolle spielt wie auf den ganz großen Skalen, wo "mehr Vakuum" ist?

Thomas
 
Tja, wie man diese "tensions" erklärt, wird uns wohl noch eine ganze Weile beschäftigen. Immerhin wird nun mit immer mehr unabhängigen Messresultaten klar, dass es sich um einen echten Effekt und nicht einfach nur um Messfehler handelt.
 
Oben