German: einige Ereignisse und Gedanken zu meinen Speziellen Themen aus dem Bereicht Klimaphysik, Astrophysik, Politik und Erlebnisse.
English: some events and thoughts regarding my special topics from climate physice, astrophysics, politics and "adventures"
The EPA proposed today that approximately 8,000 polluting facilities, including oil refineries, power plants, and steel mills, should no longer be required to report their greenhouse gas emissions.
Since 2010, the Greenhouse Gas Reporting Program has required that such facilities—spanning several dozen categories—report their emissions of greenhouse gases, such as carbon dioxide, to the government. The data is made public each October. According to the EPA’s own website, as it appeared today, the data can be used to “identify opportunities to cut pollution, minimize wasted energy, and save money,” as well as to “develop common-sense climate policies.” ...
Deutsch:
Die US-Umweltschutzbehörde EPA hat heute vorgeschlagen, dass rund 8.000 umweltschädliche Anlagen, darunter Ölraffinerien, Kraftwerke und Stahlwerke, nicht länger verpflichtet sein sollten, ihre Treibhausgasemissionen zu melden.
Seit 2010 sind solche Anlagen – darunter mehrere Dutzend Kategorien – im Rahmen des Greenhouse Gas Reporting Program verpflichtet, ihre Treibhausgasemissionen, wie beispielsweise Kohlendioxid, an die Regierung zu melden. Die Daten werden jedes Jahr im Oktober veröffentlicht. Laut der Website der EPA können die Daten genutzt werden, um „Möglichkeiten zur Reduzierung der Umweltverschmutzung, zur Minimierung von Energieverschwendung und zur Kosteneinsparung zu identifizieren“ sowie „vernünftige Klimapolitiken zu entwickeln“. ...
Science is one of the greatest engines of health, prosperity, and security across the world. Yet, in the United States, the enterprise is now under tremendous stress from an array of pressures, including threats to federal support for both the direct and indirect costs of research. But funding instability is not the only issue. One major problem is that regulatory and policy requirements force researchers to spend nearly half of their research time on paperwork associated with receiving federal grants and contracts, not on discovery. The situation is made worse when research institutions themselves layer on additional requirements to ensure compliance. The administrative tasks are unnecessarily complex, duplicative, and, in some cases, contradictory. They also waste taxpayer dollars intended for scientific discovery and innovation. Given the current political focus on streamlining federal regulations, there is a clear opportunity to finally solve this burdensome problem.
Surveys by the Federal Demonstration Partnership have shown that for nearly two decades, American researchers typically have spent over 40% of their research time on administrative and regulatory tasks, such as required training or conflict of interest forms. These requirements have been put in place over time to ensure that research is conducted at the highest levels of integrity, accountability, and transparency. But as the number of federal science funding agencies increased, and as science evolved to merit more areas of oversight, there has been an uncoordinated expansion of administrative red tape that has slowed the pace of research.
The administrative load has been analyzed extensively, and there is no dearth of suggestions on how to decrease it, including from the National Science Board, the Council on Government Relations, the Government Accountability Office, and the National Academies of Sciences, Engineering, and Medicine (the National Academies). Their reports include specific recommendations for fixing the problems, yet there has been relatively little progress over the past 20 years. Although there has been some alignment of policies and procedures across different funding agencies, attempts to substantially simplify administrative requirements have been sporadic and fleeting.
Why has there been so little progress? A major challenge has been the absence of federal leadership and coordination across the funding agencies. It is often unclear who has the authority to lead and implement system-wide changes. Each science agency (there are now over 20 of them) has developed rules and regulations that reflect its own mission. Without strong incentives or mechanisms to establish common methods, agencies have little reason to align their policies. Progress also has been hampered by the perception that the science supported by each agency is so specialized that it requires tailored policies and rules. As well, recommendations proposed so far simply may not have resonated with agency leaders.
Last week, the National Academies released a report, Simplifying Research Regulations and Policies: Optimizing American Science, that describes a different approach to the problem. It proposes three cross-cutting principles: harmonizing regulations and reporting requirements across agencies; adjusting the intensity of regulations to the level of risk to individuals or society; and using technology to simplify compliance. Rather than making specific recommendations about what should be done to solve the problems in each of these domains—such as conflicts of interest, misconduct in science, or research security—the report offers alternative routes to reducing the burden in each area and describes the pros and cons of each approach. This provides flexibility for achieving efficiency and transparency that will hopefully be attractive to multiple agencies. The report also offers alternative ways to coordinate efforts across agencies, such as through the creation of a federal research policy board, one of the earlier recommendations from the National Academies.
The new National Academies report comes at a time when both the Trump administration and Congress are proposing numerous changes with the purported goals of making science more accountable and efficient. To ensure these changes serve the research enterprise well, the scientific community must contribute its own ideas to accomplish the same goals. The administrative burden on America’s researchers is badly in need of reform. Indeed, both federal and state governments claim that streamlining regulations to decrease waste, enhance accountability, and promote innovation is a priority. The United States cannot waste any more time and resources if it is to maintain a robust scientific enterprise that is the equal of any in the world.
10.1126/science.aec0488
Alan I. Leshner is chief executive officer emeritus of the American Association for the Advancement of Science and former executive publisher of Science. He chaired the National Academies report on simplifying research regulations and policies. alan.i.leshner@gmail.comAlex M. Helman is a senior program officer at the National Academies, Washington, DC, USA. She was study director for the National Academies report on simplifying research regulations and policies. ahelman@nas.edu
Orbiting Carbon Observatory-2, illustrated above, would burn up in Earth’s atmosphere if it were decommissioned. Credit: NASA/JPL-Caltech
Research & Developments is a blog for brief updates that provide context for the flurry of news regarding law and policy changes that impact science and scientists today.
For the past month, the Trump administration, via NASA’s Acting Administrator Sean Duffy, has been directing NASA employees to implement workforce adjustments and plan for the shutdown of dozens of missions and programs slated for cuts under in the President’s Budget Request to NASA. Doing so ahead of a Congressionally-approved budget for fiscal year 2026 (FY26) is tantamount to illegal impoundment of federal funds appropriated for the current fiscal year (FY25), according to an 18 July letter to Duffy signed by 64 members of Congress.
Now, despite warnings that their actions are illegal, NPR reports that Duffy and other senior NASA officials have continued to secretly direct NASA employees to draw up plans to end at least two major satellite missions specifically designed to monitor global carbon dioxide. Orbiting Carbon Observatory (OCO)-2, a free-orbiting satellite, and OCO-3, which is attached to the International Space Station, are slated for defunding in the 2026 President’s Budget Request (PBR).
David Crisp, a retired NASA atmospheric physicist who was the principal investigator of the original OCO mission and was OCO-2’s science team leader, told NPR that he was contacted by several NASA employees who asked him pointed questions about the satellites that added up to mission termination plans.
“What I have heard is direct communications from people who were making those plans, who weren’t allowed to tell me that that’s what they were told to do. But they were allowed to ask me questions,” Crisp said. “They were asking me very sharp questions. The only thing that would have motivated those questions was [that] somebody told them to come up with a termination plan.” (Crisp is also a Fellow of AGU, which publishes Eos.)
Two current NASA employees confirmed to NPR that NASA leaders were told to make plans to terminate projects that would lose funding should Trump’s PBR be enacted. The employees, who requested anonymity, also told NPR that agency leadership is seeking private backers to keep the OCO satellites running should they lose federal funding.
The Orbiting Carbon Observatories were designed specifically to monitor and map the global carbon budget, and they have provided valuable data about the drivers of climate change. The satellites also exhibited a surprising ability: monitoring plant growth. The mission has provided maps of photosynthesis around the world that have proved valuable tools for farmers and the agricultural industry, including the U.S. Department of Agriculture. Experts warn that farmers could lose access to those tools if the satellites are privatized or decommissioned.
“Just from an economic standpoint, it makes no economic sense to terminate NASA missions that are returning incredibly valuable data,” Crisp said.
Growing plants emit a form of light detectable by OCO-2 and OCO-3. Here, red, pink, and white indicate areas of growth and gray indicates areas of little growth. Credit: NASA’s Scientific Visualization Studio
Budgets Pending
Both the Senate and House appropriations committees recently released FY26 funding bills for NASA for consideration by Congress. The House does seek to cut NASA’s overall budget, though far less than requested by the Trump administration. The House’s draft bill does not break down appropriations by NASA’s subdivisions or programs, so there is little information about whether OCO would be defunded should the House’s budget be adopted.
The draft budget from the Senate appropriations committee, which also doesn’t mention OCO by name, nonetheless offers more details about what funding they would approve. Under that budget framework, NASA would receive $24.9 billion total (up from $24.8 billion in FY25). NASA’s Science Mission Directorate would lose a modest amount of funding ($7.3 billion, down from $7.5 billion), and the Earth Science division, which operates OCO, would also lose some funds ($2.17 billion, down from $2.2 billion).
The Senate committee’s more detailed explanation may shed light on its plans for OCO and other Earth-observing missions:
“The Committee rejects the mission terminations proposed in the fiscal year 2026 budget request for Earth Science, Planetary Science, Astrophysics, and Heliophysics.” That’s about as explicit as they can be.
“In advancing the U.S. national interest, NASA should seek, to the extent practicable, to retain public ownership of technologies, scientific data, and discoveries made using public funds.” This directive runs counter to NASA’s plans to privatize satellites that Trump seeks to defund.
“Earth Science missions could help to understand the efficacy of carbon dioxide removal proposals, including to track carbon stocks and carbon cycling in aboveground biomass and coastal marine ecosystems.” The committee recognizes that Earth-observing satellites are important to the future of the planet.
Neither the House nor Senate appropriations bills have been taken up by either chamber of Congress. The bills still need to be passed by their respective chambers, reconciled into a single budget bill that passes both chambers of Congress, and signed into law by the president before FY25 ends on 30 September.
Correction 5 August 2025: David Crisp’s position with NASA and his association with AGU have been corrected.
These updates are made possible through information from the scientific community. Do you have a story about how changes in law or policy are affecting scientists or research? Send us a tip at eos@agu.org.
Das Vertrauen in den Impfstoff von AstraZeneca ist gesunken. Die Wissenschaftsjournalistin Mai Thi Nguyen-Kim hält die Medien dafür mitverantwortlich. Sie glaubt: Eine bessere Berichterstattung würde die Impfbereitschaft erhöhen.
Die Debatte um Impfstoffe gegen das Coronavirus verlief zuletzt hitzig, emotional und war von Schnellschüssen geprägt. Nun sehen viele in dem Impfstoff von AstraZeneca einen Impfstoff zweiter Klasse. Wie sollten Medien in der Pandemie berichten?
Zunächst sei es wichtig, dass öffentliche Behörden ausreichend Informationen bieten, sagt die Wissenschaftsjournalistin Mai Thi Nguyen-Kim. Sie hält aber auch die Medien dafür mitverantwortlich, dass das Vertrauen in den Impfstoff von AstraZeneca gesunken ist:
„Natürlich haben Journalistinnen und Journalisten auch eine Verantwortung. Ich glaube, die wurde in den letzten Wochen und Monaten oft nicht richtig ernst genommen, wenn dann möglichst schnell – Hauptsache brandaktuell – neueste Hinweise in Schlagzeilen rausgehauen wurden. Und dann hat sich alles doch als ein bisschen anders herausgestellt. Die Revision kriegt dann keiner mehr mit. Das schafft natürlich Verunsicherung.“
Manche Themen eignen sich nicht für Live-Ticker
In der Debatte habe sie auch das Vertrauen in die Zulassungsbehörden und die Ständige Impfkommission (STIKO) vermisst, sagt Nguyen-Kim. Statt Erkenntnisse abzuwarten sei in den Medien ausdiskutiert worden, ob der Impfstoff sicher sei oder nicht.
„Wissenschaft – wissenschaftliche Erkenntnisse, auch so etwas wie Impfstoffsicherheit – eignet sich nicht zum Live-Tickern.“
Das solle jedoch nicht heißen, dass es Aufgabe der Medien – oder von irgendjemand anderes – sei, die Impfbereitschaft der Bevölkerung zu steigern. Allerdings führt gute Berichterstattung nach Meinung von Mai Thi Nguyen-Kim dazu:
„Wenn man ordentlich und korrekt, transparent und differenziert aufklärt, ist eine erhöhte Impfbereitschaft die rationale Folge.“
Zu wenig Zeit für wissenschaftliche Grundlagen
Die Wissenschaftsjournalistin wünscht sich eine fundiertere Berichterstattung. Momentan würden die Grundlagen zu wenig erklärt. Für wissenschaftliche „Basics“ bleibe in Fernsehsendungen keine Zeit, meint Nguyen-Kim. Das führe dazu, dass zu wenige über Impfstofftestphasen, die Aufgaben der Europäischen Impfstoffbehörde oder die Arbeit des Paul-Ehrlich-Instituts und der STIKO Bescheid wüssten. Ohne dieses Fundament sei es dann wiederum schwierig, die Neuigkeiten einzuordnen.
Unsicherheiten könnten Medien natürlich trotzdem berichten. Wenn man beispielsweise darüber berichte, dass Impfungen mit AstraZeneca wegen Nebenwirkungen ausgesetzt wurden, solle man aber ordentlich erklären, warum.
Berichterstattung über Impfgegner
Eine Kritik an den Medien, die Nguyen-Kim in ihrem Buch „Die kleinste gemeinsame Wirklichkeit“ benennt, ist der Umgang mit Impfgegnern und deren Positionen. 2019 hätten repräsentative Umfragen ergeben, dass knallharte Impfgegner, die aus Prinzip Impfungen ablehnen, maximal drei Prozent der Bevölkerung stellen würden.
Bei den meisten Menschen, die unzureichend geimpft seien, gebe es andere Gründe: Sie hätten nachvollziehbare Fragen, wünschten sich mehr Informationen oder hätten einfach nur einen Impftermin versäumt. Die Berichterstattung vermittle jedoch ein anderes Bild.
„Da sehe ich eine Verantwortung in den Medien, die solche Geschichten von Verschwörungsideologen gerne haben und sich gerne darüber empören – das teilt sich auch ganz gut. Doch dadurch trägt man diese extremen Minderheitenmeinungen überhaupt erst in die Köpfe der Menschen. Und trägt so zu dem Problem bei.“
Elektrolyseverfahren für die Wasserstoff-Produktion erklärt
Ob alkalisch oder Hochtemperatur – wer Wasserstoff per Elektrolyse erzeugen will, steht vor mehreren Technologien. Wir geben einen Überblick über Funktionsweise, Vorteile und Einsatzbereiche der Verfahren.
Elektrolyse befähigt die Industrie, Wasserstoff ohne CO2-Ausstoß zu produzieren. (Bild: scharfsinn86 – stock.adobe.com)
Die Elektrolyse ist ein Verfahren, welches unter anderem für die Produktion von Wasserstoff genutzt wird. Dabei werden chemische Verbindungen durch elektrischen Strom aufgespalten. Um als Endprodukt Wasserstoff zu erhalten, wird das Molekül Wasser (H2O) in seine gasförmigen Bestandteile Wasserstoff (H2) und Sauerstoff (O2) aufgetrennt. Dafür sind zwei Elektroden, eine Gleichstromquelle und eine elektrisch leitfähige Flüssigkeit – auch Elektrolyt genannt – notwendig. Ein solcher Aufbau wird als Elektrolysezelle, selten auch als Elektrolyseur bezeichnet.
Ist in Industrieprojekten von mehreren Mega- oder Gigawatt-Leistung eines Elektrolyseurs die Rede, handelt es sich um viele einzelne Elektrolysestacks, wovon jedes wiederum aus über hundert der beschriebenen Elektrolysezellen besteht.
Stammt der für die Elektrolyse eingesetzte Strom aus erneuerbaren Quellen, also aus Wasser-, Wind- oder Solarenergie, wird von grünem Wasserstoff gesprochen. Dieser ist für die Energiewende von Bedeutung, da er an vielen Stellen fossile Energieträger ersetzen könnte – direkt oder indirekt. Denn Wasserstoff kann nicht nur in seiner Molekülform fossile Brennstoffe ersetzen, sondern kann auch als Ausgangsprodukt bei der Produktion synthetischer Kraftstoffe mittels Power-to-X-Verfahren dienen.
So oder so ermöglicht er der Industrie, langfristig ihren CO2-Fußabdruck zu senken. Im Umkehrschluss gibt es auch ein hohes Interesse an der Elektrolyse als dasjenige Verfahren, das die Industrie befähigt grünen Wasserstoff ohne CO2-Ausstoß zu produzieren. Mittlerweile gibt es vier verschiedene Elektrolysemethoden, die wir Ihnen im Folgenden vorstellen.
CT-Fokusthema Wasserstoff
(Bild: Corona Borealis – stock.adobe.com)
In unserem Fokusthema informieren wir Sie zu allen Aspekten rund um das Trendthema Wasserstoff.
Einen Überblick über die ausgewählten Artikel zu einzelnen Fragestellungen – von der Herstellung über den Transport bis zum Einsatz von Wasserstoff – finden Sie hier.
Alkalische Elektrolyse (AEL): Robuste Technik mit Tradition
Die älteste kommerzielle – und damit die, mit dem am weitesten entwickelten technischen Stand – Elektrolysetechnologie nennt sich alkalische Elektrolyse oder kurz AEL. Alkalisch deshalb, weil der genutzte Elektrolyt einen alkalischen beziehungsweise basischen pH-Wert hat.
Eine für die AEL geeignete Zelle besteht aus einer Kammer in der eine Kathode als Minuspol und eine Anode als Pluspol von einer gasdichten Membran (Diaphragma) getrennt sind. Die Kammer ist mit dem namensgebenden wässrigen alkalischen Elektrolyten gefüllt. Wird an den beiden Elektroden eine Spannung angelegt, entsteht an der Kathode Wasserstoff und an der Anode Sauerstoff. Da das Diaphragma gasundurchlässig ist, vermischen die entstehenden Gase sich nicht, sondern können jeweils auf ihrer Seite der Kammer abgeschieden werden.
Die AEL ist robust, benötigt kaum kritische Rohstoffe wodurch das Verfahren kostengünstig ist und die entsprechenden Elektrolyseure sind langlebig. Allerdings hat die AEL verglichen mit anderen Methoden eine bis um den Faktor fünf geringere Stromdichte, was zu einer geringeren Wasserstoff-Ausbeute führt. Zudem reagieren AEL-Systeme langsam auf Lastwechsel, was ihre Integration in volatile erneuerbare Energiesysteme erschwert. Gut eignen sie sich hingegen für den Dauerbetrieb mit stabiler Stromversorgung, etwa in der Grundlast-Stromerzeugung aus Wasserkraft oder im industriellen Maßstab.
Typische Einsatzbereiche der AEL sind großtechnische Wasserstoff-Anlagen in Raffinerien, Düngemittel- oder Chemiebetrieben, wo ein kontinuierlicher Betrieb gefragt ist. Für die Energiewende bleibt AEL solange ein zentraler Baustein wie Skalierung, Langlebigkeit und niedrige Kosten verlangt werden.
Die namensgebende Komponente der PEM-Elektrolyse ist die Protonenaustausch-Membran, die bei dieser Elektrolysetechnologie Anode und Kathode voneinander trennt und von Wasser umgeben ist. Die PEM ist wie das Diaphragma bei der AEL gasundurchlässig. Wenn an die Elektroden in der Elektrolysezelle eine Spannung angelegt wird, oxidiert das Wasser an der Anode zu Sauerstoff und die Wasserstoff-Ionen wandern – getrennt von ihren Elektronen – durch die Membran hindurch, um sich an der Kathode mit freien Elektronen zu Wasserstoff-Atomen zu kombinieren. Aufgrund des sauren Milieus kommen nicht viele Materialien für die Elektroden in Frage. Die Kathode ist meist mit Platin beschichteter Kohlenstoff, während für die Anode Beschichtungen aus Iridium und Ruthenium genutzt werden.
Die PEM-Technologie hat eine kompakte Bauweise, verfügt über eine hohe Stromdichte und eine gute Dynamik. PEM-Systeme reagieren schnell auf Lastwechsel und eignen sich darum für den Betrieb mit fluktuierenden erneuerbaren Energien, etwa Wind- oder Solarstrom. Anwender können sie gut in modulare, dezentrale Produktionssysteme integrieren – auch als Containerlösungen.
Die Technologie wird bereits für Pilot- und Industrieprojekte genutzt, ist aber bisher kostenintensiver als AEL. Grund dafür sind der aufwendige Aufbau, teure Katalysatormaterialien wie Iridium und Platin sowie die bislang geringere Lebensdauer verglichen mit AEL. Dennoch gilt die PEM-Elektrolyse als Schlüsseltechnologie für flexible Anwendungen in der Energiewirtschaft und dezentralen Industrie. Gerade bei Wasserstoff-Tankstellen, Power-to-X-Projekten und in Kombination mit Wind- oder Solarparks ist sie oft die bevorzugte Lösung.
Die Anionenaustauschmembran-Elektrolyse (AEM) vereint gewissermaßen die Eigenschaften von AEL und PEM. Sie nutzt eine feste Anionen-Austauschmembran, durch die negativ geladene Hydroxid-Ionen (OH⁻) zur Anode wandern, wo Sauerstoff entsteht – der Wasserstoff entsteht an der Kathode. AEM-Systeme arbeiten im alkalischen Milieu benötigen im Gegensatz zu AEL allerdings keinen flüssigen Elektrolyten. Dadurch kombinieren sie günstige Katalysatoren – wie bei der AEL – mit den Vorteilen fester Elektrolyte aus der PEM-Technologie. Statt teurer Edelmetalle wie Platin und Iridium können Nickel oder andere preiswertere Materialien für das Beschichten der Elektroden genutzt werden.
Die AEM-Elektrolyse befindet sich noch in einem frühen Entwicklungsstadium. Zwar existieren bereits Pilotanlagen, vor allem durch Start-ups, doch Herausforderungen bestehen bei Lebensdauer, Skalierung und industrieller Serienreife. Sollte die Technologie wirtschaftlich werden, hätte sie potenziell ein attraktives Kosten-Nutzen-Verhältnis. Ein AEM-Elektrolyseur könnte flexibel an- und abgefahren werden und demnach gut auf Lastwechsel reagieren. Die Wasserstoff-Ausbeute wäre höher als bei einem AEL-Elektrolyseur bei ähnlichen Kosten.
Hochtemperatur-Elektrolyse (HTE): Effizient mit Prozesswärme
Die Hochtemperatur-Elektrolyse (HTE) arbeitet bei Temperaturen zwischen 100 °C und 1.000 °C und spaltet Wasserdampf in Wasserstoff und Sauerstoff. Zum Einsatz kommen dabei Festoxid-Zellen (Solid-Oxid-Electrolysis-Cell, SOEC), bei deren Elektrolyten es sich meist um keramische Materialien handelt. Durch die hohen Temperaturen ist die thermodynamische Energie im System so hoch, dass für das Aufspalten des Wasserdampfes weniger elektrische Energie als für das Aufspalten von flüssigem Wasser nötig ist. Dadurch hat die HTE von den vier Elektrolysemethoden den höchsten Wirkungsgrad.
Bei der HTE haben Anwender zudem die Möglichkeit der Co-Elektrolyse, bei der Wasser und Kohlendioxid in Sauerstoff, Wasserstoff und Kohlenmonoxid aufgespalten werden. Es entsteht ein Synthesegas, das gespeichert aber auch in andere höherwertige Produkte umgewandelt werden kann.
Werden entsprechende Elektrolyseure in Anlagen für energieintensive Industrieprozesse integriert, lässt sich die vorhandene Prozesswärme optimal nutzen. Somit ist HTE besonders interessant für Branchen mit kontinuierlich verfügbarer Hochtemperatur-Wärme – etwa in der Glas-, Zement- oder Stahlindustrie. Langfristig könnte HTE zur effizientesten Form der Elektrolyse werden, sobald die technologischen Hürden überwunden sind.
Ein eigenartiges Phänomen in der Antarktis wird seit einiger Zeit gemessen (https://www.realclimate.org/index.php/archives/2025/07/ocean-circulation-going-south/):
Einige faszinierende neue Messungen des Salzgehalts in den Ozeanen rund um die Antarktis haben zahlreiche sensationslüsterne Spekulationen ausgelöst. Vielleicht hilft ein wenig Kontext …
Was wir gesehen haben
Die Klimaveränderung in den Südlichen Ozeanen (den Meeren, die die Antarktis umgeben und durch den gewaltigen antarktischen Zirkumpolarstrom verbunden sind) ist seit vielen Jahren, ja Jahrzehnten, anormal. Zwar deuteten schon die frühesten Klimaprojektionen aus den 1980er Jahren darauf hin, dass der Klimawandel in der Antarktis (insbesondere im Vergleich zur Arktis) gedämpft ausfallen würde, doch sagten sie keine tatsächliche Abkühlung voraus – was aber (zumindest bis etwa 2015/2016) tatsächlich stattfand. Ebenso wenig wurde die Zunahme der Meereisausdehnung (wiederum bis etwa 2015) erwartet.
Gleichzeitig konnten wir eine langfristige Zunahme der Südpolarmeerwinde beobachten (was vor allem aufgrund des polaren Ozonlochs und des steigenden CO2-Gehalts zu erwarten war) und einen weitgehend stetigen Massenverlust des kontinentalen Eisschildes (über die Satelliten GRACE/GRACE-FO) (hauptsächlich von WAIS und der Antarktischen Halbinsel, ausgeglichen durch eine leichte Zunahme im Zentrum des ostantarktischen Eisschildes).
Grounded Ice Mass Loss in Antarctica (via https://climate.nasa.gov/vital-signs/ice-sheets/?intent=111)
Wissenschaftler spekulierten, dass die veränderten Winde zur Zunahme des Meereises geführt hätten (die Modelle stützten dies jedoch nicht) oder dass die Anomalie des Süßwasserschmelzwassers zu einer Versüßung, stärkerer Schichtung und höherem Meereis geführt habe (wofür es einige Belege gibt (Schmidt et al., 2023)).
Seit 2016 ist die Meereismenge jedoch (etwas überraschend) von Rekordhochs auf Rekordtiefs gefallen, und das Rätsel hat das Vorzeichen gewechselt. Auch beim Massenverlust des kontinentalen Eisschildes gab es einige Probleme, mit tatsächlichen Massenzunahmen von 2020 bis etwa 2023.
Und nun liegt uns eine neue Auswertung von Fernerkundungs- und Argo-Messungen des Ozeansalzgehalts in dieser Region vor, die darauf hindeutet, dass sich der Trend zur Versüßung bis 2015 in den letzten Jahren umgekehrt hat (Silvano et al., 2025).
Was zu berichten ist
Dieses neue Ergebnis wurde in der New York Times recht offen thematisiert, doch die erste Pressemitteilung einer der beteiligten Institutionen (ICM) ging weit über das hinaus, was die Zeitung rechtfertigte (möglicherweise aufgrund schlechter Übersetzungen und Wortwahl). Die darauffolgende Pressemitteilung und ein Artikel des Erstautors in The Conversation betonten die potenziell globalen Auswirkungen der beobachteten Veränderungen.
Ich halte vieles davon für etwas übertrieben – es handelt sich nicht um große Veränderungen des Salzgehalts (obwohl die Trendänderung interessant ist), und obwohl die Veränderungen des antarktischen Meereises bei den globalen Rekordtemperaturen der Jahre 2023 und 2024 eine geringe Rolle spielten, liegt die wahre Bedeutung dieses Ergebnisses meiner Meinung nach in den Hinweisen, die es auf die komplexen Prozesse in dieser schwer messbaren Region liefert.
Wo fangen wir an?
Um zu verstehen, wie sich Prozesse verändern, müssen wir jedoch genau verstehen, was normalerweise passiert. Der saisonale Zyklus in dieser Region ist groß, mit einer massiven Ausdehnung des Meereises in den Wintermonaten (mit einer maximalen Ausdehnung im September), die hauptsächlich durch die Eisbildung in Küstennähe verursacht wird. Dieses Eis wird dann vom Wind nordwärts in den offeneren Ozean getrieben, wo es stärker schneit und sich das Eis durch die Bildung von „Schnee-Eis“ verdickt (wenn so viel Schnee fällt, dass die Eisfläche unter den Wasserspiegel gedrückt wird und sich Meerwasser mit dem Schnee vermischt und an Ort und Stelle gefriert), bis das Eis in wärmere und rauere Meere gelangt, wo es schmilzt und zerbricht.
Mit wenigen Ausnahmen (wie sie in einer kürzlich entstandenen Polynja im Weddellmeer beobachtet wurden) findet die Tiefenwasserbildung in den Becken rund um den Kontinent (im Gegensatz zum offenen Ozean) statt, angetrieben durch die Salzabweisung während der Meereisbildung. Dies führt zu einer Meereszirkulation, die an der Oberfläche polwärts und in der Tiefe nordwärts verläuft und bei der die Schichtung im Ozean recht stark ausgeprägt ist. Es ist sehr unwahrscheinlich, dass sich dieser Kreislauf umkehrt.
Beachten Sie, dass der Bereich, in dem die Salzgehaltstrends am deutlichsten erkennbar sind, etwas abseits der Küste und der Tiefenwasserquellen liegt.
Oh - Auftrieb
Im obigen Schema gibt es zwei Bereiche, in denen Auftrieb entsteht und verloren geht. In diesem Zusammenhang verringert die Zufuhr von Wärme und/oder Süßwasser die Dichte und erhöht den Auftrieb, während Wärmeentzug und/oder die Bildung von Meereis (wodurch Salzlake zurückbleibt) den Auftrieb verringert und das Wasser dichter macht. Süßwasser kommt jedoch in vielen Formen vor – als unterseeisches Schmelzwasser der Eisschilde, als schmelzende Eisberge, als direkter Regen und Schnee, der durch Stürme ins Meer gelangt, und sogar als schmelzendes Meereis (meist weiter nördlich). Veränderungen des Salzgehalts können durch Veränderungen dieser Prozesse beeinflusst werden – eine Veränderung des Schmelzens oder der Kalbungsrate der Eisschilde oder eine Verschiebung der Sturmbahnen – und werden direkt durch die Meereisbedeckung selbst vermittelt (Schnee, der auf Meereis fällt, hat einen deutlich geringeren Einfluss auf den Salzgehalt an der Oberfläche als Schnee, der im Ozean fällt).
Was bedeutet das also?
Um es klarzustellen: Ich habe keine konkrete Theorie für die Geschehnisse im Südpolarmeer. Die Veränderungen seit 2015 (glaube ich) hängen mit der zunehmenden Süßwassermenge aus den Schelfeisflächen zusammen, aber die sehr schnelle Trendwende danach ist immer noch rätselhaft. Es gibt schlüssige Signale – abnehmendes Meereis und höherer Salzgehalt gehen Hand in Hand, polwärts gerichtete Schneefallverschiebungen beeinflussen sowohl die GRACE-Daten als auch den Salzgehalt usw., aber die Kausalität lässt sich schwer bestimmen. Gab es einen starken Rückgang des Schmelzwassers? Gab es eine Verschiebung der Sturmbahnen aus den Tropen? Gibt es ein komplexes Zusammenspiel zwischen Meereis, Salzgehalt, Winden, Schichtung usw. – ja.
Dafür fehlen uns jedoch die besten Modelle – man muss die spezifische Geschichte von Eisschilden und Eisschelfen, hochauflösende Ozeane, die Wechselwirkungen zwischen Eisschelfen und Ozeanen, gute Windbeobachtungen und möglicherweise bessere Wolken- und Aerosoldaten usw. berücksichtigen. Die Klimamodelle, die zum Verständnis der Auswirkungen des Klimawandels verwendet werden, berücksichtigen (noch) keine interaktiven Eisschilde, weisen große Verzerrungen im Südpolarmeer und sehr unterschiedliche Wolkenrückkopplungen auf. Die hochauflösenden Ozeanmodelle sind vielleicht bessere Werkzeuge, aber die Winde der Reanalysen weisen immer noch Verzerrungen auf. Die Eisschildmodelle haben ihre eigenen Probleme.
Mit bestehenden Modellen lassen sich nützliche Dinge erreichen, und diese Daten werden ein wichtiges Ziel für die Modellierung sein. Verständnis und bessere Vorhersagen werden jedoch erst durch die Synthese aller verschiedenen Elemente möglich sein, nicht nur durch die Beobachtungen selbst, und die Wissenschaft sollte dies stärker anerkennen, als sie es manchmal tut.
References
G.A. Schmidt, A. Romanou, L.A. Roach, K.D. Mankoff, Q. Li, C.D. Rye, M.
Kelley, J.C. Marshall, and J.J.M. Busecke, "Anomalous Meltwater From Ice
Sheets and Ice Shelves Is a Historical Forcing", Geophysical Research Letters, vol. 50, 2023. http://dx.doi.org/10.1029/2023GL106530
A. Silvano, A. Narayanan, R. Catany, E. Olmedo, V. González‐Gambau, A.
Turiel, R. Sabia, M.R. Mazloff, T. Spira, F.A. Haumann, and A.C. Naveira
Garabato, "Rising surface salinity and declining sea ice: A new
Southern Ocean state revealed by satellites", Proceedings of the National Academy of Sciences, vol. 122, 2025. http://dx.doi.org/10.1073/pnas.2500440122