Spektrum.de: Physik-Nobelpreis 2019 geht an 3 Physiker

     
James Peebles (geb. 1935 in Winnipeg, Kanada), Michel Mayor (geb. 1942 in Lausanne, Schweiz) und Didier Queloz (geb. 1966 in der Schweiz) werden dieses Jahr mit dem Physik-Nobelpreis geehrt.
Zwei der wichtigsten Erkenntnisse des 20. Jahrhunderts hat die Königlich Schwedische Akademie der Wissenschaften nun mit dem Physik-Nobelpreis prämiert. Zu einer Hälfte geht er an den Kanadier James Peebles, der wie kaum ein anderer Theoretiker dazu beigetragen hat, die Geschichte des Weltalls zu rekonstruieren. Die andere teilen sich die Schweizer Astronomen Michel Mayer und Didier Queloz. Sie erbrachten 1995 den ersten zweifelsfreien Nachweis, dass sich auch im Orbit anderer Sonnen Planeten gebildet haben.
   

 

Quantencomputer löst Aufgabe 1,5 Milliarden Mal schneller als klassischer Computer

  Erstmals ist es einem Forscherteam gelungen, Berechnungen durchzuführen, die nur von einem Quantencomputer ausführbar sind. Das zeigen Ergebnisse, welche von einem Forschungsbericht stammen, welcher ungewollt öffentlich verfügbar gestellt wurde. Der vorgestellte Quantencomputer besteht aus 53 supraleitenden Qubits, welche eine im Vergleich zu einem klassischen Computer riesige Anzahl an Zuständen (Werten) annehmen können: Ein klassisches Bit kann nur die Zustände 1 oder 0 annehmen, wohingegen ein Qubit theoretisch unendlich viele Zustände annehmen kann. Damit ein Quantencomputer jedoch richtig arbeiten kann, muss der "Quantenprozessor" auf eine Temperatur von unter -270 °C (nahe des absoluten Nullpunkts) heruntergekühlt werden. Dies wird in einem komplexen Prozess bei Hochvakuum-Bedingungen und mit flüssigem Helium realisiert. Dieses Ereignis läutet eine neue Ära in der Computertechnologie ein, welche als Quantenüberlegenheit ("Quantum supermacy") bezeichnet wird. In diesem kommenden Computerzeitalter können alle bisher als sicher geltende Verschlüsselungstechniken in nur kurzer Zeit von einem Quantencomputer "geknackt" werden: alle sichergeglaubten, verschlüsselten Daten dieser Welt wären somit vollständig lesbar. Welche zusätzliche neue Möglichkeiten sich durch diese neue Ära ergeben, bleibt noch abzuwarten. Jedoch spricht man in Fachkreisen schon über eine neue Ebene von künstlicher Intelligenz.   Quelle: Paper "Quantum Supermacy Using a Programmable Superconducting Processor" von Eleanor G. Rieffel - NASA Ames Research Center , August 2019  
   

 

Weltderphysik.de : Wasser in der Atmosphäre eines Exoplaneten entdeckt!

    Esa-hubble-k2-18a impression.jpg
Mit dem Weltraumteleskop Hubble haben Astronomen jetzt erstmals Wasser in der Atmosphäre eines Planeten – der seine Bahn in der lebensfreundlichen Zone eines Sterns zieht – nachgewiesen. Damit wird der 124 Lichtjahre von uns entfernte Exoplanet K2-18b zum bislang besten Kandidaten für die Suche nach Leben außerhalb unseres Sonnensystems, wie die Forscher im Fachblatt „Nature Astronomy“ berichten. Denn bislang ließ sich Wasserdampf lediglich in den Atmosphären großer Gasplaneten nachweisen, insbesondere bei „Heißen Jupitern“, die sehr nahe an ihrem Stern kreisen.
Um als Kandidat für eine lebensfreundliche Welt infrage zu kommen, muss ein Exoplanet vor allem zwei Bedingungen erfüllen: Er muss erstens sein Zentralgestirn in der habitablen Zone – in der die Temperatur flüssiges Wasser an der Oberfläche überhaupt ermöglicht – umkreisen. Und zweitens muss es dort tatsächlich Wasser geben. Optimal wäre es, wenn ein solcher Planet zusätzlich in seiner Größe und Masse unserer Erde ähneln würde. „Doch da wohltemperierte, erdähnliche Planeten klein und relativ kühl sind, ist ihre Beobachtung eine große Herausforderung. Deshalb gab es noch keine spektroskopischen Informationen über solche Planeten“, erläutern Angelos Tsiaras vom University College London und seine Kollegen.
Doch den Forschern gelang es nun, die im Jahr 2015 entdeckte Supererde K2-18b mit dem Hubble-Teleskop genauer zu untersuchen. Als Supererde bezeichnen Astronomen Planeten mit der zwei- bis zehnfachen Erdmasse. K2-18b besitzt die achtfache Erdmasse und ist etwa doppelt so groß wie die Erde. Er umkreist seinen Roten Zwergstern mit einer Umlaufzeit von 33 Tagen und zieht dabei – von der Erde aus gesehen – regelmäßig vor seinem Zentralstern vorüber.
Bei solchen „Transits“ wird das Sternenlicht abgeschwächt, was 2015 zunächst die Entdeckung des Exoplaneten erlaubte und jetzt auch den ersten Nachweis von Wasserdampf: Denn bewegt sich Sternenlicht durch die Planetenatmosphäre hindurch, hinterlassen die Moleküle aus der Atmosphäre charakteristische Spuren im Lichtspektrum des Sterns. Die Analyse dieses Lichtspektrums ergab nun den ersten Nachweis von Wasserdampf in der Atmosphäre eines Exoplaneten in der habitablen Zone. Wie viel Wasser es insgesamt gibt und aus welchen Gasen sich die Atmosphäre von K2-18b außerdem zusammensetzt, ließ sich allerdings noch nicht nachweisen.
   

 

Weltderphysik.de : Keine Verlangsamung der Erderwärmung !?

    https://i1.wp.com/www.weltderphysik.de/typo3temp/_processed_/1/e/csm_20150604_Klimawandel-Scheinpha__nomen_NOAAs_ffd7601d4b.jpg?resize=347%2C272&ssl=1
Aktuelle globale Klimabeobachtungen, wie sie auch im aktuellen Report des Weltklimarats IPCC stehen, gehen von einer Verlangsamung oder Pause der globalen Erderwärmung aus. Sie beziehen sich dabei auf Messungen, die zeigen, dass sich die Temperatur in Bodennähe seit Beginn dieses Jahrtausends nicht mehr so schnell erwärmt hat wie in den 50 Jahren davor. Viele Klimaforscher suchen nach Gründen, warum im Widerspruch zu über hundert Klimamodellen keine stärkere Erwärmung gemessen werden konnte. So wurde unter anderem angenommen, dass die zusätzliche Wärme von den Meeren aufgenommen und so anscheinend unsichtbar gespeichert wurde. Andere Forscher versuchten, den Zufall als Grund statistisch zu belegen.
Alles umsonst, wenn es nach der Forschergruppe um Thomas Karl von der National Oceanic and Atmospheric Administation geht. Die Wissenschaftler aus den USA haben jetzt eine Studie im Fachblatt Science veröffentlicht, die zeigt, dass es solch eine Pause gar nicht gibt. Damit widersprechen sie den gängigen Untersuchungen. Karl und Kollegen begründen diese Abweichung damit, dass in den meisten Studien mögliche Fehlerquellen bisher nicht ausreichend berücksichtigt wurden.
Besonders schwierig sei es, stabile Langzeitdaten der Temperatur an der Meeresoberfläche zu erheben. Die Messdaten kommen meistens von Handelsschiffen oder Bojen an der Wasseroberfläche. Allerdings würden sich gerade hier die Erhebungsmethoden im Lauf der Zeit stark ändern, schreiben die Forscher. So hätten seit Ende des 20. Jahrhunderts Bojen die Schiffe als führende Datenlieferanten überholt. Das ist für die Datenauswertung wichtig, da Studien gezeigt haben, dass Messungen durch Bojen systematisch kühlere Temperaturen liefern als die von Schiffen. Außerdem sollen die Messungen durch Bojen präziser sein und die Schiffsdaten oft auf uneinheitlichen Erhebungsmethoden basieren.
Die Korrekturen der Meeresdaten sind der entscheidende Faktor, mit dem das Forscherteam die Erdoberflächentemperaturen seit 1950 neu berechnet hat. Die Autoren berücksichtigten aber auch weitere Fehlerquellen. So sei es entscheidend, wie Daten von neuen Messstationen in die Gesamtrechnung miteinbezogen werden. Gerade in früher nur mit wenigen Messstationen versorgten Regionen wie Asien, Südamerika und Afrika wurden in den letzten fünf Jahren vermehrt Daten zur Oberflächentemperatur auf dem Festland gesammelt.
Bei Berücksichtung dieser Korrekturen kommen die Forscher zum Ergebnis, dass es keine nennenswerte Verlangsamung und damit auch keine Pause der Erderwärmung in diesem Jahrtausend gegeben habe.
Zum gleichen Schluss kamen zwei Forscher aus England und Kanada schon 2014 in ihrer Veröffentlichung im Fachblatt „Quarterly Journal of the Royal Meteorological Society“. Sie berechneten die global gemittelte Oberflächentemperatur der Erde neu, indem sie fehlende Temperaturdaten für die Arktisregion durch indirekte Messmethoden ermittelten. Allerdings war das Verfahren umstritten. In der neuen Studie von Karl und Kollegen kommen mögliche Verzerrungseffekte durch fehlende Arktisdaten nur als Schätzung vor, werden aber beim Endergebnis nicht berücksichtigt. Darin sieht das Team seine Aufgabe für künftige Forschungsprojekte.
   

 

Weltderphysik.de : Wie funktionniert eine Klimaanlage?

    https://i0.wp.com/www.weltderphysik.de/typo3temp/_processed_/a/4/csm_20180815_Klimaanlage_WdP_ac947c9b52.png?resize=328%2C183&ssl=1
Ist es sehr heiß, muss Kühlung her. Ein Ventilator und ein kaltes Tuch im Nacken können helfen, um über die Runden zu kommen. Mehr Komfort bietet eine Klimaanlage. Sie funktioniert – physikalisch betrachtet – ganz ähnlich wie ein Kühlschrank. Beide Geräte transportieren Wärmeenergie von einem Ort mit niedrigerer Temperatur zu einem Ort mit höherer Temperatur. Von sich aus wandert Wärme aber immer nur in Richtung tieferer Temperatur. Darum bedarf es eines Tricks. Der funktioniert mit einem Kältemittel, das durch einen geschlossenen Kreislauf aus Röhren gepumpt wird und sich dabei abwechselnd im flüssigen oder gasförmigen Zustand befindet.
   
Bei der Klimaanlage verhält es sich folgendermaßen: In das Gebäude strömt flüssiges Kältemittel. Auf dem Weg hinein wird der Druck in der Röhre mithilfe eines Drosselventils verringert, wodurch sich das Kältemittel ausdehnen kann. Das senkt die Temperatur der Substanz bis unter die Lufttemperatur im Gebäudeinneren. Dort findet dann – an einem geschlängelten Rohr und unterstützt durch ein Gebläse – ein Wärmeaustausch mit der Luft statt. Auf diese Weise kühlt sich die Innenluft des Gebäudes ab, während sich das Kältemittel in der Röhre allmählich erwärmt. Schließlich verdunstet es.
   
Das nun gasförmige Kältemittel verlässt das Gebäudeinnere und gelangt in einen Kompressor. Hier wird das Gas stark verdichtet. Infolgedessen stoßen die Moleküle darin häufiger zusammen, wodurch sich das Kältemittel zusätzlich aufheizt. Die Temperatur des Gases steigt deutlich über die Temperatur der Außenluft. Außerhalb des Gebäudes gibt das Kältemittel die aufgenommene Wärme dann an die umgebende Luft ab. Dadurch kühlt sich das Kältemittel ab und verflüssigt sich wieder. Im nächsten Schritt leitet die Anlage die Flüssigkeit ins Gebäude zurück und der Kreislauf beginnt von Neuem.
   
Sowohl Klimaanlage als auch Kühlschrank werden in der Physik als Kraftwärmemaschinen bezeichnet. Denn sie transportieren Wärme mithilfe von mechanischer Energie – einem Kompressor, einer Pumpe und Ventilatoren – von einem kalten in ein wärmeres Reservoir. Dieses Prinzip funktioniert allerdings nur, wenn der Innenraum jeweils geschlossen bleibt. Bei offenen Fenstern funktioniert eine Klimaanlage nur schlecht, weil einströmende warme Luft die Kühlwirkung zunichtemacht.
   
Viele Klimaanlagen können aber nicht nur die Temperatur senken, sondern auch die Luftfeuchte im Innenraum. Denn wenn sich die Temperatur im Gebäudeinneren abkühlt, steigt die Luftfeuchte langsam an. Der Grund: Kühle Luft kann weniger Wasserdampf speichern als warme. Der in Klimaanlagen zusätzlich eingebaute Mechanismus ist denkbar einfach. An der kühlen Oberfläche der Röhren, durch die das Kältemittel strömt, kondensiert Wasserdampf aus der Luft zu Wassertröpfchen. Dieses Kondenswasser wird gesammelt und nach außen geleitet.
   
Als Kältemittel für Klimaanlagen und Kühlschränke kamen im Lauf der Zeit verschiedene Substanzen zum Einsatz. Bestimmte chlorierte Kohlenwasserstoffe hat man inzwischen verboten, weil sie die Ozonschicht angreifen. Die Ersatzstoffe haben aber ebenfalls ihre Tücken. Kohlendioxid zum Beispiel ist ein Treibhausgas. Der Ersatzstoff Propan schädigt zwar weder die Ozonschicht noch erwärmt er das Klima, ist aber brennbar. Die Suche nach einem Kältemittel, das effizient, kostengünstig und umweltfreundlich ist, geht daher weiter.
 

 

Weltderphysik.de : Physik eines Induktionsherdes

https://i2.wp.com/www.weltderphysik.de/typo3temp/_processed_/3/1/csm_20140129_Induktion_WdP_99e2a00c78.png?resize=451%2C331&ssl=1   https://i2.wp.com/www.weltderphysik.de/typo3temp/_processed_/b/5/csm_20140129_Induktionsherd_WdP_447dd2e589.png?resize=455%2C393&ssl=1
Kocht man auf einem Induktionsherd, macht man sich neben der elektromagnetischen Induktion noch einige weitere physikalische Effekte zunutze. 1831 entdeckte der Wissenschaftler Michael Faraday, dass ein veränderliches Magnetfeld einen Strom erzeugt. Diese elektromagnetische Induktion ermöglichte viele Jahre später Elektromotoren, Generatoren und letztlich auch Induktionsherde. Anders als bei anderen Herdtypen entsteht die Wärme bei den neuen Herden nicht unterhalb des Kochgeschirrs, sondern direkt im Topf- oder Pfannenboden. Möglich wird das durch eine eng gewickelte, scheibenförmige Kupferspule unter dem Kochfeld, durch die ein Wechselstrom mit einer Frequenz von 20 000 bis 100 000 Hertz fließt. Bereits einige Jahre vor Faraday hatte sein Kollege André-Marie Ampère herausgefunden, dass ein zeitlich variierender Stromfluss ein Magnetfeld um eine Spule herum erzeugt. Die Richtung dieses Feldes ändert sich dabei im gleichen Takt wie das Vorzeichen des Stroms, beim Induktionsherd also zwischen 20 000- und 100 000-mal pro Sekunde. Laut Faraday induziert ein solches magnetisches Wechselfeld wiederum eine elektrische Spannung – in der Spule selbst, aber auch in deren Umgebung. Anders als bei gewöhnlichen Spannungsquellen, bei denen die elektrischen Feldlinien zwischen negativen und positiven Ladungen verlaufen, sind die elektrischen Feldlinien hierbei allerdings in sich geschlossen. Steht ein Topf oder eine Pfanne aus einem leitenden Material auf dem Kochfeld, wird dessen Boden ebenfalls von den Feldlinien durchdrungen und so eine Kraft auf die freien Elektronen darin ausgeübt: Es bilden sich sogenannte Wirbelströme aus.

Verschiedene Wärmequellen

Diese ringförmigen Induktionsströme fließen nicht verlustfrei im Topfboden – ein Teil der elektrischen Energie wird in thermische Energie umgewandelt und der Topfboden erwärmt sich. Der elektrische Widerstand variiert von Material zu Material: Edelstahl leitet beispielsweise deutlich schlechter als Kupfer oder Aluminium, entsprechend ist die freigesetzte Wärme bei Edelstahl auch höher. Gesteigert wird die Wärmeleistung beim Induktionskochen durch einen weiteren Effekt.
Elektromagnetische Induktion
Der Physiker Emil Lenz stellte 1833 fest, dass die induzierten Wirbelströme ihrerseits ein Magnetfeld erzeugen, das der Ursache ihrer Entstehung entgegenwirkt. Im Fall des Induktionsherdes wirkt dieses Feld also dem schnell variierenden Magnetfeld der Spule entgegen, das dadurch in die untere Schicht des Topf- oder Pfannenbodens verdrängt wird. Infolgedessen können die Wirbelströme im Kochgeschirr nur in einer wenige Millimeter dicken Schicht fließen. Durch diesen sogenannten Skineffekt verkleinert sich die effektive Leiterfläche im Topfboden, weshalb sich scheinbar der elektrische Widerstand und somit auch die Wärmeleistung erhöht. Die Eindringtiefe des primären Feldes hängt dabei sowohl von der Frequenz des Wechselstroms als auch vom Topfmaterial ab. So dringt das Feld beispielsweise tiefer in Aluminium oder Kupfer ein als in Edelstahl. Töpfe aus Aluminium oder Kupfer eignen sich deshalb weniger für einen Induktionsherd. In ferromagnetischem Kochgeschirr gibt es neben den Wirbelströmen noch eine weitere Wärmequelle: In diesen Materialien liegen mikroskopisch kleine Bereiche vor, in denen die magnetischen Momente der Atome parallel ausgerichtet sind – ähnlich winzigen Kompassnadeln, die alle in dieselbe Richtung weisen. Benachbarte Weiss-Bezirke, wie diese geordneten Bereiche heißen, sind ohne ein äußeres Magnetfeld zufällig orientiert und der gesamte Körper erscheint unmagnetisch. Sobald allerdings ein äußeres Feld anliegt – wie etwa das hochfrequente Wechselfeld beim Induktionsherd –, richten sich alle magnetischen Momente einheitlich danach aus. Durch das wiederholte Ummagnetisieren, also das schnelle Hin- und Herklappen der magnetischen Momente im Topfboden, wird ebenfalls Energie in Wärme umgewandelt – geht also verloren. Wie groß diese sogenannten Hystereseverluste ausfallen, hängt wieder vom Material des Kochgeschirrs sowie von der Frequenz des Wechselfeldes ab. Im Fall von handelsüblichen Herden und einem ferromagnetischen Standardtopf entsteht beispielsweise rund dreißig Prozent der Wärmeleistung durch die Ummagnetisierung. „Doch es gibt viele Töpfe aus verschiedenen Materialien in komplexen Geometrien – etwa aus mehreren Schichten oder mit Aluminiumkern – und hier fallen die Hystereseverluste sehr niedrig aus“, erklärt Sergio Llorente aus dem Entwicklungszentrum der BSH Hausgeräte GmbH in Zaragoza, Spanien. In einigen Materialien sind die Hystereseverluste sogar vernachlässigbar. „Tatsächlich lässt sich nur eine Spanne zwischen null und dreißig Prozent angeben, es hängt von den Materialien ab.“ Energiesparender als Elektroherde sind Induktionsherde vor allem beim Aufheizen: Ein Liter Wasser kocht hier beispielsweise rund doppelt so schnell wie bei Halogenkochfeld oder Elektroherd. Die Effizienz beträgt beim Induktionsherd rund achtzig Prozent, so Llorente. Bei konventionellen Herden liegt sie dagegen nur bei etwa sechzig Prozent. Danach gleicht sich der Energieverbrauch allerdings an: Nach mehr als einer Kochstunde weisen beide Herde eine Effizienz von etwa neunzig Prozent auf.
 

Forschung-und-wissen.de : Atomkerne sind kleiner als gedacht

Eine neue Messung zeigt, dass der Deuteriumkern viel kleiner ist, als bisher angenommen. Bereits zum zweiten Mal weicht der Radius des Atomkerns von den bisher berechneten Werten ab.
Die neu berechneten Abweichungen sprechen dafür, dass eine der wichtigsten Größe in der Physik bisher nicht richtig bestimmt wurden. Hierbei handelt es sich um den Radius eines Protons. Das gaben jetzt Forscher im Fachmagazin Science bekannt. Die Werte müssen jetzt für mehrere Naturkonstanten nachjustiert werden.

Der Protonenradius wirft Rätsel auf

Im Jahr 2010 war genau dies der Fall. Mit Hilfe der Laserspektroskopie haben Wissenschaftler den Radius von Protonen nachgemessen. Sie kamen daher anstatt auf den bisherigen Wert von 0,8768 auf einen Radius von nur noch 0,84184 Femtometern. Demnach wäre ein Proton kleiner, als bisher angenommen wurde. Das neue Messergebnis sorgte vielerorts für heftige Diskussionen. War die Messung vielleicht fehlerhaft oder war der alte Wert von Anfang an falsch? Sollte vielleicht eine bisher noch unbekannte physikalische Kraft am Werk sein? Randolf Pohl von der Universität Mainz berichtet, dass er Angst hatte, dass sich altgediente Physiker melden und einen groben Fehler bei der Messung nachweisen können. Bis heute war diese Angst aber unbegründet.

Selbst das Deuteron ist viel kleiner

Eine neue Messung sorgt erneut für Rätsel über die Größe eines Protons. Aktuell haben Pohl und seine Kollegen eine neue Messung vorgenommen und einen weiteren Atomkern ganz neu bestimmt. Diesmal handelt es sich um ein Neutron und ein Proton - einen einfach zusammengesetzten Atomkern. Schon wieder kam es dazu, dass die neuen Laserspektroskopie-Messungen andere Werte anzeigte. Anstatt der früheren 2,1424 Femtometer wurden aktuell 2,12562 Femtometer gemessen. Pohl und seine Kollegen berichten, dass das Rätsel um einen Protonradius jetzt noch weiter vertieft wurde, da wieder ein neuer Protonradius gemessen wurde.

Das aktuelle Messprinzip

Die Forscher nutzten für ihre Messungen wieder die Laserspektroskopie. Bei der aktuellen Messung wurde das Elektron des Deuteriums durch ein Myon ersetzt. Die negativ geladenen Elementarteilchen ähneln sehr stark einem Elektron. Myonen sind aber circa 200 Mal schwerer. Sie bewegen sich daher viel näher am Atomkern. Ihre Bahnen hängen stark von der Größe des Kerns ab. Durch ein gepulstes Lasersympton wurde dem Myon Energie zugeführt. Das Myon wird bei einer richtigen Wellenlänge auf einen höheren Energiezustand gebracht, wobei es Röntgenphotonen ausgestrahlt hat. Durch die Photonenanzahl, kann der energetische Abstand der Myonen zum Kern und der Radius des Deuterons, ermittelt werden.

Fehler sind eher bei den alten Werten möglich

Die neuen Messungen belegen, dass das Proton viel kleiner ist, wie bisher angenommen. Das Rätsel hat sich durch die Messung doppelt bestätigt. Es ist immer noch unklar, warum die neuen Werte von den Alten abweichen. Viele Forscher vermuten, dass es zu Fehlern bei der alten Messung gekommen ist. Dass die neue Methode durch die Laserspektroskopie fehlerhaft ist glaubt niemand, meint Koautor Aldo Antognini vom Paul-Scherrer-Institut. Das Rätsel lässt sich leicht lösen, wenn ein Fehler bei der Wasserstoffspektroskopie nachgewiesen werden kann.

Naturkonstanten müssen neu angepasst werden

Weltweit sind viele Forschergruppen aktiv, um neue Messungen mit der Wasserstoffspektroskopie vorzunehmen. Wenn sich herausstellt, dass die Wasserstoffspektroskopie falsche Werte liefert, dann hätte das die Konsequenz, dass die Rydberg-Konstante geändert werden müsste. Sie war bisher unter allen Konstanten diejenige, die die höchste Genauigkeit aufwies. Selbst die elfte Nachkommastelle konnte mit dieser Methode berechnet werden. Wenn sich der neue Protonradius bestätigt, dann würde sich die Stelle hinter dem Komma ändern. Es würde aber auch weitere Korrekturen der Naturkonstanten mit sich bringen.

Spektrum.de : Das Urkilogramm ist endgültig Geschichte

https://i1.wp.com/www.spektrum.de/fm/912/thumbnails/neuesKilogramm.jpg.5021152.jpg?resize=318%2C100&ssl=1

22.05.19 - Jahrelang haben Experten darauf hingearbeitet, nun ist sie Realität: eine Generalüberholung des Systems der Maßeinheiten. Sie schickt unter anderem einen 130 Jahre alten Metallzylinder in Ruhestand.

Seit dem 20. Mai haben mehrere wichtige Maßeinheiten eine neue Basis: Das Kilogramm, das Ampere, das Kelvin und das Mol sind nun durch Naturkonstanten festgelegt. Ihr genauer Wert ist damit für alle Zeiten in Stein gemeißelt, auch lässt er sich künftig durch Präzisionsmessungen in gut ausgestatteten Laboren ermitteln.
   
Aus Sicht von Metrologen ist beides ein enormer Fortschritt: Insbesondere das Kilogramm hatte den Messexperten in der Vergangenheit große Sorgen bereitet, da sein exakter Wert von der Masse eines 130 Jahre alten Platin-Iridium-Zylinders in einem Pariser Tresor abhing. Dieses »Urkilogramm« schien im Lauf der Jahre langsam an Masse zu verlieren, was potenziell zu Problemen bei Präzisionsexperimenten hätte führen können.Weltweit arbeiteten Metrologen daher jahrelang an einer Neudefinition, die letztlich vier der sieben grundlegenden Maßeinheiten des SI-Einheitensystems umfassen sollte. Meter, Sekunde und Candela lassen sich bereits seit Jahrzehnten aus Naturkonstanten ableiten. Ein Meter ist beispielsweise die Strecke, die Licht im Vakuum im 29 9792 485. Teil einer Sekunde zurücklegt – die Maßeinheit ist also über die Lichtgeschwindigkeit mit der Sekunde verknüpft. Diese wiederum ist durch die Schwingungsperiode zwischen Energieniveaus in der Elektronenhülle eines Zäsium-133-Atoms festgelegt.So ähnlich ist es von nun an auch beim Kilogramm: Sein exakter Wert ergibt sich künftig aus dem planckschen Wirkungsquantum. Es verknüpft die Energiemenge einer Lichtwelle mit ihrer Frequenz und hat stets denselben Wert. Über ihre Maßeinheit (kg m2/s) steht die Planck-Konstante in eindeutiger Beziehung zu Kilogramm, Meter und Sekunde.Wissenschaftler haben daher in den vergangenen Jahren den exakten Wert des Wirkungsquantums mit großer Präzision und verschiedenen Methoden bestimmt. Da dabei jeweils die Masse des Urkilogramms einfloss, kann das Pariser Artefakt jetzt in Ruhestand gehen: Künftig lässt sich der Wert der Kilogrammmasse aus der planckschen Naturkonstante ableiten.
     
So ähnlich ist es auch bei Ampere, Kelvin und Mol. Das Ampere basierte bisher auf der Kraft, die zwei unendlich lange, stromdurchflossene Leiter aufeinander ausüben. Künftig ist es durch die elektrische Ladung eines Elektrons festgelegt. Das Kelvin wiederum wurde bisher über den »Tripelpunkt« von Wasser definiert. In Zukunft nagelt unter anderem die so genannte Boltzmann-Konstante seinen Wert fest. Das Mol wiederum hing bislang vom Gewicht einer bestimmten Stoffmenge Kohlenstoff ab. Von nun an wird es über die Avogadro-Konstante bestimmt, welche auf der Anzahl von Atomen basiert.
Wer in seinem Beruf nichts mit Metrologie zu tun hat, wird von den Neudefinitionen aller Wahrscheinlichkeit nach nichts merken: Das Internationale Büro für Maß und Gewicht hat die Umstellung bewusst so gestaltet, dass die bisherigen Werte der Maßeinheiten gleich bleiben. Nun soll aber ausgeschlossen sein, dass sie sich mit der Zeit verändern.
https://i1.wp.com/www.spektrum.de/fm/912/thumbnails/Urkilogramm.jpg.5022172.jpg?resize=230%2C305&ssl=1

Das Urkilogramm | Der internationale Kilogramm-Prototyp (das Urkilogramm), aufbewahrt unter drei Glasglocken im Internationalen Büro für Maß und Gewicht (BIPM) in Sèvres bei Paris.

Weltderphysik.de : Wie fliegt man zum Mond?

https://i2.wp.com/www.weltderphysik.de/typo3temp/assets/_processed_/c/d/csm_20190719_Hohmannbahn_WdP_9c8b5eb2e7.png?resize=207%2C205&ssl=1

Hohmann-Bahn

https://i0.wp.com/www.weltderphysik.de/typo3temp/assets/_processed_/c/7/csm_20190719_Mondlandung_Apollo_11_WdP_4e20712da9.png?resize=467%2C269&ssl=1

Verlauf der Apollo-11-Mission

Vor fünfzig Jahren, am 20. Juli 1969, landeten Neil Armstrong und Buzz Aldrin auf dem Erdtrabanten. Zwischen Ankündigung und Umsetzung einer bemannten Mondlandung vergingen mehr als acht Jahre – ganz so einfach scheint es also nicht zu sein, von der Erde zum Mond zu gelangen.

„Ich glaube, dass sich die Vereinigten Staaten das Ziel setzen sollten, noch vor Ende dieses Jahrzehnts einen Menschen auf dem Mond landen zu lassen und ihn wieder sicher zur Erde zurückzubringen“, proklamierte US-Präsident John F. Kennedy am 25. Mai 1961. Mehr als acht Jahre vergingen, bis die NASA diesen kühnen Plan in die Tat umsetzte.In dieser Zeit entwickelte die Raumfahrtbehörde nicht nur die nötige Technik für einen Flug zum Mond, es galt auch die beste Reiseroute zum Erdtrabanten zu finden. Denn anders als auf der Erde ändern Start- und Endpunkt im Weltall während des Reiseverlaufs ihre Position relativ zueinander. Alles ist in ständiger Bewegung: Die Erde dreht sich um sich selbst und kreist um die Sonne. Und auch das Ziel – in diesem Fall der Mond – kreist um die Erde und mit ihr gemeinsam um die Sonne.Könnte man mit einer Rakete nicht trotzdem einfach von der Erde direkt zum Mond fliegen? Physikalisch spricht nichts dagegen. Doch für einen solchen Flug würde man einen extrem starken Antrieb und sehr viel Treibstoff benötigen. Und so versuchen die Raumfahrtwissenschaftler, die Anziehungskräfte der Himmelskörper optimal auszunutzen – und damit Energie zu sparen. Das beginnt bereits beim Start: Raketen schießt man bevorzugt in Äquatornähe und in Richtung der Erddrehung ins All. Allein dadurch nimmt eine Rakete eine Geschwindigkeit von 1674 Kilometern pro Stunde mit. Für eine typische Umlaufbahn um die Erde in einer Höhe von 300 Kilometern muss ein Raumfahrzeug allerdings eine Geschwindigkeit von 28 000 Kilometern pro Stunde erreichen. Um aus einer Erdumlaufbahn möglichst energiesparend an einen weiter entfernten Ort – wie den Mond – zu gelangen, gibt es nun verschiedene Varianten. Eine ist die sogenannte Hohmann-Bahn: Dabei handelt es sich um eine Ellipse, in deren Brennpunkt sich die Erde befindet. Der erdnächste Punkt dieser Ellipse berührt die ursprüngliche Umlaufbahn um die Erde, der erdfernste Punkt der Ellipse befindet sich in der gewünschten Umlaufbahn – in diesem Fall also in der Umlaufbahn des Mondes. Bereits 1925 beschrieb der deutsche Raumfahrtpionier Walter Hohmann diesen Übergang zwischen zwei Bahnen in seinem Buch „Die Erreichbarkeit der Himmelskörper“.
Um auf eine solche zum Mond führende Ellipsenbahn zu gelangen, muss das Raumfahrzeug auf eine Geschwindigkeit von etwa 40 000 Kilometern pro Stunde beschleunigt werden. Die Triebwerke müssen dabei genau im richtigen Moment zünden, damit die angestrebte Hohmann-Bahn im erdfernsten Punkt tatsächlich auf den sich bewegenden Mond trifft. Dieses Flugmanöver war in den 1950er- und 1960er-Jahren sowohl technisch als auch rechnerisch eine Herausforderung. Jedes heutige Smartphone ist den für die Apollo-Missionen verwendeten Computern der NASA millionenfach überlegen. Und um in eine Umlaufbahn um den Erdtrabanten zu gelangen oder weich auf dem Mond zu landen, ist sogar eine noch kompliziertere Flugbahn nötig. In zahlreichen Versuchen tasteten sich die Raumfahrtbehörden langsam an den Mond heran: Nach etlichen Fehlstarts raste am 4. Januar 1959 die sowjetische Sonde Lunik 1 am Erdtrabanten vorbei – in einem Abstand von etwa 6000 Kilometern. Am 12. September 1959 schlug mit Lunik 2 erstmals eine Raumsonde auf dem Mond auf. Die erste weiche Landung auf dem Mond gelang am 3. Februar 1966 der ebenfalls sowjetischen Sonde Luna 9. Und am 3. April desselben Jahres schwenkte Luna 10 erstmals in eine Umlaufbahn um den Erdtrabanten ein. Am 24. Dezember 1968 erreichte mit Apollo 8 dann erstmals ein bemanntes Raumschiff den Mond und umkreiste ihn innerhalb von zwanzig Stunden insgesamt zehnmal. Und schon sieben Monate später gelang der NASA mit Apollo 11 dann die erste bemannte Mondlandung. Apollo 11 startete am 16. Juli 1969 und erreichte zwölf Minuten später planmäßig die Erdumlaufbahn. Die Rakete umkreiste unseren Planeten eineinhalbmal, bevor sie auf Mondkurs ging. Nach 76 Stunden erreichten Neil Armstrong, Edwin Aldrin und Michael Collins den rund 380 000 Kilometer entfernten Erdtrabanten. Am 19. Juli schwenkten die Astronauten in eine Mondumlaufbahn ein. Einen Tag später koppelte die Landefähre – mit Armstrong und Aldrin an Bord – ab und setzte wenig später auf der Mondoberfläche auf. Am 21. Juli um 3:56 Uhr mitteleuropäischer Zeit betrat Armstrong als erster Mensch den Mond, zwanzig Minuten später folgte ihm Aldrin. Zweieinhalb Stunden dauerte der erste Ausflug auf die Mondoberfläche.Nach rund 21 Stunden auf dem Mond ging es dann zurück, erst zum Apollo-Raumschiff und dann zur Erde. Am 24. Juli 1969 landete die Kapsel mit den drei Astronauten im Pazifik. Die Anreise der Apollo-Astronauten zum Mond dauerte drei Tage und vier Stunden. Eine kurze Flugzeit ist bei bemannten Missionen ein entscheidendes Kriterium, denn sie bedeutet eine geringere Strahlenbelastung für die Raumfahrer. Bei unbemannten Sonden spielt die Flugzeit dagegen eine geringe Rolle. So sind auch Flugrouten denkbar, die Monate dauern, dafür aber wenig Energie kosten. Solche Bahnen führen zunächst meist weit aus dem Erde-Mond-System heraus und machen sich die Anziehungskraft der Sonne zunutze, um schließlich zum Mond zurückzukehren. Statt der schubstarken chemischen Antriebe lassen sich dafür auch elektrische Antriebe verwenden. Ein weiterer großer Vorteil: Die Raumsonden nähern sich dem Mond mit einer geringen Relativgeschwindigkeit, wodurch nur geringe Korrekturen nötig sind, um in eine Umlaufbahn um den Erdtrabanten einzuschwenken.

Weltderphysik.de : Warum fliegen Frisbees?

https://i2.wp.com/www.weltderphysik.de/typo3temp/_processed_/c/1/csm_20190617_Frisbee_WdP_98c8cca660.png?resize=438%2C330&ssl=1

Eine Frisbeescheibe kann lange durch die Luft schweben – das hat im Wesentlichen zwei Gründe: Erstens ist die Scheibe gewölbt und zweitens versetzt man sie durch den Wurf in Rotation. Die Wölbung bewirkt einen Sog nach oben, und die Rotation hat beim Fliegen einen stabilisierenden Effekt.

Die gewölbten Plastikscheiben fliegen schon eine ganze Weile in der Gegend herum. Den Anfang machten die Kuchenformen einer Bäckerei in den USA namens „Frisbie Pie Company“, deren Flugeigenschaften auffällig gut waren. Seit Ende der 1950er-Jahre vermarktete eine andere Firma ähnlich geformte Scheiben unter dem Namen „Frisbee“.

Gleich mehrere physikalische Effekte ermöglichen, dass eine Frisbeescheibe so lange und weit durch die Luft schweben kann. Zunächst einmal ist eine Frisbeescheibe gewölbt. Strömt die Luft über diese Wölbung, entsteht ein Auftrieb wie bei einem Flugzeugflügel. Die Ursache hängt mit dem sogenannten Bernoulliprinzip der Strömungsphysik zusammen. Oberhalb der Scheibe bewegt sich die Luft schneller als an der Unterseite. Denn der Weg an der Oberseite ist durch die Wölbung länger. Dadurch herrscht über dem Frisbee ein geringerer Luftdruck als darunter und es entsteht ein Sog nach oben.

Doch dieser Effekt reicht noch nicht aus, um die Frisbeescheibe längere Zeit in der Luft zu halten. Verleiht man ihr beim Wurf nämlich keine Rotation, beginnt sie sofort zu flattern und fällt rasch zu Boden. Typischerweise dreht sich die Scheibe achtmal pro Sekunde, wenn sie die Hand verlässt. Die träge Rotation einer Masse bezeichnen Physiker als Drehimpuls. Der Drehimpuls ist eine Erhaltungsgröße und garantiert einen stabilen und ruhigen Flug, denn er dämpft zufällige Störungen der Rotationsbewegung. Greift eine kippende Kraft an dem Flugobjekt an, wird sie gewissermaßen abgelenkt, was ein Kippen verhindert. Der gleiche Effekt hilft übrigens, dass ein Kreisel bei Störungen immer wieder in die aufrechte Rotation zurückkehrt.

Dieser Effekt lässt sich durch die Form einer Frisbeescheibe noch verstärken: Eine breite „Krempe“ am Rand erleichtert nicht nur das Fangen der Scheibe, durch sie ist auch mehr Gewicht am Außenrand konzentriert. Diese Masseverteilung erhöht den Drehimpuls des Frisbee zusätzlich – und führt damit zu mehr Stabilität. Außerdem sorgt die Krempe für eine Art Fallschirmeffekt. Fliegt die Scheibe langsam, dann sinkt sie ganz gemächlich zu Boden, weil sie dem Fall einen großen Luftwiderstand entgegensetzt.

Zu guter Letzt besitzen viele Frisbeescheiben konzentrische Rillen auf der Oberseite, die einen besonders raffinierten Zweck haben: Sie wirken dem sogenannten Strömungsabriss entgegen, der vor allem bei Flugzeugen gefürchtet ist. Über den Tragflächen entstehen bei diesem Phänomen große Luftwirbel, wodurch die Geschwindigkeit der Luft stark sinkt. Infolgedessen reduziert sich der erwünschte Aufwärtssog. Das kann sogar zum Absturz führen. Die Rillen auf der Frisbeescheibe lassen kleine turbulente Luftströme auf der Oberfläche entstehen. Über diese kleinen Wirbel hinweg strömt die Luft deutlich besser und die Luftströmung, die den Auftrieb erzeugt, reißt nicht so leicht ab.

Weltderphysik.de : Aus dem Wind gedreht

https://i1.wp.com/www.weltderphysik.de/typo3temp/assets/_processed_/6/6/csm_16920190701_Windpark_John_Dabiri_14ddc35255.jpg?resize=471%2C259&ssl=1

01.07.2019

Einzelne Windräder liefern am meisten Strom, wenn die Drehachse des Rotors exakt in die Windrichtung zeigt. Doch für größere Windparks gilt diese einfache wie plausible Regel nicht mehr. Denn die Windräder in der ersten Reihe reduzieren die Windgeschwindigkeit und verursachen Turbulenzen, die die Stromausbeute der dahinter liegenden Anlagen sinken lässt. Nun haben Wissenschaftler eine Lösung für dieses Problem gefunden. Wie sie in der Fachzeitschrift „Proceedings of the National Academy of Sciences“ berichten, muss man die Windräder nur etwas aus ihrer scheinbar idealen Ausrichtung zum Wind herausdrehen.

Michael Howland von der Stanford University in den USA und seine Kollegen simulierten die optimale Position von Anlagen in einem Windpark mithilfe eines Computermodells. Um der Realität so nahe wie möglich zu kommen, nutzten sie dazu innerhalb eines Jahres gemessene Winddaten. Den Simulationen zufolge ließe sich die gesamte Stromausbeute eines Parks steigern, wenn vor allem Windräder in der ersten Reihe um etwa 20 Grad aus ihrer idealen Position herausgedreht werden. Dieses Ergebnis überprüfte das Team während eines zehntägigen Testlaufs in einem kanadischen Windpark in der Provinz Alberta.

Wie erwartet produzierten die frontalen Windkraftanlagen weniger Strom – aber auch weniger Windverwirbelungen. „Durch diesen reduzierten Nachlaufeffekt lieferten die weiter hinten gelegenen Windräder signifikant mehr Strom“, berichtet Howland. So stieg der Ertrag von sechs in einer Reihe stehenden Windrädern bei durchschnittlichen Windstärken um 7 bis 13 Prozent. In Schwachwindphasen lieferten die jeweils 250 Meter voneinander entfernten Anlagen sogar bis zu 47 Prozent mehr Strom. Zudem zeigte sich die sonst stark schwankende Stromausbeute insgesamt ausgeglichener. Das ist ein erheblicher Vorteil, wenn es darum geht, die erzeugte Energie in das öffentliche Stromnetz einzuspeisen.

Ob das gezielte Verdrehen der Windräder die Gesamtbilanz eines Windparks auch über Jahre hinweg optimieren kann, ist bisher noch unklar. Der Testlauf war schlicht zu kurz. Doch die Wissenschaftler planen bereits einen Langzeitversuch über ein ganzes Jahr. „Wenn sich diese Strategie auf große Windparks über lange Perioden anwenden lässt, können wir potenziell die Aerodynamik, die Stromausbeute und sogar die Flächennutzung von Windparks überall auf der Welt optimieren“, sagt Teammitglied John Dabiri, ebenfalls von der Stanford University.

In den vergangenen Jahren zeigten bereits mehrere Studien, dass Windverwirbelungen die Stromausbeute von Windparks stark beeinflussen. Die Effizienz von Windrädern in hinteren Reihen kann dadurch um bis zu 40 Prozent abfallen. Größere Abstände zwischen den Anlagen reduzieren diesen Effekt zwar, können ihn aber nicht völlig aufheben. Denn je nach Windbedingungen wirkt sich der Nachlaufeffekt über Distanzen von bis zu 50 Kilometern aus, bei Offshore-Windparks sogar noch weiter.

 

Weltderphysik.de : Quantenmotor mit hoher Effizienz

https://i0.wp.com/www.weltderphysik.de/typo3temp/assets/_processed_/e/d/csm_20180716_Quantenmotor__Krantz_2dbc8c7087.jpg?resize=412%2C232&ssl=1

16.07.2019

Gasturbinen oder Dieselgeneratoren erzeugen Strom, indem sie mithilfe von Hitze mechanische Rotationsbewegungen antreiben. Eine neuartige Wärmekraftmaschine im Nanomaßstab kommt dagegen ganz ohne mechanische Bauteile aus. Wie die Entwickler in der Fachzeitschrift „Nature Nanotechnology“ berichten, erreicht die winzige Maschine eine mit modernen Gasturbinen vergleichbare Effizienz. Zwar könnten solche Nanokraftwerke nur sehr geringe Strommengen liefern. Zum Betrieb von Sensoren dürften diese aber prinzipiell ausreichen. Gemeinsam mit seinen Kollegen setzte Heiner Linke von der Universität Lund eine vor gut 15 Jahren entwickelte, unkonventionelle Idee um: Einzelne Elektronen werden zwischen zwei Reservoiren mit jeweils unterschiedlichen Temperaturen ausgetauscht. In herkömmlichen Wärmekraftmaschinen wird dagegen der Wärmefluss zwischen den Reservoiren genutzt, um thermische in mechanische Energie umzuwandeln.
https://i2.wp.com/www.weltderphysik.de/typo3temp/_processed_/6/0/csm_20180716_NanokraftwerkMikro_NanoLund__Lund_University_2fbdb7403a.png?resize=226%2C183&ssl=1
Als Wärmereservoire setzten Linke und sein Team zwei filigrane Metalldrähte mit jeweils unterschiedlichen Temperaturen ein. Dazwischen positionierten sie eine winzige Struktur aus Nanodrähten, einen sogenannten Quantenpunkt. Aufgrund der winzigen Ausmaße führen quantenmechanische Effekte darin zu neuartigen physikalischen Eigenschaften. In diesem Fall wirkt die Nanostrukur als Filter, um nur Elektronen mit einer bestimmten Energie hindurchzulassen.
 
Mikroskopaufnahme des Nanokraftwerks
In den Experimenten wanderten nun einzelne Elektronen über den Quantenpunkt von der wärmeren zur kälteren Elektrode – angetrieben von der Temperaturdifferenz. Dabei ließ sich ein winziger Stromfluss bei etwa einem Volt Spannung messen. „Unser Ansatz zeigt, dass sich Wärme mit hoher Effizienz und ohne Zwischenschritt direkt in Elektrizität umwandeln lässt“, erläutert Linke. Die Effizienz des Nanogenerators liegt bei rund 70 Prozent des theoretisch möglichen Maximums. Herkömmliche Wärmekraftmaschinen erreichen ähnliche Werte. Bei dem thermoelektrischen Nanokraftwerk handelt es sich allerdings noch um ein Grundlagenexperiment. So betrug die Temperaturdifferenz zwischen den Reservoiren nur etwa ein Grad und die absoluten Temperaturen bewegten sich nahe dem absoluten Nullpunkt. Derart tiefgekühlt sind konkrete Anwendungen kaum möglich. Doch kann sich Linke vorstellen, dass sich mit diesem Prinzip wartungsfreie Nanokraftwerke konstruieren lassen, die etwa aufgeheizte Elektronen in Solarzellen oder Computerprozessoren nutzen. Mit der winzigen Stromausbeute ließen sich beispielsweise Sensoren oder Quantenschaltkreise betreiben.

Spekturm.de : KI ist alles andere als grün

Rechenzentrum

26.07.2019 - Laut einer US-Studie emittiert das Training einer künstlichen Intelligenz fünfmal so viel CO2 wie ein Auto. Doch der Ausstoß hängt vom Einzelfall ab - und der Vergleich hinkt ein wenig.

Künstliche Intelligenz ist aus unserem Alltag nicht mehr wegzudenken. Spamfilter sortieren unerwünschte E-Mails aus. Computerprogramme generieren automatisiert Sport- und Börsenberichte. Und virtuelle Assistenten wie Siri und Alexa beantworten unsere Sprachanfragen. Doch diese smarten Helfer im Alltag haben einen ökologischen Preis: Laut einer aktuellen Studie der University of Massachusetts Amherst emittiert das Trainieren eines einzigen neuronalen Netzwerks so viel CO2 wie fünf Autos. In Zeiten, in denen die Politik kontrovers über Klimaziele diskutiert und Klimaschutz ganz oben auf der Agenda steht, sorgt so eine Meldung für Gesprächsstoff – gerade weil mit der Entwicklung künstlicher Intelligenzen auch das Versprechen eines effizienteren Ressourcenverbrauchs verknüpft ist. Die Forscher untersuchten in ihrer Studie vier verschiedene Modelle, die Sprache verarbeiten: Solche NLP-Modelle (natural language processing) kommen im Bereich der Spracherkennung und maschinellen Übersetzung zum Einsatz. Eines davon, der Textgenerator GPT-2, schreibt angeblich so täuschend echte Geschichten, dass die Entwicklerorganisation OpenAI sogar vor seinem Gebrauch warnte. Um den Energieverbrauch der CPU und des Grafikprozessors zu messen, wurde jedes dieser Modelle einen Tag lang trainiert. Training heißt: Man füttert ein neuronales Netz mit riesigen Datensätzen, in diesem Fall annotierten Texten und Wörtern. Aus dem Verbrauch, welche die Modelle für die einzelnen Arbeitsschritte benötigten, errechneten die Forscher den Energiebedarf für die gesamte Prozedur. Auf Basis eines Umrechnungsschlüssels der US-Umweltbehörde EPA konvertierten sie die Verbrauchs- in Emissionswerte, die ungefähr dem Energiemix von Amazon Web Services, dem größten Cloud-Computing-Anbieter, entsprechen.

Menschliche Intelligenz verbraucht viel weniger Energie

Die Ergebnisse, die die Wissenschaftler in ihrer Studie präsentieren, sind erschreckend: Beim Training eines einzigen Modells werden 313 Tonnen CO2 emittiert. Das ist ungefähr das Fünffache dessen, was ein Fahrzeug in seinem gesamten Lebenszyklus (inklusive Kraftstoff) verbraucht. Der hohe Energieverbrauch resultiert vor allem aus der Rechenpower, die für die Verarbeitung riesiger Datenmengen nötig ist. Dass (Grafik-)Prozessoren für Deep-Learning-Verfahren energieintensiv sind, ist keine neue Erkenntnis. Die Jeopardy-Version von IBMs Supercomputer Watson  benötigte 85 000 Watt, um bei der Rateshow zwei menschliche Spieler zu bezwingen. Zum Vergleich: Das menschliche Gehirn benötigt gerade einmal 20 Watt. Die Dimension des Verbrauchs überrascht dann doch, zumal es weitaus trainingsintensivere Verfahren (etwa von CT-Aufnahmen im medizinischen Bereich) gibt.

 

Spekturm.de : Stern bestätigt erneut Einstein

Orbit von S2

26.07.2019 - Seit 25 Jahren beobachten Astronomen einen Stern, der enge Bahnen um das Schwarze Loch im Zentrum unserer Galaxie zieht. Dabei verhält er sich ganz so, wie von der Relativitätstheorie vorhergesagt.

Der Stern S2 gehört zu den spektakulärsten Objekten unserer Galaxie: Er bewegt sich in unmittelbarer Nähe des Zentrums der Milchstraße, wo ein supermassereiches Schwarzes Loch sein Unwesen treibt. S2 umrundet dieses Monstrum auf einer lang gestreckten Ellipse, wobei er 16 Jahre für einen Umlauf braucht. Der bläulich leuchtende Riesenstern nähert sich dem Ereignishorizont dabei auf bis zu 120 Astronomische Einheiten an, die 120-fache Entfernung der Erde zur Sonne. Die extreme Schwereanziehung beschleunigt ihn dabei zeitweise auf 2,7 Prozent der Lichtgeschwindigkeit. Seit Mitte der 1990er Jahre verfolgen Astronomen den besonderen Stern mit Teleskopen. Dabei haben sie unter anderem Vorhersagen von Einsteins Relativitätstheorie testen können, die in dem extremen Gravitationsfeld des supermassereichen Schwarzen Lochs zum Tragen kommen. Erst 2018 wiesen Forscher der Europäischen Südsternwarte ESO nach, dass die enorme Schwerkraft das Licht von S2 ein wenig in die Länge zieht, Physiker sprechen von "gravitativer Rotverschiebung". Ein Team um Tuan Do von der University of California in Los Angeles kommt nun zum selben Ergebnis: Die Forscher werteten alte und neue Messdaten aus, darunter drei noch nicht analysierte Monate aus dem Jahr 2018. Damit könne man sicher sein, dass die gravitative Rotverschiebung auch außerhalb unseres Sonnensystems auftrete, wo die meisten früheren Messungen des Effekts stattgefunden hätten, schreiben die Wissenschaftler in "Science".
Orbit von S2 | Der Stern S2 (gelbe Ellipse) kommt dem supermassereichen Schwarzen Loch im Zentrum der Milchstraße (roter Punkt in der Bildmitte) extrem nah.