Physik
(griechisch physike episteme), die Wissenschaft von der Natur.

Grundfragen und Ziel

Die Grundfragen der Physik haben sich seit ihrer Entstehung nur wenig gewandelt: Aus welchem "Stoff" besteht die Welt, und nach welchen Gesetzen bewegt sie sich?

Die Physik beschäftigt sich mit dem Versuch, die Vorgänge in der Natur zu erfassen, zu beschreiben, zu ordnen und letztlich zu verstehen. Von "Verständnis" kann gesprochen werden, wenn es gelingt, eine Vielzahl von Phänomenen mit einer vergleichsweise einfachen Theorie (griechisch theorein: schauen) zu erfassen. In der modernen Physik bemüht man sich, für die Grundbausteine der Materie und deren Wechselwirkungen eine angemessene mathematische Beschreibung zu finden, in der sich das "reale" Verhalten widerspiegelt. Von vielen angestrebt – aber bisher unerreicht – ist eine einzige, umfassende und einheitliche Theorie.

Bei allen modernen Naturwissenschaften geht man von der Grundannahme der "Existenz einer realen Außenwelt" aus. Damit ist gemeint, dass es einem Beobachter möglich ist, seinen Körper und die ihn umgebende Welt als eine (komplizierte) Maschine zu betrachten, die sich nach bestimmten Gesetzmäßigkeiten bewegt. Von einer mechanistischen Beschreibung der Welt sind keine Aussagen über Gefühle, ästhetisches Empfinden, freien Willen, Bewusstsein, Moral und Ethik etc. zu verlangen, obwohl auch darüber diskutiert wird.

Gliederung der Physik

Die Physik kann nach verschiedenen Gesichtspunkten gegliedert werden: einerseits methodisch in Experimentalphysik und theoretische Physik, andererseits historisch in griechische Physik (besser Naturphilosophie), klassische Physik und moderne Physik.

Die klassische Physik gliedert sich inhaltlich in Mechanik (Lehre von der Bewegung von Punktteilchen, Statik und Dynamik starrer Körper und Flüssigkeiten), Akustik (Lehre vom Schall), Thermodynamik (Wärmelehre), Elektrodynamik (Wechselwirkung von Ladungen mit elektrischen und magnetischen Feldern) und Optik (Lehre der Lichtausbreitung).

Wichtige Gebiete der modernen Physik sind spezielle Relativitätstheorie (Umformulierung der Mechanik und Elektrodynamik unter Berücksichtigung der Gleichheit der Lichtgeschwindigkeit in allen Bezugssystemen in einer flachen Raum-Zeit), die allgemeine Relativitätstheorie (Gravitation als Folge der geometrischen Struktur der gekrümmten Raum-Zeit und ihre Dynamik, festgelegt durch die Materieverteilung), Quantentheorie (Verhalten von Materie bei kleinen Abständen) mit den Unterdisziplinen Quantenmechanik (Kernphysik, Atomphysik, Molekülphysik, Physik der kondensierten Materie) und Quantenfeldtheorie (Elementarteilchenphysik, Quantenelektrodynamik mit Anwendungen in der Quantenoptik und Laserphysik) sowie Kosmologie und Astrophysik.

Eine andere Gliederung ist durch die Unterscheidung in mikroskopische und makroskopische Physik gegeben. Die Disziplin, die aus den mikroskopischen Gesetzen das Verhalten makroskopischer Systeme erklärt, z. B. aus der klassischen Mechanik die Thermodynamik, Flüssigkeits- und Gasmechanik, ist die statistische Physik.

Anwendungsbereich und Nachbargebiete

Die Physik versteht sich als grundlegende Naturwissenschaft, auf der alle anderen Naturwissenschaften aufbauen.

Es besteht eine sehr enge Verbindung mit der Mathematik, die sich in steter Wechselwirkung mit der (theoretischen) Physik entfaltet hat (man denke etwa an die Entwicklung der Geometrie von Euklid, Gauß und Riemann, die Differential- und Integralrechnung von Newton und Leibniz und die Wahrscheinlichkeitstheorie).

Die wichtigsten Nachbardisziplinen der Physik sind Chemie (eng verwandt mit der Atom- und Molekülphysik), Biologie, Geophysik, Mineralogie, Kristallphysik, Meteorologie und technische Physik.

Methoden

Es gibt keine einfachen Methoden, die einen Erkenntniszuwachs garantieren, auch nicht für die "exakte Naturwissenschaft" Physik. Es hat sich gezeigt, dass Wissen nicht immer "Steinchen für Steinchen" stetig wächst, sondern durchaus sprunghaft. Solche Sprünge sind oft von "Paradigmenwechseln" begleitet, radikalen Änderungen der Perspektive, nach denen auch bereits bekannte Phänomene gänzlich anders erklärt werden, wie z. B. beim Wechsel zwischen der Teilchen- und der Wellentheorie des Lichtes. Die Gründe für das Auftreten eines solchen Paradigmenwechsels sind vielfältig. Experimentelle Befunde sind dabei zwar ein wichtiger, aber bei weitem nicht der einzige Motor. Streng genommen kann man eine Theorie experimentell nie verifizieren oder falsifizieren, d. h. mit Sicherheit über ihre Gültigkeit entscheiden. Teilweise müssen verschiedene Theorien die Vorherrschaft sogar zunächst mit denselben experimentellen Daten ausfechten (Wärmestofftheorie, Wellen- und Teilchentheorie des Lichtes, Äthertheorie, Atomhypothese).

In der Regel werden bestehende Theorien über ihren gesicherten Anwendungsbereich hinaus extrapoliert und Hypothesen formuliert, die dann (meist indirekt) experimentell und theoretisch überprüft werden. Auch die Untersuchung von Anomalien und nicht zuletzt der Zufall (z. B. Becquerels Entdeckung der Radioaktivität) spielen eine große Rolle. Beeindruckende Voraussagen ergeben sich häufig aus einem festen Glauben an die Richtigkeit einer Theorie, selbst wenn sie den bisherigen Beobachtungsdaten widerspricht (z. B. Vorhersage und Entdeckung neuer Planeten, Vorhersage des Positrons und des Neutrinos).

Die Kriterien für die Güte einer physikalischen Theorie sind z. B. die innere Konsistenz (Widerspruchsfreiheit), die Einfachheit, Eleganz und ästhetische Schönheit der mathematischen Formulierung, die Natürlichkeit der Erklärung möglichst vieler Phänomene und Experimente und die Vorhersagekraft. Ein weniger hoch stehendes, aber zu allen Zeiten oft verwendetes Kriterium ist die Berufung auf die Meinung anerkannter Autoritäten.

Griechische Naturphilosophie

Die Bedeutung der griechischen Antike für die moderne Naturwissenschaft kann kaum genug betont werden, denn sie stellte einen Rahmen auf, der in vielen Bereichen auch noch heute gültig ist. Dabei sind meist nicht die einzelnen Aussagen wichtig, die gegeben wurden und die man allzu leicht als unwissenschaftlich oder mystisch verurteilt, sondern die Grundfragestellungen, die damals entwickelt wurden und hauptsächlich den "Urstoff" und seine Wandlung betrafen: Woraus besteht die Welt, woher kommt die Vielfalt in der Natur, und was bedingt ihre Veränderung?

Der Beginn: Thales, Anaximander und Anaximenes

Die große Leistung dieser ersten griechischen Naturphilosophen im 6. Jahrhundert v. Chr. in Milet ("die Milesier") war die Loslösung von der Vorstellung, dass Götter und Göttinnen, wie sie etwa bei Homer und Hesiod beschrieben werden, die Welt beherrschen. Daraus entwickelte sich das Bestreben nach einem rationalen Verständnis der Vorgänge in der den Menschen umgebenden Natur. Zwar hatten schon die Chinesen, Babylonier, Assyrer und auch die alten Kulturen Mittelamerikas umfangreiche mathematische Methoden zur Berechnung von Mond- und Sonnenfinsternissen entwickelt; diese Methoden wurden aber eher als religiöse Geheimnisse verstanden. Dieser Glaube an die prinzipielle Verstehbarkeit der Natur ist bis heute die Grundlage aller Naturwissenschaften.

Noch bestand eine untrennbare Einheit von belebter und unbelebter Natur. Leben, so Thales (ca. 585 v. Chr.), sei allmählich aus unbelebter Materie im Wasser entstanden. Dies ist durchaus als Vorläufer der Darwin’schen Evolutionstheorie zu sehen. Aus der Erkenntnis, dass alle Materie, aus der die Welt besteht, bei all ihrer unendlichen Mannigfaltigkeit doch so viel Gemeinsames hat, wurde gefolgert, dass ihr eigentlicher Grundstoff ein und derselbe sein müsse. Thales vermutete als Urstoff das Wasser. Später schlug Anaximander (ca. 565 v. Chr.) als Urstoff einen uns unbekannten Stoff (apeiron: das Unbegrenzte) vor. Anaximenes (ca. 545 v. Chr.) stellte sich die Hauptformen der Veränderung und Umwandlung durch Verdünnung und Verdichtung von Luft vor; aus Luft entstünden durch Verdichtung Nebel, Wolken, Wasser und feste Erde. An diese Theorie knüpfte später die Atomtheorie von Leukipp und Demokrit an.

Anaxagoras (ca. 500 v. Chr.), der die Tradition der milesischen Denker nach Athen brachte, lehrte, dass der Mond beschienen wird und der Erde näher steht als die Sonne, erstellte eine korrekte Theorie der Sonnen- und Mondfinsternisse und erklärte Sonne und Sterne als feurige Steine von enormer Größe. Die Hitze der Sterne spüre man nicht, da sie so weit von der Erde entfernt seien.

Die Pythagoräer

Pythagoras (um 570 bis 480 v. Chr.), eine sehr einflussreiche Persönlichkeit, war der Gründer einer sektenähnlichen Schule. Trotz der teils mystischen Verquickung von merkwürdigen Regeln (z. B. durfte man keine weißen Hähne berühren) und der Lehre von der Seelenwanderung kann man diese Schule als Geburtsstätte der Mathematik ansehen. Die Grunddoktrin seiner Lehre war: "Dinge sind Zahlen" oder "Dinge sind wie Zahlen". Die Beobachtung, dass sich Harmonie in der Musik, die die Menschen traurig oder fröhlich stimmen kann, durch das Verhältnis ganzer Zahlen ausdrücken lässt, führte zu einem tiefen Glauben an die grundlegende Bedeutung der Zahlen, der auch später Platon (427-347 v. Chr.) stark beeinflusste.

Die Pythagoräer wussten, vermutlich durch die richtige Deutung des Schattens auf dem Mond, dass die Erde eine Kugel ist und der Mond nicht selbst leuchtet. Sie nahmen an, dass der Mond, die Erde, die anderen Planeten und die Sonne um ein "Zentralfeuer" kreisten. Um zu erklären, warum dieses Zentralfeuer nie direkt zu sehen ist, nahmen sie an, dass die Erde auf ihrem Umlauf immer ihre bewohnbare Seite vom Zentralfeuer abwendet (Philolaos, ca. 450 v. Chr.). Damit war also die Bewegung der Gestirne als eine scheinbare erklärt, und zusätzlich hatte man erkannt, dass die Erde um ihre eigene Achse rotiert.

Aristarch von Samos (310-230 v. Chr.) verbesserte diese Theorie zu einem heliozentrischen Weltbild, nachdem auch auf ausgedehnten Entdeckungsfahrten das Zentralfeuer nie beobachtet worden war und man die Sonne an die Stelle des Zentralfeuers rückte. Diese Theorie wurde allerdings von Hipparch aus Alexandria (um 190 bis 125 v. Chr.) verworfen und wurde erst fast 2 000 Jahre später von Kopernikus wieder belebt.

Parmenides und Heraklit

Die beiden herausragenden Denker der Zeit von etwa 540 bis 480 v. Chr. waren Parmenides (um 515 bis ca. 445 v. Chr.) aus der griechischen Kolonie Elea (später die "Eleaten") und Heraklit von Ephesus (um 550 bis ca. 480 v. Chr.).

Parmenides vertrat die Ansicht, dass Veränderung, Werden und Vergehen nur Täuschungen unserer Sinne seien. Seine Hauptthese "IST IST" kann dahingehend verstanden werden, dass "das Seiende" einfach da ist, d. h. sich weder aus einem "NICHT IST" entwickeln noch in ein "NICHT IST" verschwinden kann. Dieses "NICHT IST" existiere daher nicht, und das alles umfassende "Seiende" durchdringe alles. Also könne es auch keine Veränderung und Bewegung geben. Es war ihm wohl bewusst, dass diese Sichtweise in krassem Widerspruch zur sinnlichen Erfahrung steht, aber er sah sich durch den Verstand zu diesem Schluss gezwungen.

Die dazu konträre Auffassung vertrat Heraklit (beeinflusst von Anaxagoras und den Milesiern), der als einzige Gemeinsamkeit die Annahme eines einzigen "Urstoffs" mit Parmenides teilte. Der Urstoff sei in beständigem Wandel ("Panta rhei" = Alles fließt), Gegensätze seien allgegenwärtig und wandeln sich in bestimmten gesetzmäßig festgelegten Proportionen ineinander um.

Empedokles (494-434 v. Chr.) versuchte eine Art Synthese aus diesen beiden so verschiedenen Ansätzen, indem er mehrere Urstoffe (Feuer, Wasser, Erde, Luft), ein jeder für sich ewig und beständig, annahm, die sich durch Anziehung und Abstoßung (heute würde man von Kräften sprechen), durch Liebe und Hass verschiedentlich aufteilen. Er versuchte so, die Vielfachheit und Wandlung der Formen mit der ewigen Beständigkeit in Einklang zu bringen. Diese Aufteilung der Welt in Stoff und Kraft ist bis heute von zentraler Bedeutung.

Die Atomisten: Leukipp und Demokrit

Die tatsächliche Synthese aus den beiden großen Strömungen gelang den Atomisten Leukipp (um 460 v. Chr.) sowie Demokrit (460-371 v. Chr.), einem Zeitgenossen von Sokrates. Man geht davon aus, dass Leukipp, von dessen Werken fast nichts überliefert ist, eine sehr ähnliche Atomlehre vertrat wie Demokrit.

Die Grundthese der Atomisten war die folgende: Es gibt verschiedene unteilbare und unsichtbar kleine Körper, genannt "Atome" (von atomos: unteilbar), und dazwischen "leeren Raum". Die Atome waren schon immer da und sind unveränderbar (ganz im Sinne von Parmenides) und unterscheiden sich nur in ihrer Form. Sie besitzen keine weiteren Qualitäten wie etwa Gewicht oder Schwere. Die Atome sind undurchdringlich und in ständiger Bewegung, welche von selbst bestehen bleibt (eine Vorform des Trägheitssatzes, der erst etwa 2 000 Jahre später von Galilei und Newton streng gefasst wurde). Diese Bewegung besteht in alle Richtungen gleichermaßen und ändert sich nur durch Stöße mit anderen Atomen. Durch ihre unterschiedlichen Formen können sich die Atome zu verschiedenen Körpern zusammensetzen und so die Mannigfaltigkeit der Phänomene, das Werden und Vergehen, erklären (ganz im Sinne von Heraklit). Das Verdünnen und Verdichten, die Grundlage der Lehre von Anaximenes, wird nun durch die wachsenden oder kleiner werdenden Abstände zwischen den Atomen erklärt.

Demokrit bestand darauf, dass die Bewegung aller Atome, auch die eines belebten Körpers, durch Gesetze bestimmt sei. Ein Teil der Atome eines belebten Körpers sollte die Seele oder den Geist bestimmen.

Man muss hier betonen, dass diese Theorie – bis auf die Idee der Seelenatome – in wesentlichen Teilen der modernen Physik entspricht und nahezu ohne experimentelle Daten erdacht wurde. Weiterhin ist die äußerst fortschrittliche erkenntnistheoretische Einsicht von Demokrit hervorzuheben: Er schließt seine Abhandlung über die Atomlehre mit dem berühmten Wettstreit zwischen dem Verstand ("Scheinbar ist Farbe, scheinbar Süßlichkeit, scheinbar Bitterkeit: wirklich nur Atome und Leeres!") und den Sinnen ("Du armer Verstand, von uns nimmst du die Beweisstücke und willst uns besiegen? Dein Sieg ist dein Fall!"). Demokrit verspürte offenbar großes Unbehagen darüber, dass seinem atomistischen Weltbild alle Sinnesgegebenheiten fehlen, auf denen es aufgebaut ist. Selten ist diese Antinomie des Leib-Seele-Problems prägnanter ausgedrückt worden.

Demokrit muss ohne Zweifel als Vorläufer der heutigen Atomtheorie gelten. Gemeint sind natürlich nicht die Atome der Chemie oder die Atomkerne, sondern diejenigen Teilchen, die in der heutigen Physik als punktförmig und unteilbar angenommen werden (z. B. Elektronen und Quarks).

Die Atomlehre wurde von Petrus Gassendi (1592-1655), der die Ausarbeitungen Epikurs (341-271 v. Chr.) zur Atomlehre von Demokrit studiert hatte, und später von John Dalton (1766-1844) im Bereich der Chemie wieder entdeckt.

Aristoteles

Einen enormen Einfluss auf die Physik für fast 2 000 Jahre hatten die Arbeiten von Aristoteles (384-322 v. Chr.), einem Schüler Platons. Insbesondere durch die Schriften des Aristoteles ist überhaupt das frühere Denken, wenngleich teilweise zum Zweck der Kritik gefärbt, zusammengestellt worden. Seine Lehren verfestigten sich im Lauf der Zeit zu festen Dogmen, und es dauerte lange, bis sich die Physik aus diesen Fesseln befreien konnte.

Aristoteles verwarf die Vorstellung der Atomisten, denen er vorwarf, keine Gründe für die beständige Bewegung der Atome anzugeben, und übernahm die Aufteilung in die vier Grundstoffe Feuer, Erde, Wasser und Luft und eines fünften, des Weltäthers, der "Quintessenz" (lateinisch quinta essentia: fünfter Stoff).

Von großem Einfluss erwies sich die aristotelische Dynamik. Die Himmelsdynamik sollte anderen Gesetzen folgen als die Bewegung der Körper auf der Erde: Die Bewegung der Planeten und Sterne sollte "naturgemäß" auf konzentrischen Sphären kreisförmig sein (was auf Platon zurückgeht), mit der Erde im Zentrum. Dadurch konnten diese Himmelskörper die in einer Kugel eingeschlossen gedachte Welt nicht verlassen. Die Bewegung von Körpern auf der Erde sollte "naturgemäß" entweder nach oben (die leichten Körper) oder zum Erdmittelpunkt (die schweren Körper) gerichtet sein. Aristoteles verwarf die Eigenrotation der Erde, denn ansonsten dürfte ein senkrecht nach oben geworfener Stein nicht an derselben Stelle auftreffen. Die Ursache von Bewegung (Geschwindigkeit) waren Kräfte. Für die (unnatürliche) Bewegung eines Wurfgeschosses war daher die Hand des Werfers notwendig, um eine andere als die natürliche Bewegung aufrechtzuerhalten. Danach sollte das Geschoss senkrecht zu Boden fallen. Auf der Erde sollten schwere Gegenstände schneller fallen als leichte, und im luftleeren Raum sollten alle Körper unendlich schnell fallen.

Der Niedergang

Nach Aristoteles erlosch allmählich das Interesse an naturwissenschaftlichen Fragen, und man wandte sich mehr ethischen, metaphysischen und theologischen Problemen zu. Wichtige Ausnahmen sind Archimedes (285-212 v. Chr.) mit bedeutenden Beiträgen zu den Hebelgesetzen, der Entwicklung des Flaschenzuges sowie den Gesetzen vom Auftrieb, Claudius Ptolemäus (um 100 bis 160) mit Beiträgen zur Optik und der Ausarbeitung der Epizyklentheorie des geozentrischen Weltbildes sowie experimentelle Arbeiten von Pierre de Maricourt (um 1269) zu dem schon den Griechen bekannten Magnetismus. Der Neuplatoniker Augustinus (354-430) und Thomas von Aquin (1225-1274) versuchten hingegen beide eine Auslegung der aristotelischen und platonischen Naturwissenschaft im Sinne der Bibel.

Die Ideen der Griechen überlebten hauptsächlich in geschriebener Form in Arabien, wurden dort auch weiter ausgearbeitet, aber es kam, verglichen mit den Fortschritten in der Mathematik (z. B. die Entwicklung der Algebra), wenig Neues hinzu.

Prägend für die lange Epoche des Mittelalters bis zum Beginn der Renaissance war der starke Einfluss der Kirche und der Scholastik, die viele Lehren zu Dogmen erhob, welche damit viel schwieriger und erst nach langer Zeit zu stürzen waren.

Klassische Physik

Der Neubeginn

Ein neuer Aufschwung begann etwa ab dem 16. Jahrhundert, als man sich von Feudalherrschaft und Kirchenmacht zu befreien begann und die antike Kultur in Europa wieder entdeckte (Renaissance). Insbesondere wurde die neue, wissenschaftliche Methode des Empirismus entwickelt (Francis Bacon, 1561-1626): Man beschränkte sich nicht so sehr auf eine Beobachtung der natürlichen Vorgänge, um diese dann verstandesmäßig zu analysieren, sondern versuchte, durch konsequente Anwendung der Mathematik und systematische Experimente jede Aussage zu präzisieren und zu überprüfen.

Das von Ptolemäus im 2. Jahrhundert n. Chr. aufgestellte geozentrische Weltbild wurde von Nikolaus Kopernikus (1473-1543), der wohl die Arbeiten von Aristarch von Samos studiert hatte, in einer in seinem Todesjahr erschienenen Arbeit angezweifelt. Er schlug wieder ein heliozentrisches Weltbild vor, bei dem die Planeten die Sonne auf kreisförmigen Bahnen umkreisten, das aber in seiner Genauigkeit ohne zusätzliche Korrekturen der sehr ausgefeilten Epizyklentheorie noch unterlegen war. Johannes Kepler (1571-1630), ein Assistent des großen Astronomen Tycho Brahe (1546-1601), verbesserte das heliozentrische Bild: Die Bahnen der Planeten sind Ellipsen, in deren einem Brennpunkt die Sonne steht. Rein empirisch leitete er aus den schon von Tycho Brahe gewonnenen Daten (die eigentlich zur Stützung einer anderen Theorie gedacht waren) eine Beziehung zwischen Sonnenabstand und Umlaufzeiten der Planeten und deren Geschwindigkeiten ab. 1609 erschien das Buch "Neue Astronomie und Himmelsphysik" mit den drei Kepler’schen Gesetzen.

Der nächste große Physiker war Galileo Galilei (1564-1642), der als der eigentliche Begründer der Physik als empirischer Wissenschaft angesehen wird. Mit Hilfe des damals neu entwickelten Fernrohrs beobachtete er Gebirge auf dem Mond (der somit kein glatter Ball war wie bei Aristoteles) und erbrachte durch Beobachtung und Deutung der Venusphasen einen neuen Hinweis auf die Richtigkeit des heliozentrischen Bildes. Galilei musste auf Druck der Kirche von seiner Lehre abschwören. Er wurde erst 1992 von der Kirche rehabilitiert. Er lehrte, dass die Erddrehung naturgemäß sei und dass alle Körper auf der Erde an dieser Drehung teilnehmen, auch wenn sie nicht in direktem Kontakt mit dem Boden stehen. Damit konnte er die Beobachtung erklären, dass ein Stein senkrecht zu Boden fällt, obwohl die Erde rotiert. Der ungebremste Fall eines Körpers auf der Erde im Vakuum ist durch eine konstante Beschleunigung charakterisiert (und nicht unendlich schnell wie bei Aristoteles). Verschieden schwere Körper fallen daher im luftleeren Raum gleich schnell. Aus einer Vorform des Trägheitssatzes, der nur für Bewegungen auf der Erde gelten sollte, und dem Fallgesetz konnte er zeigen, dass die Bahn eines auf der Erde schräg geworfenen Körpers eine Parabel ist.

Galilei dachte allerdings nicht an eine universelle Gravitation, die auch den Gang der Planeten bestimmt, und nahm – in aristotelischer Tradition – weiterhin Kreisbahnen für die Himmelskörper an, damit die das Weltall umschließende Kugel nicht durchstoßen würde; so gelangte er nicht zu einer endgültigen Formulierung des Trägheitssatzes, die Isaac Newton vorbehalten bleiben sollte.

René Descartes (1596-1650) erkannte, dass für die Bewegung auf einer Kreisbahn eine Kraft nötig ist, und betonte, dass jede Kraft eine mechanische Ursache habe. Neben Beiträgen für die Mathematik (Begründung der analytischen Geometrie durch Einführung des "kartesischen" Koordinatensystems) arbeitete er auch an einer mechanischen Theorie der Lichtausbreitung. Descartes wird als Begründer des streng materialistischen Weltbildes angesehen. Er nahm eine Trennung der Welt in eine materialistische, Gesetzen unterworfene Welt und eine beseelte Welt an. Die Natur wurde als komplizierte Maschine aufgefasst, die vom Menschen benutzt werden könne. Diese Sichtweise erwies sich als ungeheuer einflussreich, erfolgreich und auch problematisch.

Descartes’ und insbesondere auch Christian Huygens’ (1629-1695) Arbeiten zu den Pendelgesetzen, den Stoßgesetzen, dem Begriff der Masse und der Kreisbewegung waren wegbereitend für die Newton’sche Mechanik.

Newton’sche Mechanik

Sir Isaac Newton (1642-1727) hat auf vielen Gebieten bahnbrechende Ergebnisse erzielt und war insbesondere der Begründer einer umfassenden Dynamik. Er nahm einen absoluten, unendlich ausgedehnten Raum und eine absolute und unendliche Zeit an, die unbeeinflusst und ohne Beziehung zu Körpern verfließt. Sie stellten die Arena dar, innerhalb derer sich die Dinge bewegen. Die drei Newton’schen Gesetze lauten: 1. Kräftefreie Körper bewegen sich gleichförmig mit konstanter Geschwindigkeit (endgültige Formulierung des Trägheitssatzes). 2. Kraft ist die Ursache von Beschleunigung, d. h., der Impuls (das Produkt aus Masse und Geschwindigkeit) ändert sich durch Kräfte ("F = ma"). 3. Zu jeder Kraft gibt es eine gleich große Gegenkraft ("actio = reactio").

Seine nächste großartige Entdeckung war die der universellen Gravitation: Massive Körper, gleich ob am Himmel oder auf der Erde, ziehen sich mit einer ihren Massen proportionalen Kraft an, die mit dem Quadrat ihres Abstands abfällt. Damit konnte er nicht nur die Wurfparabel eines Geschosses auf der Erde reproduzieren, sondern nach denselben Gesetzen die Bewegungen der Planeten und Kometen auf Kegelschnitten (Kreisen, Ellipsen und Hyperbeln) und die von Kepler empirisch gefundenen Gesetze ableiten sowie die Entstehung der Gezeiten durch den Mond und die Abflachung der Erde an den Polen erklären. Newton entwickelte in seinen Arbeiten – parallel zu Gottfried Wilhelm Leibniz (1646-1716) –die Differential- und Integralrechnung, welche für die Mathematik einen gewaltigen Sprung bedeutete.

Newton selbst misstraute der Anwendungsbreite seiner eigenen Theorie und zog in Betracht, dass Gott von Zeit zu Zeit die Positionen der Planeten wieder geringfügig neu ordne. Pierre Laplace (1749-1827) begründete, dass ein "Dämon" aus Anfangsorten und -geschwindigkeiten aller Teilchen der Welt sowie den Grundgleichungen der Newton’schen Mechanik Zukunft und Vergangenheit bestimmen könne, dass also der Lauf der Welt wie ein Uhrwerk determiniert sei.

Mit zu den beeindruckendsten Bestätigungen der Newto’schen Mechanik gehören die Vorhersage der Wiederkehr des Halleyschen Kometen für das Jahr 1758 und die Vorhersage des Planeten Neptun samt Masse und Position (erst 1846 unabhängig von U. J. J. Leverrier und C. J. Adams aufgefunden). Neptun wurde zunächst postuliert, um die sonst ohne Änderung des Gravitationsgesetzes unerklärlichen Abweichungen der Bahn des Uranus von der errechneten zu begründen. Erst zu Beginn des 20. Jahrhunderts, beim Vergleich der genauesten Messungen der Periheldrehung des Merkurs mit der theoretischen Vorhersage, scheiterte diese Methode: Der postulierte "Korrekturplanet" konnte nicht gefunden werden. Die letztendliche Erklärung wurde erst durch Einsteins allgemeine Relativitätstheorie erbracht.

Als Unterdisziplinen der Mechanik entwickelten sich die Akustik u. a. durch Josef Saveur (1653-1716), Georg Simon Ohm (1789-1854) und Hermann Helmholtz (1821-1894), sowie die Kontinuumsmechanik und die Strömungslehre, die insbesondere von Daniel Bernoulli (1707-1783) vorangetrieben wurde. Seine Vorstellung, dass der Druck in einer Flüssigkeit von den Einzelstößen kleiner Teilchen herrührt, war bereits ein Vorläufer der viel später entwickelten kinetischen Gastheorie.

Weitere Ausarbeitungen der Mechanik wurden von Leonhard Euler (1707-1783), Joseph Louis Lagrange (1736-1813) und Sir William Hamilton (1805-1865) geschaffen, die damit auf immer kompliziertere Probleme (Bewegung mit Zwangskräften, Vielteilchensysteme) anwendbar wurde.

Thermodynamik

Im 17. Jahrhundert entfaltete sich die Wärmelehre als quantitative Disziplin, was mit der Entwicklung des Thermometers als objektives Messverfahren zur Temperaturbestimmung möglich wurde. Temperaturskalen wurden von Gabriel Fahrenheit (1686-1736), René Antoine Ferchault de Réaumur (1683-1757), Anders Celsius (1701-1777) und die absolute Temperaturskala (mit der tiefstmöglichen Temperatur 0 Kelvin = –273,15 °C) von Lord Kelvin (1824-1907) eingeführt.

Robert Boyle (1627-1691), Edmé Mariotte (um 1620 bis 1684) sowie Louis Gay-Lussac (1778-1850) formulierten empirisch Gasgesetze, die das Verhalten von Druck, Temperatur und Volumen eines (idealen) Gases bestimmten und später von Amadeo Avogadro (1776-1856) mit Daltons Gesetz der einfachen und multiplen Proportionen zusammengefasst wurden. Avogadro betonte bereits den Unterschied zwischen Atomen und Molekülen. Dies ermöglichte 1884 Lord Kelvin die Einführung der absoluten Temperaturskala.

Obwohl gegen Ende des 17. Jahrhunderts ein Zusammenhang zwischen Wärme und Arbeit bereits diskutiert wurde, setzte sich lange Zeit die "Wärmestofftheorie" von Joseph Black (1728-1799) durch, dem Ersten, der streng zwischen Wärmemenge und Temperatur unterschied und auf den auch die Begriffe Wärmekapazität und latente Wärme zurückgehen. Mit dem hypothetischen Wärmestoff "calorique", einer elastischen Flüssigkeit, deren Teilchen sich gegenseitig abstoßen und jedem Körper mit verschiedener Affinität anhaften sollten, konnte eine Vielzahl von Phänomenen erklärt werden, insbesondere der Temperaturausgleich sich berührender Körper und die Wärmestrahlung. Die mathematischen Gesetzmäßigkeiten der Ausbreitung des Wärmestoffes, die auch heute noch gültig sind, wurden insbesondere von Jean Baptiste Joseph Fourier (1768-1830) aufgestellt und untersucht. Die dabei verwendeten Techniken waren enorm befruchtend für die Mathematik. Pièrre Simon Laplace (1749-1827) leitete aus der Wärmestofftheorie Zustandsgleichungen für Gase ab, die ebenfalls noch heute gültig sind. James Watt (1736-1819) und Sadi Carnot (1796-1832) beschäftigten sich mit dem Wirkungsgrad von Wärmekraftmaschinen. Carnot fand dabei die korrekte Formel, die nur von den Temperaturen der beiden Wärmereservoirs abhängt, obwohl auch er von einer Erhaltung der Wärmestoffmenge ausging.

Ein großer Schwachpunkt der Wärmestofftheorie war die ungenügende Erklärung der Reibungswärme, die bei starkem Reiben durch Ausfluss des Wärmestoffes aus dem Körper entstehen sollte. Benjamin Thompson (1753-1814), der spätere Lord Rumford, fand beim Bohren von Kanonenrohren, dass die von den Bohrern erzeugte Wärme ungefähr proportional zur aufgewendeten mechanischen Arbeit ist und daher unmöglich der Ausfluss eines in dem Körper vorher vorhandenen Wärmestoffes sein kann. Obwohl diese Argumentation heute als zwingendes Argument gegen die Existenz eines Wärmestoffes und für die Gleichheit von Wärme und ungeordneter mechanischer Energie angesehen wird, dauerte es noch längere Zeit, bis die Anhänger der Wärmestofftheorie sich überzeugen ließen oder starben.

Damit war der Weg geebnet für eine präzise Formulierung des Energieerhaltungssatzes: Bei einem thermodynamischen Prozess geht keine Energie verloren, sondern mechanische Arbeit und Wärme werden ineinander umgewandelt. Der Energieerhaltungssatz wird gewöhnlich mit den Namen Julius Mayer (1814-1878), James Prescott Joule (1818-1889) und Hermann von Helmholtz (1821-1894) in Verbindung gebracht. Das thermische Äquivalent zur mechanischen Energie wurde experimentell von James Joule bestimmt.

Es wurde aber auch bald erkannt, dass zwar mechanische Arbeit jederzeit vollständig in Wärme umwandelbar ist, aber nicht umgekehrt. Rudolf Clausius (1822-1888) fand, dass zur Erklärung der thermodynamischen Phänomene der Energieerhaltungssatz nicht ausreicht. Wärme fließt immer vom heißeren zum kühleren Körper, obwohl auch der umgekehrte Prozess die Energieerhaltung nicht verletzen würde. Diese Einsicht wird in Form des 2. Hauptsatzes der Thermodynamik als neues Gesetz der Physik erkannt: Wenn keine Arbeit aufgewendet wird, kann Wärme nur von Warm nach Kalt fließen. Daraus folgt, dass in geschlossenen Systemen Temperaturdifferenzen ausgeglichen werden. Eine allgemeinere Formulierung besagt, dass in einem abgeschlossenen System die Entropie immer zunimmt und nur bei reversiblen Prozessen gleich bleibt. Entropie war dabei eine Größe, die wie Druck, Energie und Temperatur den makroskopischen Zustand eines Gases festlegte. Die Entropie konnte von Clausius mathematisch gefasst werden, aber ihre physikalische Bedeutung war zunächst unklar.

Rudolf Clausius, James Clerk Maxwell (1831-1879), Lord Kelvin und Ludwig Boltzmann (1844-1906) entwickelten die kinetische Gastheorie. Mit der einfachen Annahme, dass sich Gase aus einzelnen frei fliegenden Atomen zusammensetzen, die aneinander stoßen, sowie plausiblen statistischen Annahmen gelang es, die bereits empirisch abgeleiteten Gasgesetze und den Energieerhaltungssatz aus einem mikroskopischen Modell abzuleiten.

Boltzmann konnte schließlich in einer wegweisenden Arbeit auch eine mikroskopische Erklärung der Entropie angeben. Er teilte die Menge der möglichen Orte der Gasteilchen in einzelne Zellen auf und zeigte, dass der Logarithmus der Anzahl der Mikrozustände (die Verteilung der Teilchenorte auf die einzelnen Zellen), die einem bestimmten makroskopischen Zustand entsprechen, zu dessen makroskopisch definierter Entropie proportional ist. Der Proportionalitätsfaktor heißt zu seinen Ehren Boltzmannfaktor.

Durch eine spezielle Wahl der Anfangsbedingungen, letztendlich des Universums, konnte er begründen, dass für abgeschlossene makroskopische Systeme die Entropie fast mit Sicherheit immer wächst (Wärmetod des Universums) oder bestenfalls gleich bleibt. Boltzmann zeigte auch quantitativ, dass die Wahrscheinlichkeit für die Abnahme der Entropie eines abgeschlossenen makroskopischen Systems astronomisch klein ist. Damit war zum ersten Mal ein physikalisches Gesetz angegeben, das in aller Deutlichkeit einen statistischen Charakter hatte, was unter Boltzmanns Zeitgenossen eine enorme Diskussion entfachte.

Boltzmann wurde insbesondere von zwei Seiten her attackiert. Der eine Bereich betraf die Atomhypothese. Es ist bemerkenswert, dass sich, obwohl schon der Atomismus in der Chemie durch Dalton wieder eingeführt war, in der Physik nun starke Widerstände, angeführt von Ernst Mach (1838-1916) und Wilhelm Friedrich Ostwald (1853-1932), gegen die Existenz von Atomen regten. In der Chemie wie in der Physik brauche man keine Atome und solle sie als unbewiesene und unbeweisbare Hypothese fallen lassen.

Der andere Bereich betraf die Irreversibilität. Henri Poincaré (1854-1912) und Ernst Zermelo (1871-1953) versuchten zu begründen, dass Boltzmanns Ableitung des 2. Hauptsatzes aus einer mikroskopischen Theorie ohne ausgezeichnete Zeitrichtung fehlerhaft sein müsse.

Heute besteht die Meinung, dass Boltzmann in beiden Bereichen recht hatte. Seine Arbeiten waren wegweisend für die heutige statistische Physik.

Optik

Die beständige Frage nach dem Wesen und dem Träger des Lichtes durchzieht die Physik bis heute: Ist Licht ein Teilchenstrahl oder ein Wellenphänomen?

Die Griechen hatten die Vorstellung, dass Licht ein (unendlich schneller) geradliniger Teilchenstrom ist, der vom Auge des Betrachters ausgeht. Das Wissen über das Licht ist zu Beginn des 17. Jahrhunderts im Wesentlichen noch das Gleiche gewesen, wie es bereits von Ptolemäus zusammengefasst worden war (z. B. Einfallswinkel gleich Ausfallswinkel).

Nach Vorarbeiten von Johannes Kepler (Totalreflexion) und vielen anderen wurde das Gesetz der Brechung von Lichtstrahlen von René Descartes (1596-1650) und Willebrordus Snellius (1580-1626) formuliert, das den Sinus von Einfalls- und Ausfallswinkel mit dem Brechungsindex in Beziehung setzt. In dichteren Stoffen, etwa Wasser, sollte allerdings nach Meinung von Descartes die Lichtgeschwindigkeit größer sein als in Luft. Pierre de Fermat (1601-1665) gelangte mit einem nach ihm benannten Variationsprinzip zu denselben Formeln, jedoch sollte sich das Licht in Wasser langsamer ausbreiten als in Luft, was aus heutiger Sicht korrekt ist. Olaf Roemer (1644-1710) konnte durch Beobachtung der Jupitermonde feststellen, dass die Lichtgeschwindigkeit endlich ist und bei etwa 300 000 Kilometern pro Sekunde liegt. Spätere Messungen der Lichtgeschwindigkeit wurden von Armand Fizeau (1819-1896) und Jean Foucault (1819-1868) um 1850 durchgeführt. Sie bestätigten, dass die Lichtgeschwindigkeit in Wasser kleiner ist als in Luft.

Die beiden großen Kontrahenten waren Newton und Huygens. Newton war ein glühender Verfechter einer Korpuskeltheorie des Lichtes und stimmte in vielen Details mit Descartes überein. Ein wichtiger Beitrag zur Optik bestand darin, mittels der Aufspaltung eines Sonnenstrahles in seine nicht mehr weiter zerlegbaren Spektralfarben nachzuweisen, dass in weißem Licht alle Farben enthalten sind (was Johann Wolfgang von Goethe [1749-1832] zeit seines Lebens bestritt; er betrachtete seine eigene Farbenlehre als sein eigentliches Hauptwerk). Damit erklärte Newton das Phänomen des Regenbogens, gelangte aber nicht zu einer einfachen Erklärung des neu entdeckten Phänomens der Doppelbrechung mancher Kristalle.

Parallel dazu wurde in Anlehnung an die Akustik von Robert Hooke (1635-1703) und vor allem Christian Huygens die Wellentheorie des Lichtes entwickelt. Ein strahlender Körper sollte nach dieser Theorie die Teilchen des "Äthers" anstoßen, einer hypothetischen unwägbaren Art von Flüssigkeit oder Gas, in dem sich diese Erregung wellenförmig ausbreitet. Das "Huygens’sche Prinzip" besagt, dass jedes der angestoßenen Ätherteilchen der Ursprung einer kugelförmigen Elementarwelle ist. Die Überlagerung dieser Elementarwellen bildet dann die Wellenfront, die sich geradlinig ausbreitet. Huygens gelang damit eine gültige Erklärung der Doppelbrechung, aber er gelangte nicht zu einer befriedigenden Theorie der Farben.

Für lange Zeit setzte sich die Auffassung Newtons durch. Die Formulierung des Interferenzprinzips für Licht von Thomas Young (1773-1829) und Arbeiten von Augustin Fresnel (1788-1827) bewirkten schließlich eine Ablösung der Newton’schen Teilchenoptik durch eine Verbesserung der Huygens’schen Wellentheorie. Das Interferenzprinzip besagt, dass sich die Wellentäler und Wellenberge in Abhängigkeit von ihrer Phasenbeziehung gegenseitig auslöschen oder verstärken. Augustin Fresnel gelang es, die von Newton beschriebenen "Newton’schen Ringe" und die hellen Stellen im Kernschatten einer Kugel als Interferenzerscheinung zu deuten. Die von Étienne Lois Malus (1775-1812) 1808 entdeckte Polarisation des reflektierten Lichtes wurde von Fresnel 1820 theoretisch beschrieben, wobei er Licht als transversale Schwingung erkannte, die also anders als der Schall senkrecht zur Ausbreitungsrichtung schwingt.

Ein großes Problem war der hypothetische "Äther", der Träger der Lichtwellen, denn die einzigen bekannten Körper, die transversale Schwingungen übertragen konnten, waren feste Körper, z. B. Kristalle. Damit bestand das Problem, warum der Äther keinerlei Auswirkungen auf die mechanische Bewegung von Körpern, etwa der Planeten, hatte.

Die Lösung dieses Problems wurde erst von Einstein gegeben, der den Äther als unbegründete Hypothese vollends aus der Physik verbannte.

Elektrodynamik und Elektromagnetismus

Elektrizität und Magnetismus waren im antiken Griechenland bekannt, wohl durch die Entdeckung der Ausrichtung von manchen Eisenerzen in Nord-Süd-Richtung und die Anziehungskraft, die von an Fellen geriebenem Bernstein (griechisch elektron) ausgeht.

Zunächst wurden die quantitativen Gesetze der Elektrostatik aufgestellt. Henry Cavendish (1731-1810) und Charles Auguste de Coulomb (1736-1806), nach dem das Gesetz benannt ist, entdeckten unabhängig voneinander das Gesetz der Anziehung und Abstoßung von elektrischen (und magnetischen) Ladungen: Die Kraft nimmt mit dem Quadrat der Entfernung ab und ist proportional zu beiden Ladungen, ganz analog dem Newton’schen Gravitationsgesetz. Die Untersuchung der Bewegung der Elektrizität wurde durch die Unterscheidung von Leiter und Nichtleiter von Stephen Gray (um 1666 bis 1736) und die Arbeiten von Benjamin Franklin (1706-1790), insbesondere zur elektrischen Natur des Gewitters, weiter vorangetrieben.

Nach Vorarbeiten von Luigi Galvani (1737-1798) wurde mit dem Säulenapparat von Alessandro Volta (1745-1827) eine kontrollierbare Quelle für konstante Gleichströme geschaffen, die Batterie.

Der erste Zusammenhang von Elektrizität und Magnetismus wurde 1819 von Hans Christian Oerstedt (1777-1851) entdeckt, der die Kraftwirkung eines stromdurchflossenen Leiters auf einen Magneten beobachtete. Jean Baptiste Biot (1774-1862) und Félix Savart (1791-1841), unter Mithilfe von Laplace, stellten dafür bereits 1820 ein quantitatives Gesetz auf. Ebenfalls 1820 entdeckte André Marie Ampère (1775-1836) das Gesetz für die wechselseitigen Kräfte zweier stromdurchflossener Leiter. Georg Simon Ohm (1787-1854) fand schließlich die allgemeinen Gesetze der Stromleitung.

In den nächsten 25 Jahren war Michael Faraday (1791-1867) äußerst produktiv: 1831 entdeckte er die Induktionswirkung elektrischer Ströme und Magnete (die Grundlage des Elektromotors und des Dynamos) und 1834 quantitative Gesetze für chemische Wirkungen des elektrischen Stromes. Entscheidend war auch die Entdeckung der Drehung der Schwingungsebene des Lichtes durch Magnetfelder.

Faradays damals sehr unkonventionelle Vorstellungen von elektrischen und magnetischen Feldlinien wurden von James Clerk Maxwell (1831-1879), der zu den bedeutendsten theoretischen Physikern des 19. Jahrhunderts zählt, mathematisch präzise gefasst. Aus den Maxwell’schen Gleichungen, die 1862 aufgestellt wurden, folgte die Vorhersage von freien elektromagnetischen Wellen. Die Geschwindigkeit, mit der sich diese Wellen durch den Äther ausbreiten sollten, lag sehr nahe an dem damals bekannten Wert für die Lichtgeschwindigkeit. Damit war es naheliegend, dass Licht und auch Wärmestrahlung nichts anderes sind als solch eine freie elektromagnetische Welle. 1886 konnte Heinrich Hertz (1857-1894) mit der ersten drahtlosen Funkverbindung eindrucksvoll die Maxwell’sche Theorie bestätigen.

Die Entdeckung der negativen Kathodenstrahlen bei Versuchen an stromdurchflossenen Gasen von Eugen Goldstein (1850-1930) 1876 und der positiven Kanalstrahlen 1886 führte Jean-Baptiste Perrin (1870-1942), Sir Joseph John Thomson (1856-1940), Wilhelm Wien (1864-1928) und Philipp Lenard (1862-1947) zur Entdeckung, dass die Kathodenstrahlen negative Teilchen mit etwa 1/2000 der Masse des Wasserstoffatoms sind. 1894 begründete George Johnstone Stoney (1826-1911) für diese Teilchen den Begriff Elektronen. Die Ladung eines einzelnen Elektrons wurde von Robert Millikan (1868-1953) in einer Reihe von Messungen zwischen 1910 und 1916 bestimmt.

Die klassische Elektrodynamik erreichte mit der Elektronentheorie von Hendrik Antoon Lorentz (1853-1928) ihren Kulminationspunkt, in der die Wechselwirkung der vom Äther getragenen elektromagnetischen Wellen mit punktförmigen Ladungen beschrieben wurde. Daraus konnten die in der Maxwell’schen Theorie vorkommenden Materialkonstanten und auch die Fresnel’schen Formeln aus einer mikroskopischen Theorie berechnet werden.

Damit war nun eine Vereinheitlichung von Optik, Elektrizität, Magnetismus und Mechanik geschaffen. (Dem jungen Max Planck wurde mit dem Hinweis vom Physikstudium abgeraten, dass die Vollendung einer vollständigen physikalischen Weltbeschreibung schon in greifbarer Nähe sei.) Ehe diese Theorie aber zur Vollendung gebracht werden konnte, haben die auf ihrer Grundlage geplanten Experimente Hinweise auf die Widersprüchlichkeit des gesamten Konzepts erbracht, die letztendlich zur Entdeckung der Relativitätstheorie und der Quantentheorie führten.

Zusammenbruch der klassischen Physik

Die Gründe für den Zusammenbruch der klassischen Physik sind vielfältig. Ein Bereich betraf die Strahlung stromdurchflossener Gase, die Licht nur in bestimmten Wellenlängen emittierten. Auch die bereits 1816 von Josef von Fraunhofer (1787-1826) entdeckten Lücken im Sonnenspektrum waren unerklärt, obwohl man erkannt hatte, dass chemische Substanzen anhand ihres Spektrums bestimmt werden können. Gustav Robert Kirchhoff (1824-1887) und Robert Wilhelm Bunsen (1811-1899) hatten um 1859 die Spektralanalyse und Spektroskopie entwickelt.

Kirchhoff begründete unter Anwendung des 2. Hauptsatzes der Thermodynamik, dass das Verhältnis von Absorptions- und Emissionsvermögen für Licht unabhängig vom Material des Körpers ist und damit die Strahlung eines vollständig absorbierenden schwarzen Körpers eine universelle Größe sein muss. Josef Stefan (1835-1893), Ludwig Boltzmann (1844-1906), James Jeans (1877-1946), Wilhelm Wien (1864-1928), Lord Rayleigh (1842-1919) und Max Planck (1858-1947) versuchten, die Frequenz- und Temperaturabhängigkeit der Strahlungsintensität eines schwarzen Körpers zu berechnen. Die Gesetze von Rayleigh-Jeans konnten allerdings nur den Bereich niedriger Frequenzen, die von Wien nur den Bereich hoher Frequenzen mit dem beobachteten Spektrum in Einklang bringen. Max Planck stellte eine Interpolationsformel auf, die zwar hervorragend das gesamte Spektrum beschrieb, fand aber dafür zunächst keine Begründung im Rahmen der klassischen Physik.

1899 entdeckte Philipp Lenard (1862-1947) den photoelektrischen Effekt: Ultraviolette Strahlung kann aus Leitern Elektronen herausschlagen. Die Anzahl der emittierten Elektronen hängt dabei nicht von der Frequenz des eingestrahlten Lichtes ab, sondern ist proportional zur Intensität. Die Energie der herausgeschlagenen Elektronen erwies sich als proportional zur Lichtfrequenz und unabhängig von der Intensität. Die klassische Theorie konnte jedoch diese quantitativen Ergebnisse nicht reproduzieren.

Conrad Wilhelm Röntgen (1845-1923) entdeckte beim Beschuss einer Metallplatte mit schnellen Elektronen die Röntgenstrahlen (1895). 1912 zeigte Max von Laue durch Interferenzversuche von Röntgenstrahlen an Kristallen, dass diese elektromagnetische Wellen mit sehr kurzer Wellenlänge sind, doch zunächst war die Natur dieser Strahlen unklar.

1896 entdeckte Henri Becquerel (1852-1908) radioaktive Strahlung. Bei Versuchen zur Fluoreszenz von Uransalzen im Sonnenlicht entdeckte er die schwärzende Wirkung von Uransalzen auf eine in schwarzes Papier gewickelte Photoplatte und führte dies auf die durchdringende Kraft von neuartigen "Uranstrahlen" zurück. Das Ehepaar Marie Curie (1867-1934) und Pierre Curie (1859-1906) isolierte daraufhin die radioaktiven Stoffe Polonium und Radium. Ernest Rutherford (1871-1937) unterschied die radioaktiven Strahlen, die eine sehr unterschiedliche Durchdringungskraft zeigen, nach ihrer Ablenkbarkeit in Magnetfeldern in a-Strahlen (später als Strahl ionisierter Heliumkerne erkannt), b-Strahlen (später als Elektronenstrahlen erkannt) und g-Strahlen (später als elektromagnetische Strahlung extrem kurzer Wellenlänge erkannt). Die Entstehung und Natur dieser verschiedenen Strahlungsarten lag zunächst jedoch völlig im Dunkeln.

Zur Erklärung der unerwartet hohen Rückstreuung beim Beschuss von Metallfolien mit a-Strahlen führte Ernest Rutherford (1871-1937) 1911 ein neues Atommodell ein, das das Modell von Joseph John Thomson (1856-1940), dem zufolge positive und negative Ladungen im Atom gleichmäßig durchmischt sind, ablöste: Ein winziger positiver Kern sitzt im Zentrum eines Atoms, der von Elektronen in großer Entfernung umkreist wird. Diese Elektronen müssten allerdings nach der klassischen Theorie von Maxwell und Lorentz Energie in Form von elektromagnetischen Wellen abstrahlen und innerhalb kürzester Zeit in den Kern stürzen.

Jeder Versuch, Bewegungen relativ zu dem Äther, dem Träger der elektromagnetischen Wellen, zu messen, scheiterte. Das berühmteste Experiment in diesem Zusammenhang ist der Versuch zur Messung des Ätherwindes, der durch die Bewegung der Erde relativ zu dem ruhenden Äther zustande kommen sollte. Albert Michelson (1852-1931) fand 1881 und 1887 zusammen mit Edward Morley (1838-1923) in Interferenzversuchen nicht die erwartete Verschiebung der Interferenzstreifen. Um diesen Effekt zu erklären, wurde zunächst vermutet, dass der Ätherwind erst in großen Höhen über der Erdoberfläche stark genug ist, doch auch Versuche in einem Ballon gaben ein negatives Resultat.

J. J. Thompson entdeckte 1881, dass sich geladene Teilchen umso mehr einer Beschleunigung widersetzten, je schneller sie sich bewegen, und man vermutete eine Geschwindigkeitsabhängigkeit der Masse und stellte damit die Gültigkeit der klassischen Mechanik in Frage.

Moderne Physik

Der Beginn der modernen Physik kann auf zwei Problemkreise der klassischen Physik gegründet werden: große Geschwindigkeiten und kleine Abstände, die der Startpunkt für die Relativitätstheorie bzw. die Quantentheorie waren.

Relativitätstheorie

Spezielle Relativitätstheorie

Die Auflösung der Krise, in der die klassische Elektrodynamik am Beginn des 20. Jahrhunderts steckte, wurde von einer Reihe von Physikern eingeleitet. Der Äther wurde zunächst als Träger der elektromagnetischen Wellen und auch als Manifestation des Newton’schen absoluten Raumes angesehen. Lorentz und George Fitzgerald (1851-1901) schlugen zur Erklärung des negativen Ausgangs des Michelson-Morley-Experiments vor, dass sich Körper, die sich gegenüber dem Äther bewegen, in Bewegungsrichtung verkürzen, und stellten dafür eine Transformationsformel auf. Man erkannte, dass durch eine ähnliche Transformation der Zeitkoordinate die Maxwell’schen Gleichungen in ihrer Form invariant, d. h. unverändert blieben. Diese Transformation auf neue Koordinaten, später Lorentz-Transformation genannt, wurde allerdings zunächst als rein mathematisches Hilfsmittel betrachtet. Henri Poincaré (1854-1912) baute auf die Arbeiten von Lorentz auf und erkannte, dass die Lorentz-Transformation als Drehung in einem vierdimensionalen "Raum", bestehend aus Raum und Zeit, aufgefasst werden kann. Er hielt aber trotzdem an der absoluten Raum-Zeit fest.

Es blieb Albert Einstein (1879-1955) vorbehalten, die bereits in wesentlichen Zügen bestehende mathematische Ausarbeitung physikalisch zu deuten. Beeinflusst durch die positivistische Erkenntnistheorie Ernst Machs, die er allerdings später heftig kritisierte, gelangte er 1905 durch eine tief greifende Kritik der Begriffe von Raum und Zeit zu der Auffassung, dass Raum und Zeit nicht, wie von Newton begründet, absolut sind, sondern vom Bewegungszustand des Beobachters abhängen.

Aus dem von ihm zum Grundprinzip erhobenen Satz, dass alle gleichförmig zueinander bewegten Systeme physikalisch gleichwertig sein sollten, und dem Postulat, dass jeder Beobachter unabhängig von seinem Bewegungszustand immer denselben Wert für die Lichtgeschwindigkeit misst, gelangte er zu einer neuen und einfachen Ableitung der Transformationsgesetze von Lorentz. Verschiedene relativ zueinander bewegte Beobachter können daher nach Einstein völlig gleichberechtigt für ein Ereignis verschiedene Zeiten (Zeitdilatation) und auch verschiedene Längen für denselben Körper (Längenkontraktion) angeben, ohne dass dabei Widersprüche auftreten. Die als unumstößlich angesehene Newton’sche absolute Gleichzeitigkeit und die Vorstellung eines ruhenden Äthers wurden damit aufgegeben. Einstein begründete, dass jede Energie auch eine träge Masse besitzt, was in der berühmten Gleichung E = mc2 zum Ausdruck kommt. Poincaré betonte die Notwendigkeit einer neuen, unter der neuen Raum-Zeit-Transformation invarianten Mechanik, welche dann von Planck 1906 aufgestellt wurde. Es zeigte sich, dass die Newton’schen Bewegungsgleichungen Näherungen für die relativistischen Gleichungen darstellen, die umso besser sind, je kleiner die Geschwindigkeiten verglichen mit der Lichtgeschwindigkeit sind. Max von Laue (1879-1960) führte die Überlegungen Einsteins weiter und zeigte, dass bei der vierdimensionalen Formulierung der Elektrodynamik elektrische und magnetische Felder zu einer Einheit verschmelzen, dem elektromagnetischen Feldtensor, dessen Aufteilung in Magnetfeld und elektrisches Feld von der Bewegung des Beobachters abhängt. Dieses Objekt existiert im vierdimensionalen Raum-Zeit-Kontinuum und braucht keinen Äther, um sich auszubreiten.

Eine beeindruckende Bestätigung der Relativitätstheorie bestand in der Beobachtung der Zeitdilatation, die 1915/16 durch die Untersuchung der Lebensdauer von Mesonen in der Höhenstrahlung erbracht wurden. Diese Mesonen zerfallen aufgrund ihrer hohen Geschwindigkeit für Beobachter auf der Erde langsamer als ruhende Mesonen.

Allgemeine Relativitätstheorie

Einstein selbst empfand es als unbefriedigend, dass in der speziellen Relativitätstheorie zu den Fixsternen gleichförmig bewegte Bezugssysteme eine ausgezeichnete Rolle spielen. Er erhob es zum Prinzip, dass beliebig zueinander bewegte Bezugssysteme physikalisch gleichwertig sein sollten. Die Einsicht, dass die Effekte in einem beschleunigten Bezugssystem physikalisch nicht von dem Einwirken einer Gravitationskraft zu unterscheiden sind, führte ihn zu der Aufstellung der empirisch mit großer Genauigkeit bestätigten (Loránd Eötvös, 1848-1919) Gleichheit von träger und schwerer Masse als Axiom. Weiter verfolgte er die eher metaphysische Erwägung, dass die Raum-Zeit nicht einfach die Arena für die Bewegungen der Materie sein sollte, sondern die Materie ihrerseits auf die Raum-Zeit zurückwirken sollte. Es gelang ihm, diese Ideen mathematisch auszudrücken, wobei ihm frühere Arbeiten von Georg Friedrich Bernhard Riemann (1826-1866) zur nichteuklidischen Geometrie (1854) und die Mitarbeit von Marcel Grossmann (1878-1936) von großer Hilfe waren. 1915 formulierte er die Grundgleichungen der allgemeinen Relativitätstheorie, in der die Materie die Krümmung der Raum-Zeit bestimmt, die wiederum die Bewegung der Materie festlegt. Damit lag eine allgemeine Kovarianz der Naturgesetze auch in beschleunigten Bezugssystemen vor. Die Newton’sche Mechanik erschien wieder als gute Näherung für kleine Geschwindigkeiten und kleine Gravitationsfelder.

Als Folge der Gleichbehandlung von Materie und Energie sollten auch die eigentlich masselosen Lichtstrahlen von Gravitationsfeldern abgelenkt werden. Diese Ablenkung wurde wenig später auf einer von Sir Arthur Stanley Eddington (1882-1944) geleiteten Expedition zum Äquator bei einer Sonnenfinsternis, in sehr guter Übereinstimmung mit dem vorhergesagten Wert, bestätigt. Eine weitere Bestätigung war die Erklärung der mit der klassischen Theorie unverträglichen Größe der Periheldrehung des Merkurs, für dessen Bewegung die Abweichungen zur Newton’schen Mechanik aufgrund seiner hohen Geschwindigkeit besonders groß sind. Heute erlauben es die enormen Ganggenauigkeiten von Atomuhren, die unterschiedlich schnell verlaufende Zeit in Abhängigkeit von der Höhe über dem Meeresboden direkt zu messen.

Einstein wandte seine Theorie auch auf das Weltall als Ganzes an. Unter der vereinfachenden Annahme einer kontinuierlichen und isotropen Materieverteilung gelang es ihm, die komplizierten Gleichungen zu lösen. Allerdings fand er keine statischen Lösungen, die ein zeitlich ewiges Weltall beschreiben würden. Dies gelang ihm erst nach Einführung einer "kosmologischen Konstanten" in seine Gleichungen. Diese Korrektur ist von ihm selbst als "größter Fehler meines Lebens" bezeichnet worden: Die Entdeckung der Rotverschiebung der entfernten Galaxien und (später) der Hintergrundstrahlung zeigten, dass sich das Weltall mit großer Geschwindigkeit ausdehnt, genau wie es die Gleichungen ohne kosmologische Konstante vorhersagen (siehe den Abschnitt Astrophysik).

Quantentheorie

Die Vorphase

Die Geburtsstunde der Quantentheorie wird meist mit einer Entdeckung Max Plancks im Jahr 1900 angesetzt. Er konnte die Formel für die Strahlungsverteilung eines schwarzen Körpers unter der Annahme ableiten, dass die Schwingungsenergie der Atome des Körpers nur diskrete Werte annehmen kann.

Einstein griff diese Idee auf und wandte sie auch auf das Licht selbst an, das aus diskreten "Quanten" bestehen sollte, die von den Atomen emittiert und absorbiert werden können. Die Energie der Quanten (oder auch "Photonen") eines Lichtstrahles der Frequenz u ist dabei h/u; wobei die Proportionalitätskonstante h das Planck’sche Wirkungsquantum ist. Mit dieser "Lichtquantenhypothese" gelang ihm eine sehr einfache Ableitung des Planck’schen Strahlungsgesetzes (was später für die Entwicklung des Lasers von großer Bedeutung war) wie auch eine Erklärung des Photoeffekts. Er vermutete, dass die elektromagnetischen Felder Führungsfelder für die punktförmigen Lichtteilchen, die Photonen, sind. Die Aufenthaltswahrscheinlichkeit der Photonen sollte dabei durch die Energiedichte des Feldes bestimmt sein. Es gab zwar keine präzise Theorie für diese Vorstellung, aber sie stellte sich als enorm fruchtbar für die weitere Entwicklung heraus.

Ein weiterer bedeutender Beitrag Einsteins war die Erklärung der Brown’schen Bewegung durch die von Ludwig Boltzmann vertretene Atomhypothese, indem er die irreguläre Bewegung kleiner Teilchen in einer Flüssigkeit durch die unregelmäßigen Stöße der umgebenden Atome und Moleküle erklärte und auch quantitativ beschreiben konnte. Die in dieser Arbeit verwendeten Methoden waren richtungweisend für die heutige Disziplin der statistischen Physik. Es gibt mittlerweile noch viel deutlichere "Beweise" für die Existenz von Atomen (z. B. Geigerzähler, die einzelnen Spuren von Elementarteilchen in einer Nebelkammer, die mit Rastertunnelmikroskopen erstellten "Bilder" einzelner Atome auf einer Kristalloberfläche), und es ist heute sogar möglich, einzelne Atome in einer "Falle" zu fangen und über lange Zeit zu beobachten. Dennoch ließ die weitere Entwicklung der Quantentheorie, insbesondere die Kopenhagener Deutung, wieder Zweifel an der realen Existenz von Atomen aufkommen.

Quantenmechanik, Atom- und Molekülphysik

Niels Bohr (1885-1962) schlug 1913 eine Verbesserung des Rutherford’schen Atommodells vor, in der die Elektronen den Kern nur auf ausgewählten Kreisbahnen umlaufen sollen und beim Sprung zwischen diesen Bahnen Photonen aufnehmen oder abgeben. Damit gelang ihm die Ableitung der bereits empirisch bekannten Formeln für die Spektrallinien des Wasserstoffatoms. Dieses Modell wurde von Arnold Sommerfeld (1868-1951) durch ellipsenförmige Elektronenbahnen weiter verfeinert. Die Erweiterung dieses Konzepts auf kompliziertere Atome gestaltete sich jedoch sehr problematisch.

Einen wesentlichen Schritt leistete Louis de Broglie (1892-1981): In Anlehnung an Einsteins Vorschlag der Teilcheneigenschaft von Lichtwellen vermutete er eine Welleneigenschaft der Materie. Er schlug eine "Materiewelle" vor, die die Bewegung der punktförmigen Elektronen bestimmen soll. Interferenzerscheinungen von Teilchenstrahlung wurden 1927 experimentell eindrucksvoll von Clinton Davisson (1881-1958) und Lester Germer (1896-1971) durch Beugungsversuche mit Elektronen und Atomen an Kristallen bestätigt.

Einen völlig anderen Ansatz zur Klärung der Quantenphänomene verfolgte Werner Heisenberg (1901-1975), der abstrakte Rechenregeln zur Bestimmung des Spektrums angab. Dieser Ansatz wurde von Heisenberg, Max Born (1882-1970) und Pascual Jordan (1902-1980) zur so genannten Matrizenmechanik ausgebaut.

Erwin Schrödinger (1887-1961) knüpfte hingegen an die Ideen de Broglies an und entwickelte die Wellenmechanik als eine mathematisch präzise Theorie für das Raum-Zeit-Verhalten der de Broglie’schen Materiewellen, das durch die so genannte Schrödinger-Gleichung beschrieben wird. Er konnte wenig später zeigen, dass auf der Ebene der Beobachtungen die Wellenmechanik und die Matrizenmechanik äquivalent sind. Die physikalische Bedeutung der Schrödinger’schen Wellen wurde, inspiriert durch die Führungsfeldidee Einsteins, von Max Born 1927 bei der theoretischen Untersuchung von Streuprozessen vorgeschlagen: Das Betragsquadrat der Wellenfunktion gibt die Aufenthaltswahrscheinlichkeit der Punktteilchen an, während die Wellenfunktion selbst irgendwie die Bewegung der Teilchen bestimmt.

Heisenberg zeigte mit seiner berühmten Unschärferelation, dass man Ort und Impuls eines Elektrons nie gleichzeitig genau messen kann, und folgerte daraus, dass sich Teilchen nicht auf Bahnen bewegen können. Bohr entwickelte das so genannte Komplementaritätsprinzip und begründete, dass je nach Experiment einmal der Wellenaspekt und einmal der Teilchenaspekt zum Tragen kommt. Ein einheitliches und widerspruchsfreies Verständnis der Natur sei unmöglich. Diese Argumentation wurde gestützt durch Arbeiten von John von Neumann (1903-1957), der begründete, dass es mathematisch unmöglich sei, "verborgene Parameter" zu finden, die ein deterministisches und widerspruchsfreies Verständnis der Quantenphänomene erlauben würden.

Unbeeindruckt von den Bemühungen um die Klärung der Grundlagen der neuen Quantentheorie, machten die Experimentalphysik und die Anwendungsbreite der Quantentheorie enorme Fortschritte. So gelang eine lückenlose Einordnung der chemischen Elemente nach Spektrallinien. Samuel Goudsmith (1902-1978) und George Uhlenbeck (1900-1988) führten dazu den Elektronenspin ein, der wenig später von Wolfgang Pauli (1900-1958) als eine Art Rotation des Elektrons um seine Achse theoretisch erklärt und von Otto Stern (1888-1969) und Walter Gerlach (1889-1979) im Experiment direkt nachgewiesen wurde. Das Pauli’sche Ausschließungsprinzip besagt, dass nie zwei Elektronen im selben Quantenzustand sein können. Dies wurde später auf alle Teilchen mit halbzahligem Spin (Fermionen) ausgedehnt und gilt nicht für Teilchen mit ganzzahligem Spin (Bosonen), die in beliebiger Anzahl denselben Quantenzustand besetzen können.

Große Fortschritte wurden auch im Verständnis der komplizierten Spektren von größeren Molekülen erzielt.

Vollständigkeit und Nichtlokalität

Vor allem Einstein und Schrödinger wollten sich mit der aufblühenden Quantenmechanik und ihren radikalen erkenntnistheoretischen Konsequenzen, welche die von Bohr und Heisenberg entwickelte "Kopenhagener Deutung" mit sich brachte, nicht anfreunden.

Nachdem Einstein von seiner Kritik an der Gültigkeit der Quantentheorie abgelassen hatte, schufen er, Boris Podolski und Nathan Rosen mit dem Gedankenexperiment des "EPR-Paradoxons" ein bis heute viel diskutiertes Argument gegen die Vollständigkeit der quantentheoretischen Beschreibung. In eine ähnliche Richtung ging das Gedankenexperiment der "Schrödinger’schen Katze". Die Diskussion um das damit exemplifizierte Problem des "Kollapses" der Wellenfunktion bzw. des Messprozesses wird in jüngster Zeit wieder in wachsendem Umfang geführt.

David Bohm (1917-1992) gelang es 1952, eine Vervollständigung der (nichtrelativistischen) Quantenmechanik anzugeben und auszuarbeiten, die eng verwandt mit der de Broglie’schen Führungsfeldtheorie und den ursprünglichen Vorstellungen Borns ist. In der Bohm’schen Mechanik bewegen sich alle Teilchen entlang Bahnen, die durch ein einfaches Gesetz von der Wellenfunktion bestimmt werden. Bohm gelang es, die Quantenmechanik als Theorie abzuleiten, und er erkannte die bemerkenswerte Eigenschaft der Nichtlokalität: Wirkungen können sich über beliebige Entfernungen ohne Zeitverzögerung bemerkbar machen.

Die Beweise für die Unmöglichkeit einer deterministischen Formulierung der Quantenmechanik und die Nichtlokalität wurden erst zehn Jahre später von John Stewart Bell (1928-1990) näher untersucht. Er konnte einerseits zeigen, dass die verschiedenen Beweise, die eine Theorie wie jene von Bohm ausschlossen, nicht richtig waren. Andererseits fand er, dass schon in den quantenmechanischen Regeln selbst die Nichtlokalität verborgen ist. Er schlug Experimente vor, um diese Nichtlokalität experimentell nachzuweisen. Dies gelang 1982 Alain Aspect, der die Korrelationen der Polarisation von Photonenpaaren untersuchte. Diese Experimente wurden in verschiedener Form wiederholt, und das Phänomen der Nichtlokalität wird zunehmend als der entscheidend neue Zug der Quantentheorie angesehen. Fernwirkungen befriedigend mit der Relativitätstheorie zu verknüpfen ist allerdings bisher noch nicht gelungen.

Kernphysik

Neben der Atomphysik wandte man sich in den dreißiger Jahren verstärkt der Quantentheorie der Atomkerne zu: der Kernphysik.

Der Begriff "Proton" für den Atomkern des Wasserstoffes wurde 1920 von Rutherford geprägt, der auch bald die Anwesenheit von neutralen Partnern, den "Neutronen", in den Atomkernen vermutete. Das Neutron konnte 1932 von Sir James Chadwick (1891-1974) experimentell nachgewiesen werden.

Allmählich begann man die Möglichkeit einer Umwandlung der chemischen Elemente durch Zerfall der Atomkerne ins Auge zu fassen. Lange Zeit unverstanden war die kontinuierliche Verteilung der Energien der in der b-Strahlung auftretenden Elektronen, weil Kerne mit wohl definierter Energie ähnlich wie Atome ein diskretes Spektrum besitzen sollten. Dies schien dem Energieerhaltungssatz zu widersprechen, dessen Gültigkeit Bohr auch in Frage stellte. Enrico Fermi (1901-1954) postulierte Anfang der dreißiger Jahre (ähnlich auch schon Pauli 1927) die Existenz eines neuen Teilchens, das beim Zerfall des Neutrons entstehen sollte, um die Erhaltungssätze zu retten, und man nannte dieses hypothetische Teilchen "Neutrino" (italienisch: kleines Neutron). Das Neutrino wurde erst 1955 unter großem experimentellem Aufwand von Frederic Reines (*1918) und George Cowan (*1920) nachgewiesen. Fermis Theorie des b-Zerfalls verwendet den Begriff "schwache Wechselwirkung", um die relative Schwäche dieser neuen Kraft im Vergleich zum Elektromagnetismus anzudeuten.

Ein zentrales Problem der Kernphysik bestand darin, den Zusammenhalt der sich wechselseitig elektrostatisch abstoßenden positiv geladenen Protonen auf engstem Raum zu erklären. Von Edward Condon (1902-1974) und George Gamow (1909-1968) wurde dazu die Existenz einer Kernkraft mit kurzer Reichweite postuliert. Mit der Entdeckung des Tunneleffekts (1928) konnten sie dann auch die Energieverteilung der a-Strahlung besser begründen. Die allgemeine Theorie der Kernkräfte wurde von Hideki Yukawa (1907-1981) gegeben, nach welcher der Austausch von massiven Teilchen, heute Mesonen genannt, die Kernkraft vermittelt, ähnlich wie die masselosen Photonen für die langreichweitigen elektromagnetischen Kräfte verantwortlich gemacht werden.

Auf der Suche nach diesen Mesonen entdeckten Carl David Anderson (1905-1991) und Seth Henry Neddermeyer (*1907) 1937 ein neues Teilchen in der kosmischen Strahlung, das sich allerdings als schwerer Partner des Elektrons herausstellte und heute Myon genannt wird. Der dritte, viel später entdeckte und noch schwerere Bruder des Elektrons heißt Tauon. Die "richtigen" Mesonen, genannt p ±-Mesonen, wurden erst 1947 von Césare Lattes (*1924), Giuseppe Occhiallini (*1907) und Cecil Powell (1903-1969) gefunden.

Dem Ehepaar Curie gelang es 1933/34, den ersten künstlichen radioaktiven Atomkern zu erzeugen. Enrico Fermi gelang es, durch Neutronenbeschuss schwerere Elemente als Uran, so genannte Transurane, herzustellen. Otto Hahn (1879-1968), Fritz Strassmann (1902-1980), Lise Meitner (1902-1980) und Otto Frisch (1904-1979) stellten bei ähnlichen Versuchen unerwarteterweise fest, dass es ihnen offenbar gelungen war, durch Neutronenbeschuss Urankerne zu spalten.

Es wurde bald klar, dass bei der Uranspaltung weitere Neutronen – im Mittel 2,5 pro Spaltung – entstehen. Die Möglichkeit einer Kettenreaktion mit enormer Energiefreisetzung lag zu Beginn des 2. Weltkrieges damit bereits auf der Hand. Mit einem ungeheuren Aufwand gelang es einer Gruppe der besten Physiker, die während des 2. Weltkrieges in den USA arbeiteten, unter Leitung von Robert Oppenheimer (1904-1967) in Los Alamos die Atombombe zu entwickeln, die dann auch in Hiroshima und Nagaski 1945 eingesetzt wurde. Das deutsche Atombombenprojekt unter der Leitung von Heisenberg kam aus verschiedenen Gründen über die Anfänge nicht hinaus.

Hans Albrecht Bethe (*1906) beschäftigte sich insbesondere mit der Energieerzeugung in Sternen und zeigte, dass die Strahlungsenergie der Sonnen hauptsächlich aus einer Kernverschmelzung (Kernfusion) von Wasserstoff zu Helium stammt. Dieses Prinzip ist die Grundlage der Wasserstoffbombe, deren Entwicklung insbesondere von Edward Teller (*1908) vorangetrieben wurde. Die zur Zündung notwendige Energie stammt dabei von einer Atombombe. Die friedliche Nutzung in Form eines Fusionsreaktors wird bisher durch die technischen Probleme verhindert, den Brennstoff lange genug bei genügend großer Temperatur (ca. 100 Millionen °C) und hinreichender Dichte zu zünden und von den Wänden des Behälters fernzuhalten. Allerdings entstünden auch in Fusionsreaktoren radioaktive Abfälle.

Quantenfeldtheorie und Elementarteilchenphysik

Paul Adrian Dirac (1902-1984), Werner Heisenberg, Pascual Jordan (1902-1980), Wolfgang Pauli, Wladimir Aleksandrowitsch Fock (1898-1975) und Victor Weisskopf (*1908) entwickelten Ende der zwanziger Jahre durch Anwendung der quantenmechanischen Prinzipien auch auf das elektromagnetische Feld die "Quantenfeldtheorie". Dirac gelang es, eine relativistische Gleichung für das Elektron aufzustellen. Er fand Lösungen dieser "Dirac-Gleichung" auch mit negativer Energie und deutete diese als Antiteilchen der Elektronen, mit gleicher Masse, aber positiver Ladung. Dieses "Positron" wurde tatsächlich 1932 von Carl David Anderson (*1905) experimentell nachgewiesen. Heute geht man davon aus, dass es zu allen Elementarteilchen zugehörige Antiteilchen gibt. (Es konnte mittlerweile sogar ein "Anti-Wasserstoffatom" hergestellt werden.)

Die Quantenfeldtheorie wurde von Richard Phillips Feynman (1918-1988), S.-I. Tomonaga (1906-1979) und Julian Schwinger (*1918) weiterentwickelt. Insbesondere wurde der Umgang mit den häufig in Rechnungen auftretenden unendlich großen Ausdrücken mit der Renormierungstheorie geregelt. Die Quantenelektrodynamik, welche die Wechselwirkung von Elektronen mit Licht beschreibt, kam zu einer glänzenden Bestätigung: Der aus der Theorie berechnete Wert des magnetischen Moments des Elektrons stimmt auf mehr als zehn Dezimalstellen genau mit dem Experiment überein. Aus der Quantenelektrodynamik entwickelte sich die Quantenoptik und insbesondere die Laserphysik, die in den fünfziger und sechziger Jahren u. a. von Charles Townes (*1915) begründet wurde.

Die in immer größerer Zahl gefundenen "Elementarteilchen" (Hyperonen, Kaonen etc.) bestärkten bei manchen die Vermutung, dass auch Protonen und Neutronen aus kleineren Bestandteilen zusammengesetzt sein müssten. Diese Teilchen wurden von Murray Gell-Mann (*1929) 1964 "Quarks" getauft. Es gibt davon drei Familien (up und down, charm und strange, top und bottom), deren Mitglieder jeweils (minus) ein Drittel bzw. (plus) zwei Drittel der Ladung eines Elektrons besitzen. Sie wirken gegenseitig über den Austausch von bestimmten "Klebeteilchen", den Gluonen. Man bezeichnet diese Art von Kraft als "starke Wechselwirkung". Neutronen und Protonen bestehen aus drei, Mesonen aus je einem Quark und einem Anti-Quark. Die Kernkräfte Yukawas erscheinen damit als Resteffekte der starken Wechselwirkung und werden mit Mesonenwolken in Zusammenhang gebracht, die die Neutronen und Protonen umgeben.

1956 wurde von Tsung-Dao Lee (*1926) und Cheng Ning Yang (*1922) vorgeschlagen, dass beim b-Zerfall das zuvor für unantastbar gehaltene meta-physikalische Prinzip der "Paritätserhaltung" verletzt ist, nach dem zu jedem physikalischen Prozess auch sein Spiegelbild möglich sein sollte. Diese "Paritätsverletzung" wurde ein Jahr später von Chieng-Shiung Wu (*1912) experimentell bestätigt, die eine deutliche Vorzugsrichtung bei der Emission von Elektronen eines b-Strahlers in einem starken Magnetfeld beobachten konnte. Die Theorie des b-Zerfalls der Kerne wurde von Abdus Salam (*1926), Lee Sheldon Glashow (*1926) und Steven Weinberg (*1933) mit der elektromagnetischen Wechselwirkung zur "elektroschwachen Wechselwirkung" vereinheitlicht. Die von der Theorie vorhergesagten neuen Kraftteilchen (Eichbosonen), die massiven W pm-Bosonen und das elektrisch neutrale Z 0-Boson, konnten an einem der Teilchenbeschleuniger am europäischen Kernforschungszentrum CERN 1984 gefunden werden (Carlo Rubbia, *1934). Viele der heutigen Teilchenbeschleuniger (z. B. LEP und HERA) sind gigantisch vergrößerte Weiterentwicklungen des von Ernest Orlando Lawrence (1901-1958) 1930 entwickelten Zyklotrons, in dem geladene Teilchen auf vielen kreisförmigen Umläufen auf große Energien beschleunigt werden. Das so genannte Higgs-Boson, das gemäß dem Prinzip der "Eichinvarianz" für die Masse der Elementarteilchen verantwortlich gemacht wird, entzieht sich jedoch bisher hartnäckig dem experimentellen Nachweis.

Die Kombination der oben beschriebenen Theorien der elektroschwachen Wechselwirkung und der starken Wechselwirkung bezeichnet man auch als "Standardmodell" der Elementarteilchenphysik.

Dieses Standardmodell wird allgemein als ästhetisch unbefriedigend empfunden, da die starke und die elektroschwache Wechselwirkung nicht in einheitlicher Form erscheinen und die Gravitationswechselwirkung nur in klassischer Form auftaucht. So sucht man intensiv nach Abweichungen vom Standardmodell, die in eine neue Richtung weisen könnten.

Ein viel diskutierter, aber experimentell noch nicht bestätigter Ansatz ist die Supersymmetrie, die zu jedem Teilchen ein supersymmetrisches Partnerteilchen fordert. Theorien, die die starke und die schwache Wechselwirkung zu vereinen versuchen, bezeichnet man als "GUTs" (Grand Unified Theories). Die von solchen Theorien vorhergesagten Effekte (z. B. der Zerfall des sonst stabilen Protons) konnten noch nicht beobachtet werden. Ein anderer Ansatz sind die Stringtheorien, in denen alle Punktteilchen durch Schwingungszustände sehr kurzer "Fäden" ersetzt werden. Aus dieser Theorie, die auch als Kandidat einer Vereinheitlichung mit der allgemeinen Relativitätstheorie gehandelt wird, ergaben sich jedoch bisher keine experimentell zugänglichen Voraussagen.

Kondensierte Materie

Angefangen von quantentheoretischen Berechnungen der Wärmekapazität von Kristallen von Einstein und Peter Joseph Debye (1884-1966), wurden die Gesetze der Quantenmechanik konsequent auch auf feste Körper und Flüssigkeiten angewendet. Dabei gelangte man zu einem tieferen Verständnis des Phänomens der Phasenübergänge (z. B. Gefrieren von Wasser zu Eis) und allgemein der Selbstorganisation von Systemen vieler Teilchen. Bedeutende Entdeckungen waren die der Superfluidität, d. h. der reibungslosen Strömung extrem gekühlter (ca. 4 K) Flüssigkeiten, sowie der Supraleitung, d. h. der verlustfreien elektrischen Leitung von Elektronen besonders kalter Festkörper. Die Supraleitung wurde von Heike Kammerlingh Onnes entdeckt, dem zuvor auch die Verflüssigung von Helium gelungen war. John Bardeen (*1908), Leon Cooper (*1930) und John Robert Shrieffer (*1931) stellten dann eine Theorie der Supraleitung auf. Als Höhepunkt dieser Entwicklung kann die Entdeckung der "Hochtemperatursupraleitung" gelten, die teilweise sogar bereits bei der Temperatur flüssigen Stickstoffes (bei manchen Substanzen bei über 100 K) einsetzt, was lange Zeit als theoretisch ausgeschlossen betrachtet wurde. Für die Entdeckung der Hochtemperatur-Supraleitung erhielten J. G. Bednorz (*1950) und K. A. Müller (*1927) 1987 gemeinsam den Nobelpreis für Physik. Von enormer Tragweite erwies sich die Entwicklung des Bändermodells für die elektrische Leitung, u. a. als Startpunkt für das riesige Gebiet der Halbleiterphysik – Entwicklung des Transistors von Bardeen, Walter Brattain (1902-1987), William Bradford Shockley (*1910).

Kosmologie und Astrophysik

Die Kosmologie beschäftigt sich mit dem ältesten aller physikalischen Probleme, das schon das Denken der griechischen Antike bewegte: der Entstehung und Entwicklung unseres Universums. In keine andere Disziplin gehen so viele verschiede Zweige der Physik ein, insbesondere eine Kombination von Quantentheorie, allgemeiner Relativitätstheorie und Thermodynamik.

Der theoretische Rahmen der modernen Vorstellung von der Entstehung unseres Weltalls fußt auf der Einstein’schen allgemeinen Relativitätstheorie. Man nimmt an, dass das Universum vor etwa zehn bis 17 Milliarden Jahren in einem Urknall, dem "Big Bang", entstanden ist. 1929 wurde die Rotverschiebung der Spektrallinien im Licht weit entfernter Sterne von Edwin Powell Hubble (1898-1953) gemessen. Dies wird dadurch erklärt, dass sich Galaxien umso schneller von uns wegbewegen, je weiter sie entfernt sind. Interpoliert man diese Bewegungen in der Zeit zurück, kann man den Zeitpunkt der anfänglichen gigantischen Explosion abschätzen. 1965 entdeckten die Radioastronomen Arno Allen Penzias (*1933) und Robert Woodrow Wilson (*1936) eine sehr homogene Temperaturstrahlung von etwa 2,7 Kelvin im Hintergrund des Sternenhimmels, die man als Echo dieses Urknalls deutete.

Die Theorien der Stern- und Galaxienentstehung (Subrahmanyan Chandrasekhar [1910-1995], Hans Bethe und viele andere) sowie der Quasare und Pulsare entwickelten sich zusammen mit den enorm gesteigerten Beobachtungsmöglichkeiten durch Teleskope, die teilweise im Weltraum stationiert sind (Hubble-Teleskop, Röntgensatellit ROSAT). Man hat einige Objekte studiert, die als sichere Kandidaten für die theoretisch vorhergesagten "Schwarzen Löcher" gelten. Schwarze Löcher entstehen gemäß der allgemeinen Relativitätstheorie aus dem "Gravitationskollaps" von Sternen, die eine bestimmte Masse in der Größenordnung von mehreren Sonnenmassen überschreiten. Ihre Gravitation ist so stark, dass selbst Lichtstrahlen nicht von ihrer Oberfläche entweichen können.

Die Frage, ob unser Weltall "offen" oder "geschlossen" ist, d. h. ob es auf Ewigkeit expandieren wird oder ob es in einem "Big Crunch" sein Ende findet, wird mit Spannung untersucht. Noch deuten die Beobachtungen darauf hin, dass die Materiedichte nicht ausreicht, um das Weltall zu schließen. Eine experimentelle Stützung der Hypothese der "dunklen Materie" (dark matter), welche die Diskrepanz zwischen beobachteter Expansionsgeschwindigkeit und sichtbarer Materieverteilung erklären würde, könnte dies ändern. Große Hoffnungen werden zur Zeit in das Modell des "inflationären Universums" gesteckt, in dem man von einer enorm schnellen Ausdehnung des Universums in den ersten 10–35 Sekunden nach dem Urknall ausgeht.

Es ist nicht verwunderlich, dass bei einer solchen Extrapolation der Theoriengebäude wie bei der Kosmologie auch deren Grundlagen auf eine harte Probe gestellt werden. Insbesondere erscheint es notwendig, die Quantentheorie auf das Universum als Ganzes anzuwenden. Dies erweist sich als sehr problematisch, denn die Quantentheorie erlaubt in ihrer Standardform nur Wahrscheinlichkeitsaussagen über das Ergebnis von Messungen. In diesem Zusammenhang ist es zu verstehen, dass nun auch die Vollständigkeit der Quantenmechanik wieder verstärkt in Zweifel gezogen wird.

Anwendungen

 

Die Anwendungen und Auswirkungen der physikalischen Forschung sind so vielfältig, dass nahezu jeder Aspekt der technischen Welt dazugerechnet werden kann.

Die Anwendungen der Hebeltechnik (Flaschenzug, Schleudermaschinen, hydraulische Pressen und Hebewerke) waren schon den Griechen bekannt. Dampfmaschine, Kühlverfahren und Elektromotoren trugen wesentlich zu einer Umwandlung der vorindustriellen Gesellschaft bei. Unter neueren Entwicklungen von herausragender Bedeutung sind zu nennen: der Telegraph von Guglielmo Marconi (1874-1937), die Kathodenstrahlröhre von Karl Ferdinand Braun (1850-1918), die Verstärkerröhre als Grundlage von Telekommunikation, Radio und Fernsehen. Eine Revolution in vielen Bereichen bedeutete die Entwicklung der auf der Halbleitertechnologie basierenden Computer und des Lasers. Besonders hervorzuheben ist die Entwicklung der Holographie von Sir Denis Gabor (1900-1979).

Die Energieversorgung mancher Länder beruht zum überwiegenden Teil auf Kernreaktoren. Die Nutzung der Energie aus Fusionsreaktoren (Tokamak-Reaktor, Stellarator, Trägheitseinschluss) wird zwar mit großem Aufwand angestrebt, scheint aber noch weit von einer Anwendung entfernt zu sein. Im Bereich der regenerativen Energie wird in den Ausbau der Solartechnik (Aufwindkraftwerke, Solarzellen, Parabolrinnenanlagen) große Hoffnung gelegt.

In der Medizin spielen physikalische Verfahren für Diagnostik und Therapie eine wachsende Rolle (Röntgendiagnostik, Computer- und Kernspintomographie, Laseroperationen, Bestrahlung).

Die Bionik ist eine relativ neue Disziplin, die sich mit der physikalischen Realisierung von biologischen Konstruktions- und Funktionsprinzipien beschäftigt. Hervorzuheben sind die Entwicklung von neuronalen Netzwerken, mit der die Funktionsweise des Gehirns auf Computern nachgeahmt werden soll, der Versuch der Anwendung des Prinzips der Photosynthese zur Wasserspaltung (Wasserstofftechnologie) sowie die Entwicklung von Biosensoren, die für die Umwelttechnik eine bedeutende Rolle spielen.

Die Waffentechnik profitiert oft als erste von neuen Entwicklungen (Radaraufklärung, Atombombe, Wasserstoffbombe, SDI, Global Positioning System GPS), nicht zuletzt, da der Forschung aus diesem Bereich die größten Geldmittel zur Verfügung stehen.

Probleme und Perspektiven

Die große Frage der theoretischen Physik lässt sich leicht formulieren und schwer lösen: Wie kann man die Quantentheorie mit der Relativitätstheorie vereinen? Dabei werden die Rahmenbedingungen für solch eine Theorie der "Quantengravitation" die quantenmechanische Nichtlokalität (instantane Fernwirkungen) und das Fehlen einer absoluten Gleichzeitigkeit sein. Es werden dazu verstärkt Anstrengungen unternommen, zunächst die Grundlagenprobleme der Quantentheorie zu lösen.

Das große Problem der experimentellen Physik wird in vielen Bereichen immer mehr die Finanzierung: für große Beschleuniger, die nötig sind, um Bestätigungen oder Abweichungen vom Standardmodell der Elementarteilchenphysik zu finden (z. B. supersymmetrische Teilchen, Higgs-Boson) sowie für bessere Teleskope zur Überprüfung des Standardmodells der Kosmologie.

Der Forschungsdrang des Menschen hat nicht nur unser Wissen über die Welt in phantastischer Weise vertieft, sondern hat auch große Auswirkungen auf das tägliche Leben. Neben den unumstritten positiven Auswirkungen physikalischer Forschung stehen vor allem die Entwicklung menschenverachtender Waffen mit unerhörter Zerstörungskraft, ein wachsender Berg aus radioaktivem Müll und die Gefahren und Auswirkungen von Reaktorunfällen. Zum Betrieb der Forschungsmaschinerie ist außerdem ein Aufwand nötig, der in Anbetracht der Probleme der Überbevölkerung, der Welternährung und der globalen Klimaveränderung teilweise schwer zu rechtfertigen ist. Es bleibt das Problem bestehen, wie das Drängen auf eine strengere Kontrolle und Auswahl von Forschungsprojekten mit dem hohen Gut der Forschungsfreiheit in Einklang gebracht werden kann.