Ja, das gilt natürlich auch jetzt schon, weil wir Mathematik zur Beschreibung von Phänomenen benutzen und diese letztlich auf einigen wenigen Axiomen beruht, die nicht bewiesen werden können.
Klar, aber im Kontext der QM ist das irreführend. Hier haben wir guten Grund anzunehmen, dass dies auch nicht prinzipiell möglich ist.
Es geht nicht.
Das sog. Kollabieren der Wellenfunktionen kannst Du nicht verhindern. Selbst mit irgendwelchen Gedankenexperimenten. Das macht es ja gerade so schwer die QM zu verstehen und zu akzeptieren.
Sie mittelt. Eben.
Bei der QM wollen wir aber auch das Verhalten einzelner Teilchen voraussagen und das geht eben nicht.
Die Analgie wäre das Interferenzbild des Doppelspalts. Das ist „gemittelt“. Aber den Weg der einzelnen Photonen wirst Du nie im Voraus voraussagen können.
Alles was ich bis dato zur QM gelernt habt lässt mich an Deiner Aussage sehr zweifeln.
Information bzw. die Beobachtung selbst hat Einfluss auf eine Experiment in der QM.
Schau’ Dir die Seite lieber gar nicht erst an.
In Kern steht da soviel wie: Alles sind Stöße, man kann alles damit erklären.
Das ist aber in der Physik nicht so tragisch wie in der reinen Mathematik, weil du brauchst das ja nur als Werkzeug um ein Modell zu bauen das Aussagen über Dinge macht die du auch (wenn vielleicht auch über mehrere Umwege) beobachten kannst. Deshalb würdest du das ja sofort merken wenn da etwas nicht stimmt mit dem Werkzeug.
Und ich glaube die Mathematik hat nur Mühe damit weil die Mathematiker gerne eine von der Physik komplett unabhängige in sich logisch geschlossenes Konstrukt sein möchten (jedenfalls hat mir das mal ein Mathematiker gesagt, stimmt also für mindestens einen. Proof by example, lel).
Ich finde aber die Überlegung die Stephen Wolfram dazu mal gemacht hat sehr spannend. Nämlich das unsere Mathematik nur eine von vielen im Raum möglicher Sets von Axiomen ist. Und je nach Selektion der Axiome ergibt sich halt ein komplett andere Mathematik weil die Abstraktionen die von den Axiomen her aufgebaut werden anders sind.
Mit der Überlegung erübrigt sich dann aus meiner Sicht auch die Frage nach der Beweisbarkeit der Axiome weil die sind alle Valide in einer Mathematik im Raum aller „Mathematiken“, und es wird offensichtlich das es eben doch darum geht das wir einfach die Mathematik und damit die Axiome wählen welche in unserer Realität brauchbare Resultate liefert.
Für die Logik Axiome übrigens das selbe, da gibt es dann auch einen Raum aller Logiken.
Noch spannend ist das unsere Mathematik und Logik in den jeweiligen Räumen offenbar keine besonderen oder irgendwie auffälligen Plätze einnehmen. Lässt sich also dort auch nichts finden was jetzt speziell danach schreien würde das man genau diese wählen müsste.
Da stimme ich dir nicht zu. Die Quantenmechanik selbst ist komplett deterministisch. Das sind ja alles einfach Superpositionen von verschiedenen Zuständen und du kannst absolut berechnen wie sich ein System von verschiedenen Teilchen weiterentwickelt.
Das mit dem „Zufall“ kommt nur ins Spiel wenn du ein Messung machst wo du eine reelle Grösse misst. Die gemessene Grösse ist einfach ein Ergebnis von einer Interaktion mit etwas was sich eigentlich in einer Superposition befindet, und sagt mehr darüber aus wie genau du das System mit der Messung beeinflusst hast als irgendwas über einen Zustand der das System vorher hatte.
Der Würfel ist nicht im Quantensystem. Die Messung ist der Würfel.
Also ich kann nachvollziehen, dass es verschiedene Axiome gibt und alle Axiomsysteme eine valide Mathematik bilden. Aber gerade bei der Logik kann ich mir das gerade einfach nicht vorstellen. Denn gerade die Logik kennt ersteinmal nur zwei Zustände pro Information: Wahr oder Falsch.
Man kann jetzt das System umdefinieren und sagen, dass richtige Aussagen falsch sind und fehlerhafte Aussagen Wahr sind. Aber an der grundlegenden Logik ändert sich dabei nichts grundlegendes, vorallem, dass man mit nur einem Widerspruch in jedem Logiksystem jede beliebige Aussage in dem System beweisen kann.
Die Logik hat sich gebildet um einen mathematischen Raum zu erschaffen, wo es keinen Widerspruch gibt außer die Ankerpunkte des Raumes, die Axiome. Man könnte jetzt z.B. daraus schlussfolgern, dass ein Axiomsystem mit einem Widerspruch also keinen gültigen Raum erschafft weil in diesem Raum alles gleichzeitig möglich und unmöglich ist und jeden Axiomenraum kann man somit zerstören indem man ein Axiom hinzu tut, das wenigstens einem anderem Axiom widerspricht (beste Anwendung: Idiologie).
Das kannst du dir so Vorstellen, dass ein funktionierender mathematischer Raum ein einziges mathematisches Gebäude beinhaltet, das mit den Axiomen beweisbar ist. Hast du jetzt in dem gleichen Raum aber noch ein weiteres Axiom mit einem Widerspruch zu den anderen Axiomen, dann hast du damit sozusagen einen Cheat um durch die Wände des Hauses zu gehen. Ist der Cheat aber fundamentaler Bestanndteil des Hauses, dann kannst du ja nichtmehr zwischen den Wänden unterscheiden. Das ist wie bei einem Skulpturenkünstler, alle möglichen Figuren sind dann im Holz gleichzeitig und der Künstler kann dann entscheiden welche dieser möglichen Figuren er realisiert. Der mathematische Raum mit Widerspruch ist dann aber alles und nichts zugleich.
Und Mathematiker sind generell dabei sowohl alle vorstellbaren mathematischen Räume zu finden als auch die Mathematisch eindeutigen Gebäude in diesem Raum zu erforschen. Manche Räume sehen dabei exakt gleich aus wie z.B. die genannte Umdefinition von Wahr ↔ Falsch weil in so einem Raum lediglich die beschriebenen Symbole substituiert wurden und das Mathematische Gebäude dann vielleicht schwarz statt weiß erscheint, aber ansonsten exakt gleich aufgebaut ist. Diese Ähnlichkeiten in den mathematischen Räumen sind den Mathematikern aber bewusst und nennen das meistens triviale Lösungen. Sie sind dann aber an interessanteren Räumen interessiert.
Welchen weiteren Raum an Logik kann es denn in diesem Sinne geben als funktionierende mathematische Räume, denn genau diese Widerspruchslosigkeit zeichnet mögliche mathematische Räume gegenüber Räumen, die alles und nichts sind erst aus, denn nur in diesen funktionierenden Räumen kann man überhaupt erst einfachste aussagen treffen wie Wahr oder Falsch aber je nach Raum auch beliebig differenziert.
Auch physikalisch würde ich dir widersprechen, die Welt mit all den physikalischen Konstanten sind nicht ohne Grund exakt so, wie wir sie messen können. Das fängt mit den mathematischen Zahlen wie Pi oder e an und hört mit der Lichtgeschwindigkeit, der Gravitationskonstante usw. nicht auf. Auch dass es genau 3 Raumrichtungen gibt ist kein Zufall: https://www.youtube.com/watch?v=jfHge68HV9I
Ich gebe mich zwar nicht wirklich mit der Erklärung zufrieden, dass 4 Raumdimensionen zu komplex wären, nur weil man solche Lösungen nur „noch nicht“ gefunden hat denn das ist kein Beweis dass es solche Lösungen nicht trotzdem geben kann, und dass die Zeit komplexer sein kann als nur eine einfache Zeitline beweist die Relativitätstheorie mit all ihren „Gleichzeitigkeitsproblemen“. Trotzdem ist übergeordnet das Kauslitätsprinzip in keinen Beobachtungen verletzt (was selber so fundamental ist, dass man es wohl nie beweisen kann).
Dieses Messproblem ist doch nur ein ganz kleiner Teil.
Du kannst mit der QM Interaktionen von Teilchen oder sogar einfache Atomkerne modellieren und damit Konsequenzen berechnen die sich in der Realität überprüfen lässen ohne das da irgendwie eine „klassische“ Messung notwendig wäre welche die Wellenfunktion stört.
Diese ganze Messgeschichte ist wie ein komplett separates Problem. Und da ist die Frage eher was genau ein einzelnes reelles Messresultat von einem Quantensystem das eigentlich in einer Superposition war denn jetzt genau aussagt und wozu das nützlich sein soll.
Gute Frage. Ich lasse mich da sehr gerne korrigieren, aber soweit ich weiss sind zum Beispiel die Halbwertszeiten gemessene Grössen und mir ist nicht bekannt dass diese Zahlen irgendwie aus einem QM Modell von einem Atomkern gewonnen werden können.
Insofern weiss ich jetzt auch nicht genau wo genau die QM da jetzt würfeln soll. Das Problem ist wohl mehr das wir das noch nicht mal modellieren können.
Bei diesen Interpretationen geht es ja eigentlich nur um dieses Messproblem. Ich finde die alle nicht wirklich hilfreich.
Ich bin aber gespannt ob jemals etwas brauchbares aus dem Wolfram Physics Modell dazu raus kommt. Da ist soweit ich das verstehe die QM das selbe wie die ART, nur das die ART im physical-space und die QM im branchial-space (raum aller möglichen hypergraph updates) entsteht, und das Messproblem ist eigentlich nur was die Messungen sowohl im physical- wie auch im branchial-space vom Referenzsystem des Beobachters abhängen.
Kann aber nicht behaupten das ich das jetzt auch nur im Ansatz verstanden habe und leider hatte ich in den letzten Jahren nicht genug Zeit mich damit wirklich intensiv zu befassen.
Pumpt mal den Bitcoin Preis zu 10mil, dann hab ich mehr Zeit für sowas
Das ist nicht ganz korrekt, es gibt Modelle dafür. Beispielsweise kann man sich Atome so vorstellen, dass die Protonen und Neutronen im Kernpotential „gefangen sind“. Das bedeutet deren Wellenfunktion schwingt von Wand zu Wand bis sie eventuell doch einmal durch das Potential tunneln können. Dann verlassen die Kernbausteine den Kern und er zerfällt. Dieser Prozess lässt sich somit sehr genau modellieren und auch die Halbwertszeiten bestimmen, wie Oft/Lange die Kernbestandteile so im Kern schwingen können bis sie durchschnittlich einmal durch das Potential tunneln.
Allerdings steckt man in so ein Modell viele Annahmen hinein wie die Höhe der Potenzialbarriere, die Energie der Wellenfunktionen usw. die aus den Messungen stammen. So eine Simulation kann also nur versuchen die Realität (Halbwertszeit) abzubilden, schafft aber erstmal persee kein neues Wissen (sofern man diese Modelle nicht auch auf unbekannte Systeme mit guter Vorhersagbarkeit anwenden kann)
Mathematik kann mMn. durch das Mandelbrot bzw. die Bifurkation „bewiesen“ werden.
Eine rein mathematische Erkenntnis, welche dennoch überall im Universum zu finden ist.
ZPE hat das aber noch schöner erklärt.
Es war eben ein Missverständnis, weil erstmal keiner die Quantenwelten gut genug verstand, um gut zu erklären wie der „Quantenzufall“ aufgebaut ist.
Erst über Feynman Diagramme wurde eine Kommunikation zwischen Wissenschaftlern langsam besser und dann können mit diesen weitere Erkenntnisse gefördert werden.
Durch die Lagrange Dichten werden jetzt langsam die genauen Abläufe, die zu der Quantenmechanik führen tiefer verstanden und auch wenn diese genau bestimmbar sind ist es noch ein weiter Weg aus dieser „energetischen Statistik“ genaue Einzelstandorte von konkreten Teilchen zu isolieren, um diese zu beweisen.
Nein, aber du kannst es ein neuronales Netz so lange vorhersagen lassen, bis die Mechanik welche nicht experimentell ermittelt werden kann theoretisch komplett verstanden ist und durch die Anwendung dessen die Korrektheit der Gesamtgleichung einschätzen.
Sag niemals nie
Aber ja „ich“ werde das wohl nie.
Das ist so eine Perspektive der frühern 2000er Jahre. Aber es ist die Wechselwirkung zwischen Beobachtung und Realität welche die Wellenfunktion zusammenbrechen lassen. Nur eine Vorhersage die vollkommen ohne Beobachtung erzeugbar ist kann korrekte Ergebnisse liefern.
Das ist wie bei Computermodellen, welche die Nachkommastelle von Myonen einiges genauer vorhersagen können, bevor ein Experiment im Teilchenbeschleuniger diese Nachkommastelle beweist (vor 2 Jahren glang dieser Durchbruch: https://www.youtube.com/watch?v=O4Ko7NW2yQo)
Wenn man an sowas Interesse hat, sollte man sich erstmal den State of the Art der Physik aneignen.
Allgemein ist der Kanal sehr zu empfehlen, wenn man grundlegendes Interesse an Quantenphysik und Astrophysik hat: https://www.youtube.com/@pbsspacetime/videos
Naja, wenn der Zerfall deterministisch sein sollte, dann sollte sich das doch zeigen lassen. Klappt aber nicht. Wir können nur etwas über Halbwertszeiten aussagen, wenn wir lange genug messen und ein Mittelwert angeben.
Offensichtlich wird hier doch „gewürfelt“. Du kannst eben nicht vorab bestimmen, wann ein Stoff S zerfällt und in welche Richtung S Energie oder einen Heliumkern emittiert.
Lange nichts mehr dazu gelesen/von gehört. Mein letzter Stand war, dass sein Modell ungenauer ist als bestehende. Aber ich werd’ mir mal wieder etwas dazu anschauen und mich bei Gelegenheit einlesen.
Im Moment sind wir bei der Berechnung von allen möglichen Interaktionen, um das Standardmodell der Teilchen um alle virtuellen Teilchen zu vervollsändigen.
Dann kann irgendwann diese vollständige Quantenphysik genutzt werden, um Resultate der Summe an Teilcheninteraktionen in einem Experiment vorherzusagen.
Im Moment arbeiten wir jedoch noch an dem Standardmodell und ich wollte gerade schon wieder den Entropie thread wiederbeleben, um die aktuelle Forschung dort erneut zu betrachten.
Denn Entropie emergiert wohl von Quantenverschränkung, aber dafür muss ich mich noch genauer in die Von Neumann Entropie einlesen, um den Zusammenhang mit Thermodynamik zu verstehen.
Teilchen sind im Normalzustand bereits verschränkt mit anderen Teilchen, daher müssen alle verschränkten Teilchen betachtet werden, um vorherzusagen wie die Wellenfunktion kollabiert.
Verschränkung von Teilchen ist sozusagen der allererste Schritt beim Rauszoomen von Teilchen bis zu Atomen. (https://www.youtube.com/watch?v=vgYQglmYU-8)
Weiter oben wurde über „echten“ Zufall diskutiert, also die Frage, ob Gott würfelt oder nicht. Dazu möchte ich noch etwas nachtragen…
Ich dachte bis vor Kurzem folgendes sei eindeutig geklärt:
Außerhalb der Quantenmechanik gibt es keinen echten Zufall. Jedes vermeintlich zufällige Verhalten entsteht letztlich durch chaotische Eigenschaften des betrachteten Systems, so wie es @DasPie schon erklärt hat.
Auf der Quantenebene hingegen existiert echt zufälliges Verhalten der Natur. Bewiesen ist das inzwischen durch die Verletzung der Bellschen Ungleichung in mehreren Experimenten.
Das bedeutet letztlich, dass sich ein Quantenzustand wirklich erst im Moment der Interaktion/Messung festlegt. Die Wellenfunktion kollabiert auf einen Eigenzustand der relevanten Observable.
Würde schon zu Beginn feststehen, in welchem Zustand sich das System befindet, d.h. die Überlagerung verschiedener Zustände wäre nur eine Unzulänglichkeit der Theorie, wäre die Bellsche Ungleichung nicht verletzt. Es gäbe verborgene Variablen, die im Modell der Quantenmechanik unbekannt sind.
Das entspricht im Wesentlichen dem, was du schreibst, @HODLer. Ich habe diese verrückte Erkenntnis und Bestätigung der Kopenhagener Interpretation auch immer wieder begeistert anderen erklärt.
Nach dem Nobelpreis für Zeilinger, Aspect und Clauser habe ich mir allerdings einige Videos zum Thema angesehen, u.a. von Sabine Hossenfelder. Insbesondere diese hier sind wirklich sehenswert:
Die Aussage dort ist eine andere als oben beschrieben.
Die Bellsche Ungleichung wäre erfüllt, wenn die Realität lokal ist, verborgene Variablen hat (der Zustand also die ganze Zeit feststeht und nicht QM-artig „überlagert“ ist), und die Messung unabhängig vom Wert der verborgenen Variablen ist.
Lokal bedeutet hier, dass sich kausale Zusammenhänge nur mit Lichtgeschwindigkeit von Ort zu Ort ausbreiten können, also nicht raumartig. Unabhängig bedeutet hier, dass die Messung statistisch unabhängig davon sein muss, in welchem Zustand sich das Teilchen direkt bei der Messung befindet.
Nachdem letzteres plausibel erscheint, haben Bell und wohl viele andere das als gegeben angenommen. Aus der Verletzung der Bellschen Ungleichung in Experimenten folgert man also, dass die Realität nicht gleichzeitig lokal sein und verborgene Variablen haben kann.
Heutzutage nimmt die Mehrheit nach meinem Eindruck sogar beides an. Es ist Common Sense, dass die Realität nicht-lokal ist und dass sie keine verborgenen Variablen hat. Dass heißt es gibt echte, nicht nur modellhafte Zustandsüberlagerungen, und der Kollaps der Wellenfunktion bei der Messung ist eine echte Fernwirkung.
Wenn man allerdings zulässt, dass Messung und verborgene Variablen, also der Zustand, nicht unabhängig sind, kann die Realität weiterhin lokal sein und der Zustand von Anfang an feststehen (verborgene Variablen, also unzureichende QM).
Dieser „Superdeterminismus“ wäre zwar eine traurige Erkenntnis im philosophischen Sinne. Aber das ist noch lange keine Grund, diese Option deshalb auszuschließen. Die Zitate einiger bekannter Physiker dazu im Video sind schon etwas erschreckend.
Im Endeffekt wäre die Realität für immer vorherbestimmt und jeglicher Zufall würde ausschließlich aus chaotischem Verhalten folgen. Es gäbe in diesem Szenario keinen echten Zufall, oder besser gesagt keine Notwendigkeit dafür.
Ich weiß ja nicht welchen Background ihr so habt. Aber finde ich es extrem schade, dass man im Physik Studium überhaupt nicht über solche Hintergründe und Interpretationen spricht. In den Vorlesungen QM I&II, QFT, Stringtheorie und ART ging es ausschließlich darum, die mathematischen Grundlagen zu erlernen. Einmal habe ich tatsächlich einen Prof etwas derartiges gefragt, aber er wusste nicht einmal, was ich mit der Frage wollte.
Im Laufe der Jahrzehnte gewöhnt man sich wohl einfach immer mehr an eine Interpretation bzw. ist einem diese auch einfach egal. Das Alltagsgeschäft in QFT, Stringtheorie, Quantengravitation etc. sind mathematische Spielereien.
Umso mehr Respekt habe ich für die Entscheidung, den drei Herren oben den Nobelpreis für die Untersuchung solcher fundamentalen, aber praktisch wenig relevanten Fragestellungen zu verleihen.
Die bellsche Ungleichung zeigte zunächst, dass die Vorhersagen der Quantenmechanik im Widerspruch stehen zur gleichzeitigen Annahme von Realismus und Lokalität.[6]
Eine physikalische Theorie ist realistisch, wenn Messungen nur Eigenschaften ablesen, die unabhängig von der Messung vorliegen, wenn also das Ergebnis jeder denkbaren Messung (z. B. durch den Einfluss verborgener Parameter) schon feststeht, bevor es durch die Messung bekannt wird.
Eine physikalische Theorie ist nicht lokal, im Sinne der speziellen Relativitätstheorie, wenn in raumartiger Relation die Messergebnisse an zwei Teilchen korreliert sind, eine dem Zufall widersprechende Beziehung zeigen, ohne dass dies mit objektiv vorliegenden Eigenschaften der Teilchen erklärt werden könnte. Ein Einfluss einer Messung auf das andere Teilchen könnte höchstens mit Lichtgeschwindigkeit erfolgen, was in raumartiger Situation in der Relativitätstheorie ausgeschlossen ist.
Die Lokalität halte ich für Plausibel weil diese eigentlich aus dem Kausalitätsprinzip folgt: Nichts geschied ohne einen Grund und diese Tatsache legt die Zeitrichtung in Systemen fest, die mathematisch meistens äquivalent sind wenn man das Vorzeichen der Zeit t → -t austauscht. Genau deswegen kann man ja auch in den meisten Systemen modellhaft die Zeit vor oder zurück drehen um so auf die Zukunft oder Vergangenheit zu schließen.
Aber gerade die Annahme, dass die Messung unabhängig vom System ist ist doch unlogisch. Denn Messungen werden in der QM mit Lichtquanten gemacht die auf das Messobjekt geschossen werden. Diese Messung überträgt also immer Energie auf die zu messenden Teilchen in der Größenordnung oder größer als der eigenen Energie der Teilchen. Natürlich verändert diese Messung das zu messende System und gerade bei Energien, die ein vielfaches der Teilchenenergie entspricht ist die Messung dieser Teilchen danach mehr oder weniger zufällig (wenigstens weil bei so einem Streuprozess das genaue Auftreffen des Energiepaketes auf das Teilchen nicht vorhersagbar ist und kleinste Abweichungen im Winkel schon große Unterscheide im Ergebnis liefern.)
(Es gibt auch makroskopische Beispiele wie z.B. die Spannungsmessung. Man kann keine Spannung messen wenn kein Strom fließt, also auch wenn so ein Messgerät versucht möglichst wenig in den Stromkreislauf einzuwirken, es verändert immer das System ein wenig im Gegenzug dazu, wenn man keine Messung durchführt.)
Ich halte die Grundannahme schon als nicht erfüllt, was die QM ja auch theoretisch und experimentell bestätigt. Die Frage ist: Was schließt man daraus? Logisch wäre, dass wenigstens eine oder beide Grundannahmen falsch ist. Auch die Kausalität könnte also falsch sein. Aber dass es keine weiteren verborgenen physikalischen Prinzipien dahinter stecken können finde ich in dem Zusammenhang als nicht bewiesen weil die Grundvorraussetzung zur Anwendung der Bellschen Ungleichung ja nichteinmal gegeben sind.
Ich persönlich hatte im Physikstudium leider nicht genug Zeit um mir über solche Fragen Gedanken machen zu können weil ich zu viel Zeit benötigt habe die Mathematik dahinter zu lernen und anzuwenden. Was mich unglaublich am Studium genervt hatte waren die ganzen Rechenaufgaben. Der Prof. rechnet in der Vorlesung ein wunderschönes Beispiel durch, alles geht am Ende auf und funktionierte. Dann geht man nach hause und sieht die Hausaufgaben und denkt sich ach ja, das hatten wir ja gerade erst. Aber in den Aufgaben war dann aufeinmal irgendwo im Integral eine +1, irgendwelche Therme haben sich dadurch nicht weggekürtzt oder eine Differentialgleichung wurde nichtlinear sodass man den vorgerechneten Weg nie anwenden konnte. Die Aufgaben waren also so gut wie immer ein mathematisches Rätsel und wenn man den einen Trick nicht gefunden hatte konnte man rechnen so lange man wollte ohne eine Lösung zu bekommen.
Also der Doppelspalt zeigt auch mit C60-Fullerenmolekülen (Bucky Balls) ein Interferenzmuster und diese sind doch nun wirklich maskrokopisch.
Anders gesagt: Auch Materieteilchen mit endlicher Ruhemasse kann eine de Broglie Wellenlänge zugeschrieben werden.
Und entsprechend haben sie quantenmechanische Eigenschaften.
Naja, bei so einem Molekül-Fußball wie Bucky Balls sollte das doch aus Deiner Sicht vorhersagbar sein. Ist es aber nicht. Auch hier sind Ort und Impuls natürlich unscharf. Andernfalls wäre die Heisenbergsche Unschärferelation verletzt. In Quantensystem lassen sich Impuls und Ort allerdings nicht beliebig genau bestimmen.
Oder meinst Du hier ein Energiepaket, dass als Messinstrument dient - wie eine Lichtschranke?
Wieso?
Eigentlich kannst Du doch von Systemen in andere Systeme transformieren. Entscheidender ist wohl eher der Beobachter als das System selbst.
Einstein hatte sich doch glaube ich ganz schöne Gedankenexperimente überlegt, um ohne ‚Eingriff‘ in den Impuls den Spalt bestimmen zu können, den ein Objekt passiert.
Dann ‚kollabiert‘ die Wellenfunktion aber auch schon und Du siehst wiederum kein Interferenzmuster, sondern das klassische Bild mit zwei Linien.
@Hodler
Ich behaupte ja nicht, dass man nicht generell vorhersagen kann wie so ein System sich messbar verhält. Ich behaupte lediglich, dass jede Messung auch das System verändert und somit einen Einfluss auf das Ergebnis der Messung hat, vorallem in kleiner Ebene, wo die Energiezufuhr durch die Messung groß gegenüber der Eigenenerige der zu messenden Teilchen ist.
Und Mein Beispiel mit der Spannungsmessung zeigt ja eindeutig auf, dass diese Effekte auch für die makroskopische Welt gelten, da aber auf größeren Skalen immer unrelevanter werden weil die Energie der Messung dann klein gegenüber der Eigenenergie der betrachteten Objekte ist. Mal übertrieben gesagt: Die Entfernung des Mondes wird durch Laserimpulse gemessen. Impulse die den Mond von der Erde wegstoßen. Dieser Effekt ist aber so klein, dass wir ihn gegen die Masse des Mondes (widerstand bezüglich der Beschleunigung) vernachlässigen können. Wird die gleiche Messung aber benutzt um die Entfernung eines Wasserstoffatoms zu untersuchen, dann stoßen wir es wegen der Messung an zufällige Orte im Raum. Und wenigstens daraus ergibt sich die Unschärferelation: Weil wir mit der Messung immer auch Energie an die zu messenden Teilchen übertragen und ab einer bestimmten Eigenenergie der zu messenden Teilchen diese Effekte eben relevant werden.
Diese Effekte sind zwar hinderlich für all unsere Messungen, aber es bedeutet nicht zwangsläufig, dass es grundsätzlich keine physikalischen Erklärungen geben kann, dass es diesen Zufall gibt.
Solange wir aber keine grundlegendere Theorie haben, die diesen Zufall erklärt (durch weitere Interne und unbekannte physikalische Größen) macht es keinen unterschied, ob wir jetzt von Echten Zufall oder chaotischem Zufall, den wir nicht erklären können sprechen. Der Unterschied wird erst relevant falls es in Zukunft so eine Theorie geben wird und jeder jetzt echte Zufall doch auf einmal erklärbar (und damit angreifbar) wird.
Ich persönlich lehne einen Beobachter als Erklärung ab. Das Konzept klingt für mich sehr nach Gott. Was interessiert es einem Wasserstoffatom, ob irgend ein Neuronales Netz oder makroskopische biologische Zellhaufen zuschauen oder nicht? Ich gehe deswegen davon aus, dass es zwar eine Realität gibt, aber jedes Lebewesen, das darüber nachdenken kann sich ein Modell dieser Realität zusammenbaut. Und diese Modelle sollten möglichst gut mit der Realität übereinstimmen oder so abgeändert werden um mit der Realität im Einklang zu sein, ansonsten liefert dieses Modell falsche Vorhersagen. Die gedachten Ereignisse im Modell laufen dann anders ab als die Sensoren (Sinnesorgane) dem Beobachter zurück liefern und das reduziert die Überlebenschancen dieser Lebewesen. Deswegen sind Lebewesen auf möglichst exakte Modelle angewiesen (bei gleichzeitig möglichst geringen Energieaufwand für die Modelle).
Also alle Modelle, die durch Messungen stimmige Ergebnisse liefern sind vorteilhaft und alle Modelle, die falsche vorhersagen liefern sind nachteilhaft. Ganz ohne dass es irgend einen Gott oder Schöpfer für diese Modelle benötigt.
Ich halte es daher für deutlich wahrscheinlicher, dass die Messung selber in das System eingreift als dass das System sich vor irgendwelchen Beobachtern „fürchtet“ und sich unter Beobachtung anders verhält als ohne Beobachter.
Generell schon, aber eben nur die physikalischen Gesetzmäßigkeiten und nicht das komplette System mit allen Randbedingungen. Denn schon kleinste Abweichungen in den Randbedingungen können das System schnell komplett anders reagieren lassen. Und gerade in der QM, wo es einen Unterschied macht mit welcher Phase eine Lichtwelle auftrifft, also welches Verhältnis das lokale elektrische Feld gerade zum magnetischen Feld hat, oder ob der Winkel gerade 0,005° oder 0,00005° beträgt, all das können solche Systeme gravierend beeinflussen.
Da baue ich mir persönlich noch ein kleines Potential ein, welches durch den Butterflyeffekt doch einen Determinismus verhindert.
Sonst würde es für mich keinen Sinn ergeben, dass wir Bewusstsein und einen Willen haben, wenn diese keinen Einfluss auf unsere Überlebensfähigkeit haben.
Ja, geht mir ähnlich, deswegen bin ich trotz starkem physikalischem Interesse in früher Kindheit (Harald Lesch Dokus seit ich 6 bin) nach der ernüchternden Erkenntnis was Physik in der Schule ist nie diesen Weg weiter gegangen.
Weiß noch der Moment als ich begeistert über schwarze Löcher und Gammablitze diskutieren wollte in der 9. Klasse, dann abgefragt wurde und eine 4 bekam, weil ich aus versehen die Formel für Watt nannte, als ich nach Joule gefragt wurde. Damit war Schulphysik für mich gestorben.
Aber aus persönlichem Interesse immer über den neusten Stand der Forschung informiert und auch einige Paper zu Superstringtheorie und QM durchgelesen. Für Spass
Würden diese heutzutage noch selbst gelöst werden oder übernimmt das alles nicht eh schon der ComputeR? Bei mir im Studium werden wir sehr sehr oft mit Rechnungen konfrontiert, die vor Jahrzehnten genutzt wuden, aber dann mit Computertechnologie ersetzt wurden. Statt den Umgang mit neuen Programmen zu lernen werden alte Rechnungen wiederholt, wahrscheinlich weil der Umgang mit den Programmen neuen Gehirnschmalz und ordentlich Lizenzgebühr kostet…?
Hausaufgaben ohne Lösungsansätze sind leider eben recht nutzlos: Studie der Universität Dresden: Hausaufgaben bringen nichts - DER SPIEGEL
(Ein Unding, dass diese Studie nicht jeder in der Bildung kennt und versteht.)
Wahrscheinlich wird die Privatwirtschaft mit künstlichen Lernassistenten dieses Problem lösen, bevor die staatlichen Institutionen ihr Lehrsystem den neuen Erkenntnissen anpassen.
Naja „Beobachter“ ist einfach missverständlich. Letztlich meine ich natürlich Eigenschaften der Objekte. Es hat sich (aus didaktischen Gründen?) häufig etabliert von einem Beobachter zu sprechen. Aber ich nehme den Anstoß von Dir mit und werde nun direkt von Eigenschaften der Objekte sprechen.
Naja, wenn jedes Beobachten eine Messung bedeutet, dann hat diese Beobachtung meiner Meinung nach durch die entsprechende Messung einen direkten Einfluss auf das System, was in der Quantenmechanik entscheidend ist.
Aber es gibt ja auch Effekte, die dadurch erklärt werden, dass ein System sich anders verhält wenn es generell beobachtbar ist auch wenn es gerade nicht beobachtet wird und diese Interpretation halte ich nicht für stimmig. Denn auch diese Effekte können im Messfall durch die Messung verändert worden sein und ohne Messung kann eben keine Aussage über das System getroffen werden. Natürlich kann in einem System, über das wir nichts wissen, alles und nichts gleichzeitig passieren, wir wissen eben nicht was da wirklich vonstatten geht und können es auch ohne Messung nicht wissen.
Ohne weitere Information befindet sich das System also der Interpretation nach in beiden Zuständen gleichzeitig aber ohne Informationen können wir eben auch nichts weiter über das System aussagen. Erst mit der Messung „entscheidet“ sich das System für den einen oder den andere Zustand. Woher wollen wir aber wissen, dass dieser Zustand nicht schon vor der Messung vorgelegen hat? Nur eins ist gewiss: Mit der Messung bekommen wir ein eindeutiges Ergebnis aber wir „Würfeln“ den Zustand des Systems auch wieder durch wobei unterschiedliche Arten von Messungen auch unterschiedlichen Zufall bewirken können.
Die Frage, die sich mir stellt ist: Warum sollte es nicht eine stimmige Theorie/Modell geben, die erklärt, was in der Alles- und Nichts-Phase passiert, die dann vorraussagen darüber trifft, was wir bei einer konkreten Messung wirklich messen werden? So eine Theorie aufzustellen wird unglaublich schwierig weil sie ja von den unglaublich feinen Unsicherheiten abhängen muss, die so eine Messung als „zufall“ mit in das System bringt. Aber ich halte das nicht für generell unmöglich.