GHZ exposed

August 4, 2012

In one of my previous quantum pet peeves I said that,

GHZM produces exact correlations for three compatible variables, so it remains within a context that Bell was very careful to set apart: the possibility that correlations come from the common origin of the composite system’s parts.

I’ve been thinking about this question for a while in these terms: What kind of observable is this GHZ? If, as I believe, it’s trivial, wouldn’t it be a function of some completely obvious observable which is in turn a function of some of the regular, classically interpretable integrals of motion, as energy, angular momentum, etc.? If that were the case, as I argued back then, the whole GHZ question would be but a monumental red herring, revealing nothing that a purely classical argument couln’t explain.

At first I was thinking about some kind of parity (although we must be careful with parity proper, as it is not a universally conserved quantity, and it is precisely spin-1/2 particles the ones that come in maximally parity-violating multiplets in the SM.) As we know, the GHZ observable (as modified by Mermin) is the product of the respective x components of spin for three spin-1/2 particles:

\sigma_x\otimes\sigma_x\otimes\sigma_x

This observable is identically -1 for the 3-particle system. Recall that the GHZ state is:

\left|\psi\right\rangle =\frac{1}{\sqrt{2}}\left(\left|\uparrow\uparrow\uparrow\right\rangle -\left|\downarrow\downarrow\downarrow\right\rangle \right)

It seems to suggest some kind of overall parity for the 3-particle system, right? The particles would have to somehow communicate at a distance (that’s the blind alley the classical thinking gets into, as the argument goes) the value of the  x projection of their spin in order for this “overall parity” to yield -1 in every occurrence with zero disperssion.

Wrong guess!: The GHZ observable is a trivial function of the overall spin angular momentum of the 3-particle system. Let’s check. But first, let’s announce:

Lemma:

\sigma_{x}^{\left(1\right)}\sigma_{x}^{\left(2\right)}\sigma_{x}^{\left(3\right)}=\frac{1}{6}\left(\sigma_{x}^{\left(1\right)}+\sigma_{x}^{\left(2\right)}+\sigma_{x}^{\left(3\right)}\right)^{3}-\frac{7}{6}\left(\sigma_{x}^{\left(1\right)}+\sigma_{x}^{\left(2\right)}+\sigma_{x}^{\left(3\right)}\right)\label{eq:GHZMidentity}

Where we have used the abridged notation: \sigma_{x}^{\left(1\right)}\overset{\textrm{def}}{=}\sigma_x\otimes I \otimes I, etc.

Re-phrasing of lemma: The GHZ observable is a polynomial of the overall spin angular momentum: \sigma_{x}^{\left(1\right)}\sigma_{x}^{\left(2\right)}\sigma_{x}^{\left(3\right)}=p\left(S_x\right), with p a boring cubic polynomial.

Proof:

Let us call: A\overset{\textrm{def}}{=}\sigma_x\otimes I\otimes I ; B\overset{\textrm{def}}{=}I\otimes \sigma_x\otimes I; C\overset{\textrm{def}}{=}I\otimes I\otimes \sigma_x.

Expand now \left(A+B+C\right)^3 by means of Newton’s bynomial formula (keep in mind that A, B y C all commute),

\left(A+B+C\right)^3=A^3+B^3+C^3+3A^2B+3AB^2+3A^2C+

+3B^2C+3AC^2+3BC^2+6ABC

Noticing that A^2=B^2=C^2=I,

6ABC={S_x}^3-7S_x

Which is exactly what we set out to prove.

Moral (corollary, upshot): GHZ may seem to be measuring something misterious, some kind of invisible correlation between the particles. Not so!: It amounts to an observable that, although it’s not completely obvious, it’s not completely intricate either, and is a function of the system’s overall spin.

Observations

OBS_1: The proof is extremely simple. Quite another matter is to realise what it implies. I am perverted enough by experience to realise that for those who stick to the bitter end that quantum mechanics must be formulated as something essentially unintelligible, where indeterminism is posed axiomatically, instead of stemming from some reasonable or explanatory principle, this argument will seem opaque.

OBS_2 (This is a purely sociological observation): An argument like this would never be accepted within the scientific community. One thing is accepting that a certain guess (as could have happened with inflation, the Higgs; or it actually has been the case with the extra dimensions, etc.) has not been confirmed by observation (hard luck, what can I say; we’ll keep on guessing our best); and quite another thing is to make a spectacular step back: A problem that I declared solved has turned out to be not that settled. This requires a change of standing that would be impossible to assume with dignity.

My old song and dance: Trying to understand quantum mechanics with tangible, mathematically fashioned, logically consistent arguments, as free as possible from prejudices that could wash away with a simple change of focus. I wish myself luck.

Advertisements

El GHZ desenmascarado

August 4, 2012

En una de mis pataletas cuánticas anteriores (no sé cómo demonios traduciré esto al inglés para hacerlo más internacional) decía que:

GHZM reproduce correlaciones exactas para tres variables compatibles, y por tanto se queda dentro del contexto que Bell fue muy cuidadoso en discernir: posibilidad de que las correlaciones provengan del origen común de las partes del sistema compuesto.

Llevo tiempo pensando en esta cuestión en estos términos: ¿Qué tipo de observable es este GHZ? Si, como pienso, es trivial, ¿no será función de algún observable absolutamente obvio función de una de las integrales típicas clásicamente interpretables, como la energía, el momento angular, etc.? Si así fuera, como yo argumentaba entonces, toda la cuestión GHZ sería una monumental nube de humo que no revela nada que una argumentación puramente clásica no pueda explicar.

Al principio yo pensaba en algún tipo de paridad (aunque con la paridad hay que tener cuidado, ya que no es una cantidad conservada de forma universal, y precisamente las partículas de espín 1/2 vienen en en el ME en multipletes que violan máximamente la paridad). Como se sabe el observable GHZ (modificado por Mermin) es el producto de las componentes x respectivas del espín de tres partículas de espín 1/2:

\sigma_x\otimes\sigma_x\otimes\sigma_x

Este observable es idénticamente -1 para el conjunto de las tres partículas. Recuérdese que el estado GHZ es:

\left|\psi\right\rangle =\frac{1}{\sqrt{2}}\left(\left|\uparrow\uparrow\uparrow\right\rangle -\left|\downarrow\downarrow\downarrow\right\rangle \right)

Parece sugerir una especie de paridad conjunta del agregado de tres partículas, ¿verdad? De alguna manera las partículas se comunicarían a distancia (ese es el callejón sin salida al que pretende llevarse el razonamiento en términos clásicos) el valor de la proyección x de su espín para que esta “paridad” conjunta valiese -1 en todos los casos con dispersión cero.

¡Intuición incorrecta!: El observable GHZ es una función trivial del momento angular de espín total del sistema de tres partículas. Veámoslo. Pero para ello, primero anunciémoslo:

Lema:

\sigma_{x}^{\left(1\right)}\sigma_{x}^{\left(2\right)}\sigma_{x}^{\left(3\right)}=\frac{1}{6}\left(\sigma_{x}^{\left(1\right)}+\sigma_{x}^{\left(2\right)}+\sigma_{x}^{\left(3\right)}\right)^{3}-\frac{7}{6}\left(\sigma_{x}^{\left(1\right)}+\sigma_{x}^{\left(2\right)}+\sigma_{x}^{\left(3\right)}\right)\label{eq:GHZMidentity}

Donde se ha usado una notación resumida: \sigma_{x}^{\left(1\right)}\overset{\textrm{def}}{=}\sigma_x\otimes I \otimes I, etc.

Refraseo del lema: El observable GHZ es un polinomio del momento angular de espín total: \sigma_{x}^{\left(1\right)}\sigma_{x}^{\left(2\right)}\sigma_{x}^{\left(3\right)}=p\left(S_x\right), con p un vulgar polinomio cúbico.

Demostración:

Llamemos: A\overset{\textrm{def}}{=}\sigma_x\otimes I\otimes I ; B\overset{\textrm{def}}{=}I\otimes \sigma_x\otimes I; C\overset{\textrm{def}}{=}I\otimes I\otimes \sigma_x.

Desarrollemos \left(A+B+C\right)^3 usando el binomio de Newton (téngase presente que A, B y C conmutan):

\left(A+B+C\right)^3=A^3+B^3+C^3+3A^2B+3AB^2+3A^2C+

+3B^2C+3AC^2+3BC^2+6ABC

Observando que A^2=B^2=C^2=I:

6ABC={S_x}^3-7S_x

Que es exactamente lo que queríamos demostrar.

Moraleja (corolario, upshot): El GHZ parece estar midiendo algo misterioso, una especie de correlación invisible entre las partículas. ¡No tal!: Se trata de un observable no completamente obvio, pero tampoco extremadamente complejo que está dado por el espín total del sistema.

Observaciones

OBS_1: La demostración es extremadamente simple. Otra cuestión es darse cuenta de lo que esto implica. Estoy lo suficientemente maleado por la experiencia para darme cuenta de que si uno se aferra a que la mecánica cuántica debe formularse de una forma incomprensible, donde la indeterminación nos viene impuesta axiomáticamente, y no de forma razonada y demostrable, este argumento les va a resultar absolutamente opaco.

OBS_2 (Esta observación es puramente sociológica): Este argumento nunca sería aceptado en la comunidad científica. Una cosa es aceptar que una conjetura que uno ha hecho (como podría haber ocurrido con la inflación, el Higgs; o así ha sido con las dimensiones extra, etc.) no es confirmada por las observaciones (mala suerte, qué le vamos a hacer; seguiremos buscando); y otra muy distinta es dar un espectacular paso atrás: Un problema que yo afirmé resuelto, en realidad no lo estaba. Esto requiere un cambio de postura que a muchos se les haría imposible asumir con dignidad.

Yo sigo en lo mío: Intentar comprender la mecánica cuántica con argumentos lógicamente consistentes, tangibles, matemáticamente formulables y exentos de prejuicios que podrían caer con un simple cambio de enfoque. Me deseo suerte.

Microhistoria para macroeconomistas

June 12, 2012

Un tanto confundido, después de leer a varios analistas económicos que apuntan a las claves de la superación de la crisis y de sus causas manejando sus diales macroeconómicos en términos de deuda pública y capitalización, de política monetaria, etc., me siento a escribir unas cuantas reflexiones, tirando a lo desordenado y espontáneo, tomando como ejemplo ciertos hitos tanto de la historia como de la prehistoria de las sociedades humanas, que es mi último tema obsesivo, dado que intento ser constructivo en mis obsesiones. Son cosas muy sabidas y yo no soy experto en nada, aunque curioso de todo, pero creo que en tiempos en que la inversión en ciencia y desarrollo en España muere por estrangulamiento, es más necesario que nunca recordarlas.

Primer ejemplo: La economía de la edad del hierro es un ejemplo histórico de crecimiento sin precedentes en los medios y la eficacia de la producción agrícola, en el aumento de las poblaciones, no porque ningún analista económico descubriera qué manijas tocar para superar las dificultades, sino porque se produjeron cambios que ningún economista podría predecir, ni hoy, ni en aquel entonces, aun si hubieran existido. En alguna aldea desconocida de Oriente Medio, un forjador de bronce, o un trabajador de la piedra martilleando, descubrió que el uso en la forja de ciertas piedras que contienen hierro es muchísimo más eficaz que el uso del cobre, porque el hierro es abundante prácticamente en todas partes, a diferencia del cobre y el estaño, que son muy raros; y porque el hierro se puede reparar, mientras que una pieza de bronce requiere ser fundida en un molde nuevo. La economía de la edad del bronce, con grandes líneas comerciales, fue sustituida por una economía eminentemente local. He aquí que el comercio casi desaparece y la tecnología local cobra una importancia mayúscula por un simple cambio en la tecnología de consecuencias impredecibles. La mejor eficacia de las herramientas dio a la gente más horas libres, que algunos invirtieron en pensar en soluciones tecnológicas para sus problemas. Otro ejemplo de la edad del hierro es la construcción de silos subterráneos de grano, donde guardaban los excedentes de sus cosechas, que una vez selladas en condiciones anaerobias, entraban en una especie de hibernación, lo que permitía conservar los excedentes para años de carestía.

Segundo ejemplo: Antes de eso, algún alfarero de los Alpes, seguramente, descubrió que ciertas piedras verdosas (que contenían cobre) se podían fundir, dando la posibilidad de diseñar formas para diversas herramientas en un molde, lo que fue el origen de la cultura beaker, o cultura del vaso campaniforme, que se extendió por toda Europa llevando sus tecnologías.

Tercer ejemplo: Antes de eso, en alguna aldea de Siria, Mesopotamia o el valle del Indo, alguien que recolectaba se dio cuenta de que podía mejorar sus colectas quemando zonas de bosque e imponiendo al suelo el crecimiento de ciertas gramíneas, en lugar de tener que ir a los sitios donde crecen. En algún punto de Babilonia a alguien se le ocurre que no tiene que ir a un sitio a decirle algo a alguien o mandar un mensajero: puede acordar un código con su interlocutor y codificar su mensaje en una serie de símbolos en una tabla de arcilla. ¿Alguien duda de que esta simple idea cambió el mundo?

Cuarto ejemplo: Más recientemente, a partir del siglo xix, el mundo se vuelve una inmensa red de comunicaciones que altera la dinámica social de todo el planeta, y algunos de esos cambios los estamos viviendo todavía hoy. Las comunicaciones se pueden producir ya de forma casi instantánea. ¿Por qué? Pues porque un mozo de laboratorio llamado Faraday (ya conocemos los nombres de estos personajes, thank you very much) descubre la inducción de campos magnéticos mediante la variación de campos eléctricos. Cuando Maxwell, trabajando en la belleza de las ecuaciones, piensa que la variación de un campo magnético debería producir uno eléctrico (pura estética científica hasta este punto), se crean las bases para el estudio por parte de Hertz de la propagación de luz de modo controlado manipulando las fuentes del campo. ¡Nunca fue más rentable trabajar en la belleza de las ecuaciones!

Los avances tecnológicos tienen una periodicidad relativamente lenta. Necesita uno 10, 20, 30 años, quién sabe cuántos, para comprender mejor los problemas y mejorar las soluciones, pero es la ciencia y la tecnología la que constituye el motor del avance real de las civilizaciones, no los juegos de croupier de los economistas (quienes, por cierto, no existían en la edad del hierro, ni en la edad del bronce, ni desde luego antes, en el neolítico).

Anything that can factually happen will counter-factually happen

September 14, 2011

Physics has this feature among many other: Even the least informed person can pose a question that not even the most experienced can answer. Therefore, posing unanswerable questions has little merit in itself. The goal is to pose questions that get to the heart of the matter, whatever the matter is. That’s what I’m trying here. I think my questions make sense and if the problem of quantum indefiniteness had been actually solved the physicists who claim so should have no problem in answering. In my opinion, anybody sticking to Wojciech H. Zurek’s einselection interpretation should be asking themselves these questions very seriously.  According to this interpretation, it is enough to show that the interaction with the environment selects a basis of observables in typically thermodynamic contexts, giving rise to the definiteness of a world of classical observables. Then one constructs classical-probability operators and, with a sufficiently precise degree of accuracy, the physical state becomes an eigenstate of the probability operators in a very small time, making classical probability an emergent concept of the theory. The fact that selection of a basis does not imply selection of an alternative is the key to my questions, but I will be more explicit.

1) If, whenever a variable is in a classical regime it is because it is entangled with the environment through a great many degrees of freedom in the environmental variables in the form:

Pure states:
 \left|\psi\right\rangle =\left(\alpha\left|a\right\rangle +\beta\left|b\right\rangle \right)\left|\psi\right\rangle _{B}\mapsto\alpha\left|a\right\rangle \left|a\right\rangle _{B}+\beta\left|b\right\rangle \left|b\right\rangle _{B}

Mixture states:
 \rho=\left(\alpha\left|a\right\rangle \left|a\right\rangle _{B}+\beta\left|b\right\rangle \left|b\right\rangle _{B}\right)\left(\alpha^{*}\left\langle a\right|\left\langle a\right|_{B}+\beta^{*}\left\langle b\right|\left\langle b\right|_{B}\right)\overset{\textrm{Tr}_{B}}{\mapsto}\left|\alpha\right|^{2}\left|a\right\rangle \left\langle a\right|+\left|\beta\right|^{2}\left|b\right\rangle \left\langle b\right|

what distinguishes in this context “ Q  has been measured with output  a from “ Q  has been measured with output  b ”?

2) How does this entanglement of either vectors or density matrices describe a counter-factual measurement, like in the Elitzur-Vaidman test  or Renninger’s negative-result experiment? In other words: how does one distinguish between decoherence with factual measurement and decoherence with  counter-factual measurement?  And in still other words: why in experiments in which no measurement has been made coherence is lost when the measuring device is placed to intercept alternatives that have not been verified? What do this no measurement has been made and this not been verified mean? Perhaps things are verified or not without anything in the theory accounting for it or even providing any mathematical image of it?

3) How does the simple entanglement of vectors or matrices explain the fact that measurements persist in the output; e.g., whenever a superposition of two states with different linear momenta evolves from a previous deflection produces a localisation result, consecutive measurements of position confirm that result even though the amplitude is non-vanishing for the other result?

4) There is a classical analysis due to Nevill F. Mott with the purpose of reconciling the spherical symmetry of s waves corresponding to an alpha particle emitted by an unstable nucleus with the rectilinear trajectories it displays. What Mott does basically is to solve the problem in terms of conditional probabilities: If the particle goes trough A and B, the probability that it goes through a point not on the straight line through A and B is zero. The solution to this problem can be found in Wheeler & Zurek, Quantum Theory and Measurement; Princeton. Let us consider Mott’s problem. Let  \left|\Omega\right\rangle be a pure state of system + environment consistent with the condition “the trajectory is a straight line”―whatever that means in terms of the Hilbert-space spectral theorem―. Let now be  \left|\Omega_0\right\rangle any pure state consistent with the condition “no straight line has been registered yet” ―in the quantum theory of measurement the latter is normally called a neutral state―. Does that include the possibility that a straight line has been recorded but it doesn’t turn out to be a straight line? Doesn’t matter. It does not depend on that. Expand the Hilbert space until the alternatives are both exhaustive and mutually exclusive. Completeness and closure of the  Hilbert space guarantee the existence of such projectors. If the postulational basis of quantum mechanics is correct,   \left|\Omega\right\rangle and  \left|\Omega_0\right\rangle must be orthogonal:  \left\langle \Omega\left|\Omega_{0}\right\rangle \right.=0.

If the exponential evolution is valid and Von Neumann’s analysis of measurement also is, so that  \left[H,Q\right]=0, then there exists a certain spectral decomposition of the effective Hamiltonian  H in terms of  Q-commuting projectors ( Q= ”there is a line whatever”),

 \sum_{\beta}P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}P_{Q=\textrm{no}}\left(\beta\right)=I\\ \\ H\left(t\right)=\sum_{\beta}\alpha_{\textrm{yes}}\left(\beta,t\right)P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}\alpha_{\textrm{no}}\left(\beta,t\right)P_{Q=\textrm{no}}\left(\beta\right)

(where \beta  is a possible―actually, necessary―degeneracy index) and:

\textrm{T}\exp-i\int dt\left[\sum_{\beta}\alpha_{\textrm{no}}\left(\beta,t\right)P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}\alpha_{\textrm{no}}\left(\beta,t\right)P_{Q=\textrm{no}}\left(\beta\right)\right]=\\ \\=\sum_{\beta}e^{-i\int dt\alpha_{\textrm{no}}\left(\beta,t\right)}P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}e^{-i\int dt\alpha_{\textrm{no}}\left(\beta,t\right)}P_{Q=\textrm{no}}\left(\beta\right)

(The terms of the expansion are all commuting. We need Dyson’s evolution formula because, although the overall system can be considered closed, the expansion in macroscopically discernible projectors is necessarily made up out of many microscopic degrees of freedom, with their corresponding time dependence.)

Conclusion: Events “there is a straight line” and “there is not a straight line” persist both, and they display mutual decoherence. (Quite a different question is how to check decoherence between abstract variables, as decoherence can only be verified in terms of position, and making generic macroscopic states interfere lacks any operational meaning.) End of story. You can, of course, avoid the question and it is frequently done by appealing to the typically open character of macroscopic systems and the high number of environmental variables involved, but as can be seen, the paradox has nothing to do with such features. If one omits macroscopically discernible states, including neutral states like the one previously mentioned, of course the problem cannot be seen. But the the question arises: Why do these states not appear, if following the quantum formalism anything that can happen, will happen?

Catchphrasing physics

Anything that can happen, will happen, or everything not forbidden is compulsory, as Murray Gell-Mann had it. This can be a good slogan, that many incorrectly ascribe to Feynman, and means that any alternative no explicitly forbidden by one of the system’s symmetries takes part in evolution with a probability amplitude. But what good is a catchphrase, rule of thumb, or even a principle if we have no fundamental way to tell that that happens from that that doesn’t?

The problem is not that Nature is unpredictable, it is not that quantum is “strange” and classical is “familiar”, nor is it that a bunch of die-hards is trying to explain quantum mechanics in terms of classical mechanics. The problem is that there is no way to put a tag on an equation of the quantum formalism to say what we mean by “this, and not that, has happened”, and yet, there are instances of physical experience when that distinction is crucial.

It is possible that nobody will completely and in a contradiction-free way understand the connection between the quantum formalism and the classical, objective world. Maybe it will be, at best, a sum of individual efforts that will step by step shed light on such connection, even working in the opposite direction. As an example, Paul Ehrenfest, trying to liberate physics from indeterminacy got to establish a connection between classical and quantum mechanics through his famous theorem relating classical equations of motion with the time evolution of quantum average values. Ehrenfest’s theorem helps understand better such connection even though Ehrenfest actually failed in his attempt to submit the quantum formalism to the classical concepts.

Why should this question of telling apart factual vs counter-factual measurement or determination be important? Because in quantum cosmology these subtle qualifications are likely to be significant. Is the inflaton in a factual or counter-factual state at the time of re-heating, or slow roll, the big bang or the present phase of accelerated expansion? In any case, does it matter at all that we consider some variables as factually realised and others evolving counter-factually, that is, as an amplitude with no verification? The standard model of cosmology seems to require a variable that evolves factually (the inflaton field) as a classical background for the rest of the fields, over which they develop their quantum fluctuations from a seed of inhomogeneity given by the first deviations from equilibrium in dark matter.

All this seems to suggest that the scalar field plays a fundamentally different role from the rest of the irreducible representations of the Poincaré group; that is, not as generating multiplets and particle families, but as a different element whose function is to provide pointers or position-definite states to the rest of the field variables. The natural space to place these scalars is the quantum phase, quite simply, because there is no other place to put them without essentially breaking the structure of quantum field theory.

Todo lo que puede ocurrir factualmente ocurre contrafactualmente

September 13, 2011

La física tiene esta característica entre muchas otras: Incluso la persona menos informada puede plantear una pregunta que ni el más experto podría responder. Plantear preguntas que no pueden responderse, por tanto, tiene escaso mérito en sí mismo. De lo que se trata es de plantear preguntas que vayan al grano de la cuestión, cualquiera que sea esta. Eso es lo que intento aquí. Creo que mis preguntas tienen sentido y que si el problema de la indefinición cuántica hubiera sido en verdad resuelto, los físicos que así lo reivindican no tendrían ningún problema en contestarlas. Estas preguntas, pienso yo, deberían hacérselas seriamente, todos los que se acogen a la interpretación de la einselection de Wojciech H. Zurek. Según esta interpretación, basta con demostrar que la interacción con el ambiente selecciona una base de observables en contextos típicamente termodinámicos, dando lugar a la definición del mundo de observables clásicos. Después se construyen unos operadores de probabilidad clásica y con un grado suficientemente preciso el estado físico se convierte en autoestado de estos operadores de probabilidad en un tiempo minúsculo, con lo que la probabilidad clásica se obtiene como un concepto emergente de la teoría. Que la selección de una base no implica la selección de una alternativa es la clave de mis cuestiones, pero seré más explícito.

1) Si siempre que una variable está en régimen clásico es porque está enredada con el ambiente a través de muchos grados de libertad en las variables ambientales en la forma:

Estados puros:
 \left|\psi\right\rangle =\left(\alpha\left|a\right\rangle +\beta\left|b\right\rangle \right)\left|\psi\right\rangle _{B}\mapsto\alpha\left|a\right\rangle \left|a\right\rangle _{B}+\beta\left|b\right\rangle \left|b\right\rangle _{B}

Estados mezcla:
 \rho=\left(\alpha\left|a\right\rangle \left|a\right\rangle _{B}+\beta\left|b\right\rangle \left|b\right\rangle _{B}\right)\left(\alpha^{*}\left\langle a\right|\left\langle a\right|_{B}+\beta^{*}\left\langle b\right|\left\langle b\right|_{B}\right)\overset{\textrm{Tr}_{B}}{\mapsto}\left|\alpha\right|^{2}\left|a\right\rangle \left\langle a\right|+\left|\beta\right|^{2}\left|b\right\rangle \left\langle b\right|

¿qué distingue en este contexto “ Q  se ha medido con resultado a de “ Q  se ha medido con resultado  b ”?

2) ¿Cómo describe el enredamiento de vectores o matrices densidad una medición contrafactual, como en el test de Elitzur-Vaidman o el experimento de resultado negativo de Renninger? En otras palabras: ¿cómo distingue uno entre decoherencia con medición factual y decoherencia con medición contrafactual? Y todavía en otras palabras: ¿por qué experimentos en los que no se ha medido rompen la coherencia cuando el dispositivo de medición se interpone en la alternativa en la que no se verifica una medición? ¿Qué significan ese no se ha medido y ese no se verifica? ¿O acaso hay cosas que se verifican o no sin que la teoría, no solo explique, sino ni siquiera dé una imagen matemática de ello?

3) ¿Cómo explica el mero enredamiento de vectores o matrices el hecho de que las mediciones persisten en el resultado; p.ej., siempre que una superposición de dos estados con diferentes momentos lineales a partir de una deflexión previa produce un resultado de localización, mediciones consecutivas de la posición confirman ese resultado aun cuando la amplitud no es nula para el otro resultado?

4) Existe un análisis clásico debido a Nevill F. Mott con el fin de reconciliar la simetría esférica de las ondas s  correspondientes a una partícula alfa emitida por un núcleo inestable con las trayectorias rectilíneas que exhibe. Básicamente lo que hace Mott es resolver el problema en términos de probabilidades condicionadas: Si la partícula pasa por A y B, la probabilidad de que pase por puntos que no están en la línea recta entre A y B es cero. La solución a este problema puede encontrarse en Wheeler & Zurek, Quantum Theory and Measurement; Princeton. Consideremos el problema de Mott. Sea  \left|\Omega\right\rangle un estado puro de sistema + ambiente consistente con la condición “la trayectoria es una línea recta”―lo que quiera que eso signifique en términos del teorema espectral de espacios de Hilbert―. Sea ahora  \left|\Omega_0\right\rangle cualquier estado puro consistente con la condición “no se ha registrado una línea recta todavía” ―en la teoría cuántica de la medición este último suele llamarse estado neutral―. ¿Incluye eso la posibilidad de que se haya registrado una línea pero no resulte ser una recta? No importa. No depende de eso. Expándase el espacio de Hilbert hasta que las alternativas sean exhaustivas y mutuamente exclusivas. La completitud y el cierre en el espacio de Hilbert garantizan la existencia de tales proyectores. Si la base postulacional de la mecánica cuántica es correcta,  \left|\Omega\right\rangle y  \left|\Omega_0\right\rangle deberían ser ortogonales:  \left\langle \Omega\left|\Omega_{0}\right\rangle \right.=0.

Si la evolución exponencial es válida y el análisis de Von Neumann de la medición también lo es, de forma que  \left[H,Q\right]=0, entonces existe una descomposición espectral del Hamiltoniano efectivo  H en términos de proyectores  Q-conmutantes ( Q= ”hay una línea lo que sea”),

 \sum_{\beta}P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}P_{Q=\textrm{no}}\left(\beta\right)=I\\ \\ H\left(t\right)=\sum_{\beta}\alpha_{\textrm{yes}}\left(\beta,t\right)P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}\alpha_{\textrm{no}}\left(\beta,t\right)P_{Q=\textrm{no}}\left(\beta\right)

(donde \beta  es un posible―de hecho, necesario―índice de degeneración) y resulta:

\textrm{T}\exp-i\int dt\left[\sum_{\beta}\alpha_{\textrm{no}}\left(\beta,t\right)P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}\alpha_{\textrm{no}}\left(\beta,t\right)P_{Q=\textrm{no}}\left(\beta\right)\right]=\\ \\=\sum_{\beta}e^{-i\int dt\alpha_{\textrm{no}}\left(\beta,t\right)}P_{Q=\textrm{yes}}\left(\beta\right)+\sum_{\beta}e^{-i\int dt\alpha_{\textrm{no}}\left(\beta,t\right)}P_{Q=\textrm{no}}\left(\beta\right)

(Los términos de la expansión conmutan todos. Necesitamos la fórmula de evolución de Dyson porque, aunque el sistema global puede considerarse cerrado, la expansión en proyectores macroscópicamente discernibles está a la fuerza compuesta de una multitud de grados de libertad microscópicos, con sus dependencias temporales correspondientes.)

Conclusión: Los sucesos “hay una línea recta” y “no hay una línea recta” persisten ambos, y muestran decoherencia mutua. (Otra cosa es cómo comprobar la decoherencia entre variables abstractas, ya que la decoherencia solo se puede verificar en términos de la posición, y hacer interferir macroestados genéricos carece de sentido operacionalmente.) Fin de la historia. Se puede, por supuesto, eludir la cuestión y de hecho se elude habitualmente apelando al carácter típicamente abierto de los sistemas macroscópicos y al elevado número de variables ambientales, pero como se ve la paradoja no tiene que ver con estos aspectos. Si uno omite los estados macroscópicamente discernibles, incluidos estados neutros como el anteriormente mencionado, por supuesto que no vemos el problema. Pero entonces surge la siguiente cuestión: ¿Por qué estos estados no aparecen, si según el formalismo cuántico todo lo que puede ocurrir, ocurre?

La física a base de eslóganes

Todo lo que puede ocurrir, ocurre, o todo lo que no está prohibido, es obligatorio, que decía Murray Gell-Mann. Este puede ser un buen eslógan, que muchos atribuyen incorrectamente a Feynman, y significa que toda alternativa no explícitamente prohibida por una simetría del sistema participa con su amplitud de probabilidad en la evolución. Pero ¿para qué sirve un eslógan, regla de pulgar, o incluso un principio si no tenemos una manera fundamental de distinguir lo que ocurre de lo que no ocurre?

El problema no es que la Naturaleza sea impredecible, el problema no es que lo cuántico es “extraño” y lo clásico es “familiar”, ni que un grupo de irreductibles intente explicar la mecánica cuántica en términos de mecánica clásica. El problema es que no hay forma alguna de etiquetar una ecuación del formalismo cuántico para decir qué entendemos por “esto, y no eso otro, ha sucedido”, y sin embargo, existen ejemplos en la experiencia física en la que esa distinción es crucial.

Quizá nadie llegue a comprender de forma completa e inobjetable la conexión entre el formalismo cuántico y el mundo clásico y objetivo. Quizá sea, como mucho, una suma de esfuerzos individuales la que dilucidará poco a poco la conexión, incluso trabajando en la dirección contraria. Por ejemplo, Paul Ehrenfest, intentando liberar a la física del indeterminismo estableció una conexión entre la mecánica clásica y la cuántica a través de su famoso teorema que relaciona las ecuaciones clásicas del movimiento con la evolución de los valores esperados (promedios mecanocuánticos). El teorema de Ehrenfest ayuda a entender mejor dicha conexión incluso aunque Ehrenfest fracasara en su intención original de hacer que el formalismo cuántico se someta a los conceptos clásicos.

¿Por qué es importante esta cuestión de distinguir entre medición o determinación factual y contrafactual? Pues porque en cosmología cuántica seguramente hay que precisar estas distinciones sutiles. ¿Está el inflatón en un estado factual o contrafactual cuando se produce el recalentamiento, o el slow roll, el big bang o la fase actual de expansión acelerada? Tanto si es así como si no, ¿influye en algo que consideremos unas variables de campo como realizadas factualmente y otras evolucionando de forma contrafactual, es decir, como amplitud sin verificación? El modelo estándar de la cosmología parece precisar de una variable que evoluciona factualmente (el inflatón) como un background clásico para el resto de los campos, en cuyo fondo desarrollan sus fluctuaciones a partir de una semilla de inhomogeneidad dada por las primeras desviaciones del equilibrio que sufre la materia oscura.

Todo esto parece sugerir que el campo escalar juega un papel fundamentalmente distinto del de las demás representaciones irreducibles del grupo de Poincaré; es decir, no como generador de multipletes y familias de partículas, sino como un elemento cuya función en el formalismo matemático es dotar de pointers o estados definidos en posición al conjunto de campos. El espacio natural para ubicar estos escalares es la fase cuántica, porque simplemente, no existe otro lugar donde ubicarlos sin violentar el formalismo de la teoría cuántica de campos de forma esencial.

Sidney Coleman’s backward-missing box

August 9, 2011

My depiction of Sidney. The coffee stain is a must.

My depiction of Sidney. The coffee stain is a must.

Not that you haven’t already noticed, but Sidney Coleman was an amazing teacher and a sharp thinker. His piece of material about “the missing box”–the lingo  of stand-up comedy is only fitting for Coleman–is one of the most brilliant displays of categorical explanation I’ve seen. And although only the algorithms take you to the farthest logical consequences of a theory, the real advances are the effect, I believe, of certain turns in categorical thinking. If only it were possible to look around for empty boxes, fill them and draw the arrows with the proper functors, theoretical physics would be just a matter of drawing and picturing boxes in your mind.

Of course we all know it doesn’t work that way. But let me indulge in these pleasures. Here’s what I call Sidney Coleman’s backward missing box:

Backward-missing box for the anti-commutator in quantum field theory, Coleman style. What is missing there?

What is missing there is very easy to see, but presumably very subtle and difficult to interpret. Let’s see:

(the red symbol means “no sum in j”). So the anti-commutator has two pieces: one that restores the finiteness of the trace for XP-type operators, setting it to zero, and another one that leaves it at zero trace (easy check; integrate by parts and boundary conditions at infinity yada yada) and is the spacial scaling operator. This seems to suggest to attempt to give physical meaning to the identity:

This kind of little games with commutators and anti-commutators brings the flavour of another old topic: supersymmetric quantum mechanics. Could it be that we have not properly understood the role that the anti-commutator plays in the quantum formalism? If that were the case, the price to pay would be high, maybe even not understanding at all what supersymmetry really means and interpreting it as a multiplet-generating compact symmetry, when it actually is something more profound.

I will leave a suggestion here. I don’t quite know what to make of it, but let me point out the following: If one takes seriously the fact that probabilistic measures in the position space are non-numerable; and one interprets as a symptom of this the fact that X and P commute to an operator with no properly defined lattice of events, one can in principle restore finiteness by means of the anti-commutator. Because [X,P] is trace-singular and {X,P} is trace-singular as well, but with the opposite sign (mod a traceless operator), this seems to suggest some way of defining a trace-regularization à la Schwinger in the statistical measures of events by counterbalancing both singular measures.

Just a thought.

The Classical World from the Quantum World (II)

July 24, 2011

QC2eng

The Classical World from the Quantum World (I)

July 24, 2011

In this series of works of a tentative nature I’m trying to build an explanation of a problem with a long history in physics: the recovery of the tangible world of classical mechanics from the quantum formalism, which we know is more fundamental. I will try to stick to the following pattern in order to present the subject: a brief explanation without mathematics and an attached PDF with all the mathematical details for anyone who wishes to take a look at them.

The basis for the idea that I want to explain is the following: The phase of the quantum amplitude is embedded in the macroscopic world that we see or at least has a projection on it. This idea solves the so-called problem of measurement, meaning that it surmounts all of the objections implied in the theorems by  Gleason and Kochen-Specker and the GHZM experiment. It also manages to explain something that, in my opinion, is otherwise completely unfathomable, and constitutes the essence of almost any quantum paradox: the counterfactual measurement. Bell’s theorem, contrary to what many believe, is actually much more profound than the other, because it gets to isolate an element of the quantum reality that is truly impossible to explain with a naive “classical” mind. This analysis is based on an extremely ingenious idea due to Einstein, Podolsky and Rosen (EPR), further elaborated by Clauser, Horne, Shimony and Holt (CHSH), re-examined by Bell, of “setting a trap for Nature”, by designing an experiment in which we pose incompatible questions to distant parts of a composite physical system with a common origin. In other words, the allegation of incompleteness is cornered against relativistic causality. We will see that CHSHB is made up out of two essential parts: one, statistic correlations for incompatible variables; and the other, exact correlations for compatible variables. GHZM produces exact correlations for three compatible variables, so it remains within a context that Bell was very careful to set apart: the possibility that correlations come from the common origin of the composite system’s parts.

The space in which the quantum amplitude is defined is one in which invariance under dilatation is a fundamental ingredient, that’s why mass should not appear at the quantum level, but as a topological character of the quantum amplitudes when these are expressed in the “classical language”, meaning when the classical equations are interpreted as quadratic constrictions the quantum amplitudes must satisfy. The distinction between “quantum” and “classical” is to a large extent fictitious, as we will see.

In this first PDF I set out to make the point that it’s not a matter of letting the quantum formalism go down the drain, but interpreting it deeply to ascertain what it is that somehow has eluded our eye. It is as if we entered the scene of a crime that’s completely puzzling and enigmatic. As sleuths, we can generally speaking adopt one of two standings: (1) we start by building complicated explanations of what could have happened or (2) we spend hour after hour thinking about what we really have, what constitutes certainty, that that is obvious; taking confidence in the consistency of reality we proceed by either ruling out this and considering that according to what is more likely, taking what is certain as given. Given that the sample space of that which could have happened is presumably far wider than the sample space of logical extrapolations of that which surely has happened, something tells me the second bet is much more judicious.

The first option is no doubt far more entertaining: parallel invisible universes living one centimeter from us, rolled-up dimensions and various exotics; the second option is more boring: mass, inertia, the Klein-Gordon equation, scalars. Old news, sure thing, something trite and foul-smelling, but necessary, as sticking your nose in the evidence of a crime. In this work I will try to be the second sleuth of my metaphor.

QC1eng

El mundo clásico a partir del cuántico (II)

July 23, 2011

En el primer breve artículo, El mundo clásico a partir del cuántico (I), lo que hice fue mostrar que una teoría de campos relativista puede factorizarse de forma natural en una teoría cuántica no masiva y una clásica masiva. El ejemplo utilizado fue la ecuación de Klein-Gordon libre. Se sugirió asimismo la posibilidad de que incluir la masa en la parte cuántica de esta factorización, aun siendo una descripción posible, podría ser la base del engorro continuo que la masa produce en el formalismo cuántico.

En este segundo artículo lo que pruebo es que trazando los pasos que llevaron a Dirac a formular su famosa ecuación espinorial, existe una libertad escalar que puede explotarse en principio para hacer una factorización análoga, en la que la parte “clásica” es de nuevo la ecuación de Hamilton-Jacobi relativista clásica. Recientemente he descubierto que esto no es completamente nuevo (casi nunca una idea es completamente nueva), ya que Roman Jackiw Claudio Rebbi y otros llevan mucho tiempo explorando el mismo tipo de idea en física de la materia condensada para sistemas como el grafeno (que es un sistema bidimensional) o el poliacetileno. Pero parece ser que la mayoría de estos estudios se han centrado en sistemas bidimensionales sobre los que después se estudian estados de carga fraccionaria. Existe un teorema que asegura que no hay lumps, kinks o solitones similares para un lagrangiano escalar con potencial V\left(\varphi\right) en más de 2 dimensiones espaciales. Este no es nuestro caso, ya que el lagrangiano de la ecuación de Hamilton-Jacobi clásica no es el mismo que el de la KG generalizada con potencial V\left(\varphi\right) (sine-Gordon, \lambda\varphi^4 etc). De  hecho, la ecuación de Hamilton-Jacobi libre es básicamente la identificación a cero del lagrangiano de KG. Apréciese la sustancial diferencia! Por eso aquí sí que existen lumps tridimensionales, en particular con soluciones estáticas y de energía finita.

Pero estoy adelantando acontecimientos. En este PDF se verá que en la ecuación de Dirac está implicada la ecuación de Hamilton-Jacobi clásica relativista.

El mundo clásico a partir del cuántico II (PDF)

El mundo clásico a partir del cuántico (I)

July 22, 2011

En esta serie de trabajos de carácter tentativo intento construir una explicación a un problema ya antiguo en física: la recuperación del mundo tangible de la mecánica clásica a partir del formalismo cuántico, que sabemos más fundamental. Pretendo ceñirme al siguiente patrón para exponer el tema: una breve explicación elemental sin matemáticas y un PDF enlazado con todos los detalles matemáticos para quien quiera echarles un vistazo.

La base de la idea que quiero explicar es la siguiente: La fase de la amplitud cuántica está embebida en el mundo macroscópico que vemos o al menos tiene proyección sobre el mismo. Esta idea resuelve el llamado problema de la medición, entendiendo por ello que supera todas las objeciones de los teoremas de  Gleason y de Kochen-Specker y el experimento GHZM. Consigue además explicar algo que de otra manera es inexplicable en mi opinión, y que constituye la esencia de casi todas las paradojas cuánticas: la medición contrafactual. El teorema de Bell, en contra de lo que mucha gente cree, es en realidad mucho más profundo que los otros, porque consigue aislar un elemento de la realidad cuántica que es verdaderamente inexplicable con una mentalidad “clásica” ingenua. Este análisis se basa en la ingeniosísima idea de Einstein, Podolsky y Rosen (EPR), elaborada por Clauser, Horne, Shimony y Holt (CHSH), reexaminada por Bell, de “poner una trampa a la Naturaleza”, diseñando un experimento en el que se hacen preguntas incompatibles a partes distantes de un sistema físico compuesto con un origen común. En otras palabras, se pone la alegación de incompletitud contra las cuerdas de la causalidad relativista. Veremos que el CHSHB contiene dos partes esenciales: una, correlaciones estadísticas para variables incompatibles; y otra, correlaciones exactas para variables compatibles. GHZM reproduce correlaciones exactas para tres variables compatibles, y por tanto se queda dentro del contexto que Bell fue muy cuidadoso en discernir: posibilidad de que las correlaciones provengan del origen común de las partes del sistema compuesto.

El espacio en el que se define la amplitud cuántica es un espacio en el que la invariancia bajo dilataciones es un ingrediente fundamental, por eso la masa no debería aparecer en el nivel cuántico, sino como un carácter topológico de las amplitudes cuánticas cuando se expresan en el “lenguaje clásico”, entendiendo por ello cuando se interpretan las ecuaciones clásicas como constricciones cuadráticas que las amplitudes cuánticas tienen que satisfacer. La distinción “cuántico” y “clásico” es ficticia, como se verá.

En este primer PDF planteo que no es necesario tirar el formalismo cuántico a la basura, sino interpretarlo para entender qué no hemos sabido ver. Es como si entráramos al escenario de un crimen que resulta absolutamente enigmático. Como detectives podemos adoptar, a grandes rasgos, una de estas dos posturas: (1) empezamos a elaborar complicadas explicaciones de lo que ha podido pasar o (2) pasamos horas interminables pensando en lo que de verdad tenemos, en lo que es seguro, en lo evidente; y confiando en la consistencia de la realidad vamos descartando o considerando según lo que es más probable, dado lo que es cierto. Dado que el espacio muestral de lo que ha podido pasar es mucho más amplio que el espacio muestral de las prolongaciones lógicas de lo que con seguridad ha pasado, algo me dice que la segunda apuesta es mucho más juiciosa.

El primer camino es divertidísimo: universos paralelos e invisibles que viven a un centímetro de nosotros, dimensiones enrolladas y exotismos varios; el segundo camino es más aburrido: masa, inercia, ecuación de Klein-Gordon, escalares. Cosa vista, cosa sabida, cosa adocenada y maloliente, pero cosa necesaria, como meter las narices en las pruebas del delito. En este trabajo intentaré ser el segundo detective de mi metáfora.

QC1