Comenzaré
este capítulo hablando de la irreversibilidad en el ámbito de la
termodinámica, tras lo cual, expondré cómo este teoría, añadida
a los estudios de Planck, ha llevado a la cuantificación de la
Física, hablando, a su vez, de la entropía y del aumento de ésta
en la teoría sobre el cuerpo negro y la discontinuidad cuántica.
De este modo, tendremos las primeras coordenadas científicas que
nos servirán después de apoyo para nuestro análisis gnoseológico
de los problemas que aquí aparecerán.
Para empezar, la termodinámica afirma que en
cualquier sistema cerrado el desorden, o entropía, siempre
aumenta con el tiempo, es decir, podemos proclamar la existencia
de una flecha en el tiempo. Vamos a ver esto con un poco más de
detenimiento y a adentrarnos primero en la irreversibilidad
dentro de la termodinámica para después pasar a la
cuantificación de la Física a partir de la primera y los
estudios de Max Planck.
Empezaremos
con la afirmación de que el calor no fluye por sí mismo de un
cuerpo frío a otro caliente, pero fluye espontáneamente del
caliente al frío. Partiendo de la temperatura más alta, parte
del calor puede haber realizado trabajo útil mediante una
maquina conveniente. En esta conversión, el resto pasa a un
cuerpo de temperatura inferior (condensador). Cuando esta
temperatura es la menos posible, no puede obtenerse más trabajo.
Pero si se ha despreciado esta oportunidad de obtener trabajo,
se ha perdido para siempre. Kelvin, refiriéndose a esta pérdida,
la llamó disipación de la energía, sin querer expresar
destrucción de la energía, sino anulación de su capacidad para
realizar trabajo útil. También se llama degradación de la
energía.
Un gas a presión elevada realiza trabajo al
expansionarse reversiblemente en un cilindro descendiendo su
presión en este proceso. Para tener de nuevo el gas a presión
elevada hay que realizar una cantidad de trabajo por lo menos
igual a la necesaria para una conversión reversible. De aquí que
cuando se ha perdido la oportunidad de realizar una cantidad de
trabajo por lo menos igual a la necesaria para una conversión
reversible. De aquí que cuando se ha perdido la oportunidad de
realizar trabajo se ha perdido para siempre. A. W. Porter da el
nombre de “shirk” a este trabajo externo posible cuya
realización se ha frustrado.
Este autor llega a afirmar que en la práctica “no existe
ningún proceso reversible. Las transformaciones reversibles son
ideales.”
Es decir, las ecuaciones reversibles representan sencillamente
relaciones válidas entre estados de equilibrio sucesivos,
transformaciones equivalentes a los desplazamientos virtuales de
la mecánica.
Todo el trabajo realizado contra el rozamiento en el
interior de un sistema aparece como variación de energía, y
produce en la presión, volumen temperatura el mismo cambio que
realizaría una cantidad equivalente de calor que pasara a través
de una pared externa. Si suponemos que la energía tenga un valor
fijo para valores dados de p, v, T , (y, a menos que
admitamos esta propiedad, perdamos todas las ventajas de la
consideración de esta función), la entropía debe aumentar cuando
aumenta la temperatura a consecuencia del rozamiento, aunque no
haya entrado calor en el sistema procedente del exterior.
Gustav Kirchhoff afirmó en su
ley de radiación
que la distribución de la energía dentro de una cavidad con
paredes perfectamente absorbentes tiende al equilibrio
cualquiera que sea la distribución arbitraria de la energía al
principio, llegando a ser la energía constante en toda la
cavidad.
Para el problema del la radiación de energía de un cuerpo negro
dentro de una cavidad tratado por Planck fue fundamental, como
ya he dicho, el estudio en torno al segundo principio de la
termodinámica realizado por Clausius : “El calor
no puede pasar por sí solo de un cuerpo mas frío a otro más
caliente, permaneciendo inalterable el resto del universo”,
así pues, la energía total de un sistema aislado debe permanecer
constante en el tiempo. En el caso límite su entropía
sólo puede aumentar, o en el caso límite ideal, permanecer
constante. Una de las funciones de Clausius, señalaba la
imposibilidad de que el mundo regrese a un estadio anterior
ocupado.
La radiación negra es un caso de equilibrio térmico. Si se
inyecta una distribución inicial arbitraria de energía en una
cavidad aislada, la distribución tenderá al equilibrio a medida
que la energía es absorbida y emitida por cualquier mota de
material (siendo negro, la admisión-emisión se realizará con
mayor facilidad) que contenga la cavidad. La aproximación al
equilibrio es irreversible y la entropía tiene, por tanto, que
aumentar hasta su grado máximo, es decir el equilibrio
energético en toda la cavidad.
Planck reconciliará el segundo principio de la
termodinámica con el problema del cuerpo negro, Para ello
resucitó el intento de Boltzman de una teoría estadística
de la entropía, afirmando, de este modo, la naturaleza
estadística de este segundo principio, que también será
proclamada por Maxwell, porque tratamos con millones de
moléculas, violándose esta principio cuando tratamos con algunas
de ellas solamente. Clausius y Maxwell hablarán de este
principio como algo meramente macroscópico, que se contradice
cuando tratamos con un número determinado de moléculas, así es
preciso recurrir a tecnologías para solventar el problema
surgido. Maxwell, recalcará la naturaleza estadística de este
segundo principio en contraposición de una posible
interpretación matemática, de un modo más riguroso hablando, ya
que depende del hecho de que los cuerpos que manejamos consisten
en millones de moléculas… de ahí que este segundo principio se
viole constantemente en cualquier grupo de moléculas
perteneciente a un cuerpo real.
Analizando la
primera interpretación del
teorema H de Boltzman referido a la estabilización de las
moléculas, descubrimos que la estadística entra en la derivación
de este autor referida al cálculo del número de colisiones.
Dentro de la física estadística vemos que los casos ya no pueden
ser imposibles, sólo extraordinariamente improbables. Así pues,
la ecuación de Boltzman (teorema H) supone una aproximación
probable al comportamiento real de las moléculas en condiciones
físicas convenientemente elegidas y para periodos de tiempo
limitados. Al considerar el carácter probabilístico, suponemos
que se pasa de unos estados menos probables (inicial) a otros
más probables (equilibrio térmico), definiéndose la verdad de
este ecuación en términos de probabilidad.
Planck, como ya habíamos citado anteriormente, lleva
la cuestión de la estadística dentro del segundo principio de la
termodinámica y dentro de la ecuación de Boltzman al problema de
la radiación del cuerpo negro. De este modo afirmará que todos
los procesos de radiación natural son irreversibles, es decir,
la intensidad de las ondas que pasan sobre el resonador señala
menores fluctuaciones después que antes, apareciendo así un
tratamiento paralelo entre la teoría de gases y la de la
radiación.
El punto crucial del proceso es cuando Planck tiene
que introducir una hipótesis de la misma forma que la
estipulación de Boltzman que afirmaba que la tasa real de
colisiones en un gas es la misma que la tasa media. Esto, más o
menos, viene a decir que los resultados que podemos obtener en
la mecánica clásica coinciden con los resultados que podemos
obtener cuando realizamos la media estadística de los datos
obtenidos en el análisis individual de cada una de las
partículas, por ejemplo. Podemos decir que los resultados
obtenidos por la mecánica clásica son las generalizaciones
estadísticas de los resultados de la mecánica cuántica, Pero
dejaremos emplazado para más adelante la cuestión de eso que
hemos denominado generalizaciones.
El punto crucial del proceso es cuando Planck se ve obligado a
introducir la hipótesis, de la misma forma que la estipulación
de Boltzman de que la tasa real de colisiones de un gas es la
misma que la tasa media.
Lo que buscaba Planck, entonces, era una ecuación
que ligara la energía del resonador Vo y la intensidad física,
obteniendo como resultado la ecuación fundamental, que
gobernará la lenta variación de la energía del resonador con el
tiempo. Fue fundamental la definición combinatoria de la
entropía por parte de Boltzman, así pues, la magnitud de la
entropía sólo alcanza un valor máximo cuando el sistema total de
resonadores más el campo han llegado al equilibrio, y la
entropía será así constante.
Para calcular esta entropía, Planck continuará los pasos de
Boltzman al introducir la combinatoria y subdividir el continuo
de energía en elementos de tamaño finito, pero añadiendo una
novedad adicional, el tamaño de los elementos de energía tiene
que ser, a diferencia de Boltzman, fijo y proporcional a la
frecuencia. E=h
×
v,
donde E es la energía, h la constante de Planck, que
equivale a 6’55. 10-27 (ergios por segundo), y v
la frecuencia.
Según Albert Messiah,
el único punto de la quiebra de la mecánica clásica es el
atomismo de la acción. De este modo hemos visto el proceso
histórico que lleva desde los pasos de la termodinámica hasta la
cuantificación de la física.
Haciendo un pequeño repaso de lo dicho hasta ahora comprendemos
que la propuesta o el problema de Planck era la compresión del
comportamiento de la Energía en la radiación de un cuerpo negro.
Un cuerpo negro es aquel que es capaz de absorber toda la
radiación que le alcanza, es decir, su coeficiente de absorción
es igual a 1. Es un radiador integral.
Planck llega a la conclusión de que el átomo emite luz en
pequeños paquetes, pero esta radiación emitida, y esto es lo más
importante, no es infinitamente divisible, es emitida
discontinuamente en cantidades finitas. Estas escalas en las que
el átomo emite radiaciones se denominan cuantos. La
magnitud del cuanto no es la misma para todas las radiaciones,
sino que es proporcional a la frecuencia. Esta proporción es
‘h’, es decir, la constante de Planck. De este modo, un
resonador no puede adquirir ni perder energía salvo en un número
entero de cuantos, de este modo, este constante regulará todo el
universo microcósmico. Según Desiderio Papp,
será esta constante la que pondrá la condición de imposible
segregabilidad entre las relaciones de sujeto y objeto, es
decir, ya no podremos hablar como se hablaba en la física
clásica de la segregación del sujeto en las estructuras formales
de dicha ciencia. Ahora sujeto y objeto son imposibles de
separar, no podemos ver ahora claramente diferenciadas génesis y
estructura, según la opinión de este autor.
Este es el
gran cambio que se produce, esta es la ruptura de la mecánica
clásica. Una ruptura que, como veremos, no podrá ser tildada de
inconmensurable, es decir, de corte epistemológico entre una
pretensión científica (la clásica) que se será expuesta como una
especie de pseudo-ciencia, como un estadio mitológico de la
ciencia cuántica tras el establecimiento de esta última en los
círculos científicos. Antes al contrario. Veremos como en
realidad es una parte ligada estrechamente, a modo de
conjugación, a la otra parte, es decir, podremos comprobar en el
efecto compton (como un caso específico de la categoría
científica que aquí tratamos) que podemos ver dentro del
análisis cuántico de este caso, cómo está inserto el clásico de
una manera determinante, sin que por ello quede segregado a una
especie de prehistoria científica. De este modo estableceremos
la relación existente entre los resultados cuánticos obtenidos
por este experimento y los clásicos.
Lo más
importante que podemos afirmar de la constante de Planck es que
liga el corpúsculo a la onda, es decir, el impulso a la
frecuencia, es lo que impide ver a la vez estos dos aspectos de
la naturaleza (E=h×v).
Pero para ver con más detenimiento todo esto es mejor
adentrarnos en lo que significa este doble aspecto del mundo
físico, a saber: el corpuscular y el ondulatorio. Después
veremos dos casos específicos que nos demostrarán la corpuscularidad de la luz, a saber: el
efecto
fotoeléctrico y el efecto compton, que serán tema de
nuestro primer análisis, lo que antes habíamos citado.
b)
El doble
carácter de la materia
Bohr,
siguiendo la línea de Rutherford y con los estudios de Planck en
la mano, introduce el cuanto de acción en el interior del átomo
obteniendo como resultado la introducción de leyes de la
naturaleza allí donde sólo había hechos empíricos. Ahora
enlazaremos esta cuestión con la fórmula antes citada, donde
Planck relaciona impulso y energía, o la formulación de
Einstein, paralela en cuanto a esta relación, donde nos
encontramos conectados los términos de masa y energía en la
fórmula E=mc2, haciendo de soporte , esta vez, la
velocidad de la luz. Pero este es otro tema.
La cuestión
que aquí nos interesa es la de que la partícula subatómica
denominada electrón o bien se localiza en el tiempo o bien se
hace en el espacio, pero es imposible localizar con certeza este
par de magnitudes con certeza absoluta al mismo tiempo (tema que
trataremos en breve con un poco más de detenimiento). El que
formulará la tesis del doble aspecto del electrón será De
Broglie: o bien se puede entender electrón en forma de una onda
(ecuación de Schrödinger) o bien en forma de corpúsculo. Pasemos
a ver en los postulados de Bohr como queda ejemplificado esto de
una manera clara:
Postulado
tercero: “La radiación emitida durante la transición de un
sistema entre dos estados estacionarios es homogénea, siendo la
relación entre la frecuencia ‘v’, y la energía total emitida
‘E’: E = hv.” Aquí se pone de manifiesto que
cualquier acontecimiento microcósmico está regido por el cuanto
de acción, es decir, no hay una continuidad infinitamente
divisible en los procesos físicos. Ahora la unidad mínima de
división es ‘h’.
Postulado
cuarto: “Los diferentes estados estacionarios de un sistema
simple que consista en un electrón girando en torno a núcleo
positivo quedan determinados por la condición de que la relación
entre la energía total emitida en la formación de la
configuración y la frecuencia de revolución del electrón sea un
múltiplo entero de ‘h/2’. Suponiendo que la órbita del
electrón sea circular, esa hipótesis equivale a decir que el
momento angular del electrón que gira en torno al núcleo es un
múltiplo entero de ‘h/2π’
(debido a que las ondas deben ser estacionarias).”.
Aunque el
modelo de Bohr justificó espectacularmente los estudios de
Balmer en torno a los espectros atómicos, pronto surgieron
dificultades incluso para el mismo espectro de hidrógeno (como
luego veremos), algunos de cuyos detalles no era posible
interpretar. Por este motivo, Sommerfeld (1916) perfeccionó el
modelo de Bohr considerando que las órbitas podían también ser
elípticas. No obstante, el modelo atómico de Bohr-Sommerfeld
sólo pudo ser aplicado al átomo de hidrógeno y similares (es
decir, átomos con un solo electrón).
Por otra
parte, se hacía notar que los postulados de Bohr eran una mezcla
de mecánica clásica y cuántica. Además, el segundo postulado
era, si no arbitrario (referente a la proporcionalidad de h/2π
que era un supuesto ad hoc para que todo encajase) al
menos semiempírico (en el sentido en que la única manera de
deducir la fórmula de Balmer era introduciendo estos términos).
Tratemos
ahora sobre el impulso de este electrón que gira en torno al
núcleo positivo: lo primero que tenemos que saber es que el
electrón no radia energía durante la trayectoria por la órbita,
sólo cuando salta de una a otra; siendo al fuerza de atracción
igual a la fuerza centrífuga, el electrón puede mantenerse en su
círculo. El impulso que el electrón posea sobre el más pequeño
de los círculos debe ser igual a un número entero de ese valor
sobre todos los otros círculos: p=h/λ.
Aquí es donde vemos precisamente ligados las dos magnitudes
correspondientes a cada uno de los dos aspectos de la naturaleza
de los que aquí damos cuenta, es decir, la relación que Bohr
llamó de complementaridad entre el impulso (magnitud
corpuscular) y al longitud de onda ‘λ’.
Esta dualidad
que presentan los electrones también la presentará la luz, como
veremos en breve, reafirmándose como onda continua a la
par que como fotón discontinuo. El problema que aquí
aparece es que el electrón no lo podemos encontrar en las
coordenadas espacio-temporales de las que hacíamos uso con la
física clásica, sino que ahora la trayectoria de la partícula es
algo irrepresentable en este marco. Es como si el electrón
estuviese, no en un punto de su trayectoria, sino
simultáneamente en toda la circunferencia de su órbita. Aquí es
donde Louis De Broglie introduce su dualidad onda-corpúsculo,
es decir, los corpúsculos acompañados de ondas. En palabras de
Papp, son las dos caras complementarias (Bohr) de la
realidad. Es la forma de ligar lo continuo y lo discontinuo.
Siendo la
órbita del electrón estable, una onda asociada también lo será:
será una onda estacionaria. Para que el electrón pueda
mantenerse en su trayectoria, para que la onda sea estacionaria,
es preciso que ésta quede cerrada. De este modo, la longitud de
onda (λ)
debe ser tal que un número entero de las pequeñas ondas pueda
abarcar exactamente el perímetro de la órbita, pueda cerrarla:
2πr=nλ
Podemos
acudir a los cálculos de Einstein para tratar de ver cuál es el
impulso de un fotón que esté ligado a la longitud de onda del
rayo luminoso del que parte:
Si tenemos en
cuenta que: p = h /
λ, y
que por lo tanto:
λ = h
/ p; entonces:
2πr
= n·(h
/ p), de este modo:
p
= n·(h / 2πr),
donde si r = 1, tenemos entonces:
p
= n·(h / 2π).
No puede
concretarse el qué punto de la trayectoria, pues el electrón
está simultáneamente en todos ellos. Para Schrödinger, la onda
aparece como la portadora de la “posibilidad” en el mundo
microscópico. De este modo, el movimiento de un cuerpo no será
la trayectoria de un punto material, sino que éste se vuelve el
centro de un haz de ondas, su desplazamiento será la propagación
de ese haz, cuya dirección coincidirá con la trayectoria del
móvil en la vieja mecánica clásica. La Ecuación de onda (Ψ)
disuelve el punto de materia en grupos de ondas.
Son las ondas
estacionarias las que se presentan bajo el aspecto de lo que
mundanamente llamamos “materia”. El ser granular que desde
Crookes y Thompson se llamó electrón no existía. Lo que existe
es un campo eléctrico que abarca los niveles energéticos del
átomo. Donde había órbitas, ahora hay una nube negativa que
llena los alrededores de todo el núcleo positivo. Pero esta
imagen de nube no la podemos aplicar a un electrón fuera del
átomo.
En torno a la
cuestión de la posición y velocidad del electrón, cabe decir de
estas dos magnitudes que su relación se produce a modo de
conjugación, es decir, cuando más podemos determinar una, debido
a la longitud de onda de la luz con la que tenemos que alumbrar
el electrón para conocer dichas magnitudes, menos podremos
determinar la otra. Así pues, la que representación de esta
relación habrá de hacerse en forma de matrices. Estas hacen,
debido a la regla de no conmutabilidad, que se encuentre
intercalada entre ellas el factor h, es decir, es
imposible determinar con igual exactitud bien la velocidad, bien
la posición.
Ondas y
corpúsculos forman parte tanto de lo que entendemos como materia
como de lo que entendemos como luz… es el doble aspecto de la
naturaleza que antes hemos citado. Las conclusiones de todo esto
son, como muchos han citado, demoledoras (según algunos autores)
para la física clásica: la ley de conservación de la materia
ahora es caduca, puesto que masa y movimiento están
esencialmente relacionados, por la igualdad antes citada. El
movimiento acorta longitudes, aumenta masas y dilata el
transcurrir del tiempo, dicho de una forma grosera. Veamos lo
que supone el establecimiento de la relación entre masa y
energía (como otra representación de este doble aspecto) en la
estructura formal de la nueva física.
El gran paso
que dio Einstein fue el de proclamar constante la velocidad de
la luz en el vacío, es decir, esta velocidad es la misma con
independencia del sistema desde donde se mide esté en reposo o
en movimiento; independiente, si está en movimiento, de la
velocidad del sistema de referencia. De este modo, la velocidad
de la luz será para Einstein la misma en todas las direcciones,
independiente del estado de movimiento de su fuente y constante
en la naturaleza en sistemas inerciales. El paso es el
siguiente:
V= V1
+ V2 Aquí nos encontramos con la composición
clásica de velocidades formulada por Galileo.
V= (V1
+ V2) / {1+ [(V1 · V2) / c2]},
que sería la formulación cuántica de Einstein, donde c es
la velocidad de la luz que, como bien sabemos, equivale a unos
300.000 km. por segundo (aprox.).
Los resultados para velocidades medias se asemejan
increíblemente entre ellos, es decir, de nuevo estamos ante lo
que queremos ver en breve, a saber: que las estructuras formales
clásicas se igualan a la media probabilística de la serie de
resultados cuánticos, así que se puede decir que a velocidades
de escala humana, la fórmula galileana es una buena regla de
aproximación, pero no una ley rigurosa.
Las nociones de la física clásica van perdiendo, poco a poco, su
significado, es decir, nociones como la de espacio y tiempo y
sus unidades de medida (cm. y segundo) no las podemos denominar
actualmente magnitudes absolutas. Lo único absoluto, constante
ahora es la velocidad de la luz. Así pues, a medida que
cualquier cuerpo se va acercando a la velocidad de la luz, su
longitud disminuye, el tiempo allí se alarga cada vez más y su
masa se eleva. Esto llevado a la formulación vendría a ser:
Esto regula
el acortamiento de espacio y la dilatación del tiempo.
La longitud de una barra en reposo sería:
Así como la duración del tiempo en segundos sería igual a:
También en un campo gravitatorio grande, como pueda serlo el del
Sol, el tiempo se dilata. Pero ahora veamos los cambios en la
concepción de la masa, desde la fórmula clásica hasta la
relativista.
La fórmula clásica dada por Newton en cuanto a la relación entre
fuerza y masa venía a ser:
F=m·a, pero para determinar la masa
necesitamos del tiempo, pues:
.a=V / t2, y sólo para un
mundo en el que el tiempo es absoluto, la masa también lo sería,
pero al no serlo, la fórmula correspondiente es la siguiente:
De este modo hemos visto cual ha sido el cambio en las fórmulas
tanto clásicas como relativistas y lo que ha significado el
establecimiento de la relación formal entre masa y energía,
entre impulso y frecuencia. Veamos ahora lo que sucede cuando
llevamos estos estudios al ámbito del fotón, como lo hicieron
Einstein (para establecer la corpuscularidad de los fotones) y
Compton.
c)
El efecto
fotoeléctrico y el efecto compton
Para que un electrón se desprenda de una pantalla metálica se
requiere una cantidad energía para liberarlo y dotarlo, a su
vez, de energía cinética. Para ello se requiere un foco de luz y
debido a la acción corpuscular de la luz, pueda uno de los
fotones chocar con el electrón y así, de este modo, liberarlo de
la placa metálica a la que estaba ligado con una determinada
energía. Veamos ahora de que depende que la luz pueda desprender
el electrón o no.
Si, por ejemplo, alejamos o acercamos la pantalla sobre la que
actúan los fotones, estos siguen liberando electrones. Con la
lejanía, la intensidad de la luz disminuye y, como consecuencia,
también el número de electrones liberados. De este modo, la
velocidad con la que se desprenden electrones no depende de la
longitud de onda, sino de la frecuencia, es decir, su color. En
la física clásica queda incomprensible la razón de que con luz
azul o ultravioleta configure mayor velocidad a los electrones.
En la física cuántica todo queda relacionado cuando comprendemos
la relación que queda establecida en E=h×
v, es decir, lo que esta ecuación pone de manifiesto es
que lo importante para la energía es la frecuencia (v) y
no la longitud de onda. De este modo sabemos que la luz
proporciona a “la materia” la energía suficiente para liberar un
electrón de ella, adquiriendo éste una determinada energía
cinética. Esta energía es dada en forma de cuantos. Dicho de
otra manera: la intensidad de corriente eléctrica producida es
proporcional a la intensidad de la radiación recibida por el
metal pero no así la velocidad de los electrones, que como ya
hemos dicho, depende de la frecuencia. Cuando uno de estos
fotones de los que está compuesta la luz choca contra un
electrón, este recibe una energía h· v. Al
abandonar el metal, esta partícula de “materia” negativa deberá
realizar un trabajo igual a la energía de ligadura en el metal:
W. De este modo lo que tenemos es la siguiente igualdad:
½mv2
= h·v-W.
Podemos afirmar que esta es la demostración experimental clásica
de la corpuscularidad de la luz, de los fotones. Pasemos ahora a
ver el experimento llevado a cabo por Compton:
A
diferencia del efecto fotoeléctrico, que es un caso donde se
produce una absorción pura y simple de luz por parte de un
electrón, en el efecto Compton encontramos que lo que se produce
es una absorción y reemisión de luz. Se observa en la difusión
de los rayos “x” por los electrones libres o débilmente ligados.
La longitud de onda (“λ”)
de la radiación difundida es mayor que la reincidente, variando
esta diferencia en función del ángulo de incidencia de la luz y
la propagación (ø).
∆λ = 4π∙(h/mc)∙sen2∙(ø/2)
Donde “h/mc” es la longitud de onda de Compton de un
electrón, que equivale a 3’86· 10-10 cm.; “m” es la
masa del electrón en reposo. Hay que recordar que la longitud de
onda que aquí tratamos (Δλ)
es independiente de la longitud de onda incidente.
P:
es el impulso del fotón antes de chocar con el en
reposo, es decir, el impulso inicial. P’: es el impulso final
del fotó. p’: es el impulso del retroceso del electrón después
del choque con el fotón.
Si tenemos en
cuenta que:
.λ
v = c, y que:
E = pc, y que por lo tanto:
.p = hv/c = h/λ.
Las
consecuencias del diagrama anterior son las siguientes: P = p’
+ P’ y,
En la teoría corpuscular del efecto compton, la energía (E) y el
impulso (p) totales se conservan en el choque elástico entre el
fotón incidente y el electrón. Las dos últimas ecuaciones vistas
reflejan la conservación del impulso. Estas ecuaciones,
conociendo las condiciones iniciales y la dirección de emisión
del fotón, permiten definir el choque completamente.
La emisión del fotón difundido y la del electrón de retroceso
tienen lugar simultáneamente y la correlación entre los ángulos
de emisión
Ø y
“H” está de acuerdo con la teoría.
El defecto esencial de la teoría clásica del efecto compton
consiste en prever un paso continuo de impulso y de
energía de la radiación a todos los electrones sometidos a la
irradiación, mientras que el efecto experimentalmente observado
consiste en un paso discontinuo e instantáneo a alguno de ellos.
Cabe señalar que la diferencia de longitud de onda (Δλ)
depende del ángulo Ø de observación de la radiación difundida.
De este modo, la formulación clásica del efecto Compton sería la
siguiente:
Δλ
=
2λ[Pcl·c
/ Ecl – (Pcl·c)]2sen 2ø
“Δλ”
es la función creciente de Pcl, que es el impulso del electrón.
Ésta aumenta regularmente durante su irradiación. En “2λ”,
“λ”
está referido a la longitud de onda incidente. La energía del
electrón, es decir, “Ecl.” Sería igual a:
(suponiendo que se mueve en la dirección de propagación.)
Si el electrón se mueve paralelamente a las ondas luminosas
incidentes con el impulso “P” y la energía sigue siendo dada por
la fórmula anterior, resulta que:
Δλ = 2λ·{(P
+ p)·c / [(E – P )· c]}· sen2 (ø/2),
que resultaría la fórmula cuántica, pues ya damos un carácter
discontinuo al paso de impulso y energía.
Si nos fijamos en los resultados que podemos obtener en una y
otra fórmula y los comparamos, descubriremos que los resultados
obtenidos por la fórmula clásica coinciden enteramente con la
media de los obtenidos por la cuántica, es decir, la última de
las fórmulas aquí expuestas.
Pero para pasar de la clásica a la cuántica es necesario
sustituir el impulso del electrón “Pcl” del numerador por la
cantidad “P + p” (del orden de magnitud del impulso después del
choque fotón-electrón) y en el denominador “Ecl-Pcl·c” por el
impulso antes del choque P. Pero no nos podemos dejar engañar
por esta simple operación, es decir, esto que acabamos de hacer
implica una gran diferencia entre las dos fórmulas, una
diferencia que pone de manifiesto la “quiebra” de la física
clásica. Esta diferencia es, a saber: la cuantificación de la
variación del impulso en la segunda fórmula, variación que, por
consiguiente, ya no será continua, como se pretende en la
primera fórmula. De este modo, el impulso “P” del electrón
crece, pues, por saltos sucesivos, en la dirección de la
radiación incidente: Estos saltos serán gobernados por la
fórmula:
P = hv/c
La “generalización” de la segunda ecuación, es decir,
considerando el cuanto infinitamente pequeño y tomando los
choques como muy numerosos, al cabo de un número muy grande de
estos, las fluctuaciones entre las dos fórmulas se compensan, el
efecto resultante es prácticamente el mismo que si recibiera en
cada choque este impulso medio. De hecho, podemos definir,
dentro de estos límites de aproximación o de generalización de
los que estamos hablando, un impulso (“P”) creciente de manera
continua a lo largo del tiempo que es igual al que prevé la
teoría clásica. De este modo, si se realiza el experimento a lo
largo del tiempo, la gráfica que obtenemos es la
siguiente
La línea roja
representará los resultados previstos por la teoría clásica,
unos resultados continuos, como bien podemos observar en el
esquema anterior. La línea negra es la que representa los
resultados obtenidos en la repetición del experimento utilizando
la teoría cuántica. La conclusión que podemos obtener de este
diagrama es la que antes hemos citado, es decir, que la media
obtenida por los resultados cuánticos coincide con la previsión
clásica. Vemos que “Pcl” es igual en cada instante al valor
medio de P. El desplazamiento de Compton previsto por la teoría
clásica es igual en cada instante al valor medio del
desplazamiento de Compton observado efectivamente en la fórmula
cuántica.
(d) El
principio de incertidumbre y la ecuación de onda
Comenzaremos
este capítulo con los estudios de Heisenberg, que ampliará el
efecto Compton y dará un carácter indeterminado (para las
interpretaciones más idealistas) a toda la física a partir de
ese momento, y más que a la física, como luego veremos, a varias
de las interpretaciones filosóficas de la misma, que tomando
ciertos aspectos como determinantes para el resto del
“universo”, pondrán en cuestión la noción de ciencia practicada
en la “física clásica” reclamando, de este modo, un nuevo
sentido de este concepto (“ciencia”) en donde el sujeto no quede
enteramente segregado de las estructuras formales cuánticas, es
decir, que el sujeto y su conocimiento serán los ejes centrales
en la estructura de esta ciencia, en contraposición de lo
que ocurría en la “antigua física”, donde el sujeto quedaba
formalmente segregado. Así pues, lo que antes era un saber,
ahora es un conocimiento (en opinión de algunos autores), la
génesis se confunde con la estructura, los
contextos de descubrimiento con los contextos de
justificación, el primer mundo de Popper con el
tercero.
La teoría de
Heisenberg será un poco más complicada que las expuestas por
Rutherford y por Bohr (donde los electrones giran alrededor del
núcleo como planetas independientes. Pero mientras el electrón
no realiza cambio alguno, hay magnitudes, afirma Heisenberg, que
no son observables, ni siquiera teóricamente. Según Dirac: “Las
cantidades variables correspondientes a un estado estacionario
de la teoría de Bohr, las amplitudes y frecuencias del
movimiento orbital no tienen significación física”.
La teoría ordinaria de los quanta utiliza magnitudes imposibles
de de ser comprobadas por la observación, tales como la posición
y la duración de revolución de los electrones (momento)
y que el electrón debe poder ser representado por cantidades
mensurables tales como las frecuencias de su radiación.
Pero las frecuencias que pueden ser objeto de observación son
siempre diferencias entre dos “términos”, cada uno de los cuales
viene representado por un número entero. De este modo, llegamos
a la representación del estado de un electrón por una serie
infinita de números, que vienen dados por una matriz. Si Tn
y Tm son dos “términos”, una frecuencia
observable será vnm:
vnm
= Tn-Tm
Los números
tales como vnm (de los cuales hay una doble
serie finita) son los que caracterizan al átomo, en la medida en
que puede ser estudiado. Desde Heisenberg, esto puede ser
expresado del siguiente modo:
comencemos desde la teoría clásica: dado un electrón con un
cierto grado de “libertad”, en armónica, la elongación x,
en un tiempo t puede representarse por una serie de
Fourier:
x
= x (n, t) =
Σx(n)τ
· e 2πιυ(n)·τ·t
Siendo “n”
una constante y
τ el
número de la armónica. Los términos sencillos de esta serie, que
son:
x(n)-e
2πιυ(n)·τt
Contendrían las cantidades que hemos señalado como directamente
observables, a saber: la frecuencia, la amplitud y la fase.
Pero, en virtud del hecho de que en los átomos las frecuencias
se nos presentan como siendo diferencias entre dos “términos”
será preciso reemplazar la fórmula precedente por la siguiente:
x (nm) e
2πιυ(nm)·τt
Y
el conjunto (no la suma) de estos términos representará lo que
era anteriormente la elongación x. La suma de todos estos
términos no tiene ya significación física alguna. De este modo,
el átomo viene representado por los números v(nm)
dispuestos en un rectángulo infinito o matriz.
La
diferencia fundamental, o la que aquí más nos importa entre el
álgebra matricial y el que utilizamos corrientemente es que en
el primero la propiedad conmutativa en la multiplicación no se
cumple: “La distinción entre movimientos cuantizados y
no cuantizados pierde todo sentido en esta teoría, puesto
que en ella no se tiene ya en cuenta la condición de los
quanta de escoger uno entre un gran número de movimientos
posibles; en lugar de esta condición aparece una ecuación
fundamental de los quanta mecánicos… que es válida para
todos los movimientos posibles y es necesaria para poder
dar una significación definida al problema del movimiento”.
La ecuación fundamental definida como lo hace Russell
refiriéndose a Born y a Jordan:
“Sea q una coordenada hamiltoniana y p el
correspondiente momento (generalizado), siendo ambos matrices.
Se recordará que la multiplicación no es conmutativa para éstas;
la ecuación fundamental tendrá la forma:
pq – qp =
(h/2πι)
· 1
en que ‘1’
representa la matriz cuya diagonal es toda de 1 y cuyos
restantes términos son todos ceros. La ecuación precedente es la
única fundamental que contiene la constante de Plank
h y es verdadera para todo movimiento.”
Las consecuencias de todo esto fueron expuestas por Heisenberg:
los electrones y los átomos no tienen “el grado de realidad
inmediata de los objetos sensibles”, sino la realidad que
podemos atribuir a los quanta de luz. El problema
aparece, según él, cuando intentamos explicar estas partículas
incluyéndolas en un espacio ordinario. Si hemos de conservar la
teoría corpuscular, solamente podremos hacerlo si no tratamos de
asignar a cada tiempo un punto espacial definido en el átomo y
en el electrón. Es preciso sustituir esta relación por un grupo
de magnitudes físicas, bien definidas, que representen cual
era la posición del electrón. Son estas las cantidades de
radiación observables, cada una de las cuales viene representada
por dos “términos” en forma que podamos obtener una matriz. La
distinción entre electrones interiores y exteriores en un átomo
pierde toda significación. “Es además, en principio,
imposible, identificar por segunda vez un corpúsculo dado en una
serie de corpúsculos análogos”.
La
importancia de Heisenberg dentro de todo esto es fundamental,
como fundamentales son también las interpretaciones hechas de
esta principio. La incertidumbre referida a la determinación,
bien de la posición o bien de la velocidad, de la partícula, es
utilizada como base de este tipo de filosofías que intentan
romper con el determinismo optimista de la física clásica. La
introducción del cuanto de acción, como hemos visto, provoca la
interferencia de uno de los fotones de la onda con la que
debemos alumbrar la partícula que se desea observar con dicha
partícula alterando, dependiendo de la longitud de la onda, la
posición o la velocidad. El resultado matemático de estas dos
magnitudes conjugadas será de tipo matricial con la consiguiente
imposibilidad de conmutación en la multiplicación.
No
es la incertidumbre de nuestro conocimiento ante o que nos
queda por descubrir, es decir, no podemos “culparnos” de la
incapacidad de una medición exacta del recorrido de una
partícula pues nuestro desconocimiento no obedece a variables
ocultas dentro de las partículas.
La objetividad de este problema pone en cuestión en qué medida
podemos conocer la verdad de la naturaleza (en opinión de
algunos autores) o si existe esa verdad objetiva como era
entendida por la mecánica clásica, pues más bien parece una
artimaña que resuelva las apariencias fenoménicas, pues incluso
la ciencia de newton comienza a tambalearse desde sí misma si en
vez de tratar con dos cuerpos (dos planetas, por ejemplo)
tratamos con tres. La moda del indeterminismo comienza a
expandirse por todos los círculos científicos. Pero sigamos con
nuestra exposición y adentrémonos un poco más en la mecánica
ondulatoria para llegar a la ecuación de Schrödinger.
La
mecánica cuántica u ondulatoria se desarrolla entre 1925
y 1927 principalmente por este último autor, Dirac y Heisenberg
y tiene su origen en la hipótesis de De Broglie y engloba el
principio de Heisenberg e ideas cuánticas. Su base es la llamad
ecuación de ondas (1926) que describe el comportamiento
de partículas subatómicas. Esta ecuación es similar a las que se
usan en mecánica para el estudio de las ondas estacionarias.
Tiene en cuenta la naturaleza dual del electrón, pues junto a la
masa del mismo aparece la llamada función de ondas,
Ψ, que
puede considerarse como la amplitud de la onda electrónica. Esta
ecuación viene dada en forma de ecuación diferencial de segundo
grado:
(δ2Ψ/δx2)+(δ2Ψ/δy2)+(δ2Ψ/δz2)+(8π2m/h2)·(EV)Ψ=0
en donde E
es la energía total permitida para la partícula y V es la
energía potencial de la misma en función de su posición dada por
sus coordenadas x, y, z.
Las incógnitas que se encuentran mediante la ecuación de
Schrödinger son la función de ondas,
Ψ, y
la energía, E, del electrón. La solución de la función de
onda depende de una serie de números enteros (números
cuánticos). Como la expresión que da la energía del electrón
también viene en función de números enteros, resulta que la
energía está cuantizada, siendo permitidos únicamente ciertos
valores. Así, pues, la cuantización de la energía y los números
cuánticos son consecuencia de la ecuación y no tienen que ser
introducidos arbitrariamente como ocurre en el modelo de Bohr-Sommerfeld.
Una
importante diferencia hay que resaltar en cuanto a la naturaleza
de la solución. En mecánica clásica, la resolución de la
ecuación de movimiento de un cuerpo nos da su posición y
velocidad exactas. La solución de la ecuación de Schrödinger,
por el contrario, aparece como una función de ondas,
Ψ, que
no suministra ni la posición ni la velocidad exacta del electrón
(sería contradictorio con el principio de incertidumbre). En
cambio, su cuadrado,
Ψ2
, da la probabilidad de encontrar un electrón en un lugar
determinado.
Para
el electrón en el átomo de hidrógeno, la solución de la ecuación
de Schrödinger viene en función de tres números enteros, los
números cuánticos
n, l y m1, cuyos valores han de estar,
además, relacionados entre sí por determinadas reglas. Cada
grupo de tres valores permitidos de n, l y m1
(1, 0, 0; 2, 0, 0; 2, 1, -1, etcétera) definen un orbital.
Este orbital es una cierta región del espacio que rodea al
núcleo dentro del cual existe la máxima probabilidad de
encontrar al electrón.
Qué movimiento tenga un electrón dentro de un orbital no puede
conocerse, ya que la mecánica ondulatoria no suministra ninguna
información acerca de cómo se desplaza de un punto a otro, sólo
da las probabilidades de existencia en ambos.
De
esta manera, el concepto de órbita, trayectoria plana que seguía
el electrón, queda desechado y ha sido sustituido por el
concepto de orbital. Conviene hacer notar que si representamos
la probabilidad de encontrar, por ejemplo al electrón 1s
del hidrógeno en función de su distancia al núcleo, se obtiene
que la distancia más probable coincide con el valor del radio, a0,
calculado por Bohr para la primera órbita.
Veamos la representación de la probabilidad de hallar al
electrón 1s del hidrógeno en función de su distancia a
este
núcleo:
Resultado
de Bohr: 0’529 Å de distancia al núcleo
Ecuación de onda (probabilidades)
De
la ecuación de Schrödinger para el átomo de hidrógeno resulta
una expresión de la energía igual a la deducida ya por Bohr,
esto es, E = -RH/n2.
A cada orbital, o mejor dicho al electrón en cada orbital, le
corresponde una de las energías que se derivan de dicha
expresión. Para n=1 tenemos el estado de mínima energía o
estado fundamental (el más estable), que corresponde al
electrón en el orbital ls. Si el átomo es excitado, el
electrón puede pasar a orbitales de energía superior, o incluso
ser completamente arrancado del átomo, con la consiguiente
formación del ion positivo correspondiente.
El
indeterminismo que se desprende de todo esto ha superado el
propio ámbito al que queda restringido, es decir, se ha hecho
del abandono de la verdad objetiva en este apartado científico
un tipo de gnoseología, hipostasiando las consecuencias sacadas
de los nuevos descubrimientos. De este modo, el conocimiento de
la interacción entre aparato y objeto de estudio (Heisenberg)
hace que se ponga en duda todo tipo de observaciones y que se
afirma que el sujeto entra en todas y cada una de las
estructuras científicas sin quedar segregado como ocurría en la
física newtoniana o en la matemática. La verdad deja de ser
objetiva y eterna para convertirse en certidumbre, en
probabilidad (ecuación de Schrödinger) en donde únicamente
podemos saber con cierto grado de certeza lo que queremos
saber (la posición de la partícula, por ejemplo). Si observamos
el diagrama anterior podemos saber de lo que aquí estamos
hablando, es decir, nunca vamos a tener la certeza absoluta de
que vamos a encontrar un electrón del átomo de hidrógeno a 0’259
Å del núcleo, pues también lo podemos encontrar en otras
posiciones diferentes. La verdad está dada por la mayor
probabilidad de encontrarlo en una cierta posición, la verdad
está dada por una función probabilística representada por la
ecuación de Schrödinger.
3.
EL PROBLEMA DE LA SUBJETIVIDAD: LA INCLUSIÓN DEL SUJETO
EN LA ESTRUCTURA DE LA CIENCIA.
En este apartado descubriremos el papel del sujeto
dentro del conjunto de la ciencia, desde su momento genético, en
el que se desarrollan sus aspectos más laterales, hasta su
momento estructural, donde la forma de la ciencia prevalece y se
intenta lo que desde aquí llamaremos la segregación del sujeto
gnoseológico. Tras esto veremos de qué manera el sujeto ha sido
incluido dentro de esta misma estructura y cómo podemos
interpretar este nuevo papel.
La ruta de la filosofía desprendida de la Física
Clásica era bastante clara al respecto. La ciencia tenía que ser
un conocimiento libre de cualquier estamento subjetual,
sociológico, etc. Intentaré no entretenerme mucho en este
aspecto, bastante claro ya para todos nosotros. La ciencia, de
acuerdo con la teoría clásica tenía que aspirar a un grado
máximo de objetividad y universalidad de tal manera que
segregase de su propia estructura cualquier proceso genético
material y, por tanto, innecesario para la propia forma.
Podríamos referirnos a una ciencia compuesta de materia y forma,
donde la materia sería todo aquello que de forma exterior
ayudaría al propio desarrollo de la misma. La forma sería, así
pues, la propia estructura (como las ecuaciones, etc.). Podíamos
asemejarla a la clásica distinción entre los contextos de
descubrimiento y los de justificación. El aspecto material sería
imprescindible pero segregable del formal. Para hacer ciencia
uno necesita del laboratorio, por ejemplo, pero uno no lo ve
(queda segregado) en la propia formulación de la teoría de gases
de Maxwell o en la ecuación de onda de Schrödinger. El campo de
la categoría científica en cuestión, una vez cerrado (completo,
pero no clausurado) segregaría de sus estructuras todos estos
residuos genéticos fundamentales para su elaboración, pero
accidentales para la misma y para la formulación de las verdades
afirmadas.
La pregunta es la siguiente: ¿De qué manera el
sujeto (la materia, la génesis) entra a formar parte de lo que
podemos llamar la estructura de la Teoría Cuántica? Veamos.
El primer aspecto a destacar sería el del Principio
de Incertidumbre de Heisenberg citado ya anteriormente. Según
este principio es totalmente imposible el definir la posición y
la velocidad de una partícula al mismo tiempo, o como dice Brian
Green: “This means that if you measure an
electron’s position with high accuracy, you necessary
contaminate your own experiment: the act of precision position
measurement disrupts the electron’s velocity”
La naturaleza tiene como una especie de mecanismo instalado que
actúa de límite radical. Este principio puede ser aplicado a
todo y la razón por la que nos podemos escapar del mismo es que
la cantidad de incertidumbre involucrada en los procesos
macroscópicos es mínima. En el mundo cuántico, la propia
longitud de onda de la luz con la que tenemos que alumbrar al
electrón para ver su posición altera de manera sustancial la
velocidad con la que se desplaza y viceversa. El límite mismo no
solo se encuentra en el experimento, se encuentra en la misma
“naturaleza”. El objeto de la ciencia no puede segregar el
propio experimento de sí mismo, no puede segregar al propio
sujeto que lo está realizando.
Veamos esto de manera un poco más sencilla: si
intentamos medir los lugares por los que pasa un determinado
electrón, siempre vemos que se encuentra en una posición
determinada o en otra (este tema ya ha sido tratado en
profundidad en el apartado b del capítulo 2). Einstein, por
ejemplo, preguntó que si no significaba eso que la onda de
probabilidad es simplemente temporal hasta que encontremos una
descripción más precisa del fenómeno (por ser descubierta) que
pueda predecir con certeza la posición exacta del dicho
electrón. La respuesta que dio Bohr, por ejemplo, es que el
electrón no tiene una posición definida antes de que se tome la
medida. Si nadie realiza esta medición, no podemos saber si está
ahí o no.
Cuanta más certeza tengamos en
la posición de un electrón, con menos certeza podremos saber su
velocidad. Esta matriz determina las dos variables. Ahora bien,
esta matriz ¿representa el estado natural del fenómeno o nuestro
conocimiento subjetivo del mismo? Detengámonos un poco en las
ideas de Bohr para hablar con más detalle de la posición
subjetivista del asunto, una posición que entenderá la ciencia
como la mera relación de nuestras experiencias. De este modo, la
ciencia sería el método de coordinar nuestro conocimiento
experimental.
Bohr, en ultima instancia
reclama la intima relación que une, en la descripción mecánico
cuántica de los fenómenos, la necesidad de renunciar a la
causalidad y la limitación de la posibilidad de establecer una
distinción entre un fenómeno y su observación, condicionada por
la individualidad del cuanto de acción. En palabras de Bohr,
“la magnitud finita del cuanto de acción nos impide hacer una
distinción neta entre el fenómeno y el instrumento de
observación”.
El científico, como parte fundamental del proceso mecánico
cuántico, quedaría, de este modo, dentro del marco formal de la
física moderna, ya que es su propia condición la que determina
el resultado (formal) del experimento. La probabilidad de
encontrar un electrón dado en un zona determinada del átomo no
sólo representa el estado subjetivo de nuestro conocimiento o la
falta del mismo, sino también el propio estado natural
”objetivo” (si es que se puede llamar así) de la naturaleza
misma (o según es vista por las ciencias físicas). La física,
según la posición subjetivista, sería como la mera organización
de nuestras experiencias en el laboratorio, en vez de ser un
conocimiento objetivo, separado de nuestras pasiones,
debilidades, etc. El sujeto, a partir de la introducción de la
probabilidad dentro del marco de la verdad dado por la mecánica
cuántica, cobra un papel más entrometido dentro de la
formulación cuántica. La introducción de la idea de que el
paquete de ondas refleja en parte nuestro conocimiento o la
falta del mismo, abra la puerta a todo este tipo de
interpretaciones. La pregunta al respecto es clara ¿De qué
manera, según afirman este tipo de autores como Heisenberg,
podemos ver esta intromisión? La respuesta está en la manera en
que podemos ver la ecuación probabilística del paquete de ondas.
Esta ecuación podría representar una mezcla objeto-subjetiva de
la relación entre lo que sería el instrumento de medida, el
sujeto y, si es que pudiésemos afirmar su existencia al margen
del sujeto, la partícula en cuestión.
“It is the first of these inaccuracies which allows us to
translate the result of the observation into the mathematical
scheme of quantum theory. A probability function is written down
which represents the experimental situation at the time of the
measurement, including even the possible errors of the
measurement”.
De este modo, estaría representando
los dos aspectos al mismo tiempo, tanto el objetivo (atribuye,
en el momento inicial, la unidad de probabilidad de la condición
inicial) como el subjetivo (representa nuestro conocimiento, ya
que como dice Heisenberg, otro observador puede conocer, quizá,
con más certeza la posición del electrón. El error en el
experimento, de este modo, no representaría una propiedad del
mismo electrón, sino que representaría nuestro conocimiento
sobre dicho electrón.
De acuerdo con las versiones
clásicas de la ciencia, las fórmulas científicas han de
representar el estado de la naturaleza y no lo que conocemos o
no sobre la misma. Con la introducción de la probabilidad dentro
de las fórmulas físicas estamos destrozando la antigua
concepción clásica. Una vez calculada la función de probabilidad
en el momento inicial de la observación, podemos derivar de las
propias leyes cuánticas la función de probabilidad en cualquier
momento posterior dado, pudiendo, así pues, predecir la
probabilidad de encontrar un electrón en un momento y posición
dados dentro de la cámara de niebla.
Esta función, en palabras de Heisenberg representaría “a
tendency for events and our knowledge of events”
De
acuerdo también con la propia teoría heisenbergiana, el
conocimiento de la posición de un apartícula ha de ser
complementario al conocimiento de su momento. Es, de acuerdo con
las propias ecuaciones físico-cuánticas, imposible
conocer el camino (momento y posición) de una partícula con
absoluta certeza: a medida que conozcamos uno de los valores con
más precisión, el otro, por imperativo estructural,
perderemos precisión en el otro valor. Es interesante ver sobre
este aspecto los comentarios de Popper sobre la refutabilidad de
este Principio de Incertidumbre.
Es el observador el que puede determina el resultado de un
experimento y sería metafísico, para Heisenberg, intentar
averiguar (inventar) lo que ocurre con un electrón entre una
medida y otra. En palabras de este autor:
“Now, this is a very strange result, since it seems to
indicate that the observation plays a decisive role in the event
and that the reality varies, depending upon whether we observe
it or not”.
La función de probabilidad
combinaría tanto elementos objetivos como subjetivos. Contendría
afirmaciones sobre posibilidades siendo estas afirmaciones
completamente objetivas, independientes del observador,
referentes al conocimiento que el observador posee sobre el
sistema. La función de probabilidad contendría el elemento
objetivo de sobre la tendencia y el subjetivo sobre nuestro
conocimiento, de este modo, no describiría un acontecimiento en
particular, sino una serie de eventos encajados unos con otros,
entre los que se encontraría el propio observador y su
observación, que alterarían los resultados del experimento con
la acción de comprenderlos.
Se podría afirmar, que lo que
Heisenberg trata de hacernos ver es que el proceso que va desde
la posibilidad (potencia) a la actualidad de un sistema es el
mismo proceso de observación, que lo hace real. Vemos aquí el
problema que estas palabras puede suponer para la concepción
realista y objetiva de la ciencia. Desde el momento en que
Heisenberg considera metafísico el mero hecho de preguntarse por
lo que le pasa al electrón dentro de la cámara de niebla cuando
no lo estamos observando, está considerando que la misma
realidad del sistema depende de la observación o no del mismo.
La observación altera la ecuación de onda, el sujeto
queda instalado dentro de las formas (ecuaciones) de la
mecánica cuántica.
Para nuestro autor, la física
clásica sería una simple ilusión: la del intento de describir el
mundo o sus partes sin ninguna referencia a nosotros mismos, al
sujeto que lo observa. El objetivismo quedaría segregado de la
nueva filosofía de la ciencia o, por lo menos, de la filosofía
de la ciencia practicada por los epistemólogos (físicos) de la
escuela de Copenhague. Se derrocaría la noción de “view from
nowhere” ya que, ahora, la posición del sujeto SI determinaría
la visión que de la naturaleza nos da la ciencia y se ensalzaría
la idea de “view from somewhere”, la idea de que las
determinaciones accidentales del sujeto, el observador y sus
subjetividades afectarían al resultado científico del
experimento.
En contra de esta
interpretación se levantarán voces como la de Einstein, Podolsky,
Rosen, Popper… reclamando que el problema está en la falta de
nuestro conocimiento, en la posibilidad futura de una nueva
teoría que pueda llegar a explicar de qué manera se producen los
fenómenos vistos, de qué manera actúa la naturaleza. Esta
tendencia, que podríamos considerar objetivista, afirma que sí
se podría hablar de lo que le pasa a una partícula dentro de un
sistema mientras no la estemos observando. La partícula no
necesitaría del observador para tener actualidad (existencia),
que sería independiente del sujeto, como así lo sería la propia
explicación de dicho sistema, que se desarrollaría al margen de
concepciones subjetivas. Para ello se habría de comenzar
destruyendo (de acuerdo con Popper) la idea metafísica que
Heisenberg tiene sobre probabilidad que, de este modo, ya no
sería una especia de medida de nuestra falta de conocimiento
sobre un sistema físico en cuestión.
4.
LA IDEA DE “VIEW FROM SOMEWHERE” DE AMARTYA SEN Y LA
CRÍTICA AL VIEJO MODELO OBJETIVISTA
“The
objectivity of observations must be a position-dependent
characteristic: not a ‘view from nowhere’, but one ‘from a
delineated somewhere’ (…) The objectivity of positional
observations plays a crucial part in the process of acquiring
scientific knowledge, and thus serves as a building block of
science”
En
esta sección intentaremos encuadrar esta filosofía de la ciencia
desde las coordenadas marcadas por el economista Amartya Sen
sobre el concepto de objetividad, dirigiéndolo, en nuestro caso
hacia el campo epistemológico. Así pues, reinterpretaremos
ahora, desde el enfoque del profesor Sen, lo dicho sobre la
subjetividad dentro de la mecánica cuántica, para tener así una
idea más clara de la posición filosófica que algunos autores
tratarían de defender.
En el capítulo anterior nos
quedamos en la inclusión de la subjetividad dentro de las mismas
ecuaciones científicas en el campo de la mecánica cuántica, es
decir, de la introducción de la probabilidad como parte esencial
de la descripción de la naturaleza: La observación altera
la ecuación de onda, el sujeto se introduce dentro de las
formas (ecuaciones) de la mecánica cuántica. En el fondo, lo que
estaría afirmando Heisenberg, por ejemplo, es que es la
observación la que realmente altera la naturaleza, es la
posición del sujeto, el sujeto mismo el que modela la realidad
que le rodea, el que da vida a la propia naturaleza. Sen no
llegará a ser tan radical como Heisenberg, pero sí podemos
comprender, sin acercarnos tanto a una posición tan
metafísicamente subjetiva, desde las coordenadas la filosofía de
este economista el papel que desempeña el sujeto, su posición y
la observación de un evento determinado de la naturaleza. Esta
observación no podrá ser, de este modo, tachada de subjetiva en
el sentido de conformadora de la realidad al margen de la propia
naturaleza. Sí influirán estos caracteres subjetivos dentro del
proceso cognoscitivo, pero no del modo que lo podría entender
Heisenberg. Para comprender esto tendremos que acudir al
concepto introducido por Sen, a saber, el concepto de
“Positional Objectivity”. Analizando lo que nuestro profesor
dice, veremos que sí hay un objeto real dentro de proceso
cognoscente, y es nuestra posición la que puede alterar o
cambiar la concepción que tengamos sobre este objeto. La
posición, relativa al sujeto, afectará de manera radical la idea
que nosotros tengamos sobre el objeto de la observación. De este
modo, será nuestra posición con respecto al objeto lo que nos
influenciará en su comprehensión. Una posición que al fin y al
cabo es tan objetiva como el propio objeto que intentamos
observar. Desde luego que alterará la visión que podamos tener
del mismo, pero no podremos llegar a decir que será la que lo
forme. Sen acude al concepto de “Ilusión Objetiva” de Marx
para explicar estos conceptos con más claridad. En el fondo, lo
que no se puede tener es un concepción subjetiva del
subjetivismo (como lo hace Heisenberg, cayendo en argumentos
profundamente metafísicos). Lo que habría que recalcar desde
aquí es lo siguiente: la posición es la que altera la
observación, que a su vez influye en los objetos observados, que
moderan nuestras creencias que son las que fundan nuestras
acciones, fundamentales (como afirma Sen) para nuestro
conocimiento y nuestra razón práctica. Veamos esto en forma más
pictórica:
. “What we can observe depends on our
position… What we decide to believe is influenced by what we
observe. How we decide to act relates to our beliefs.
Positionally dependent observations, beliefs and actions are
central to our knowledge and practical reason”.
Lo
que más cabría ensalzar de la visión de Sen es la imposibilidad
de desligamiento entre las estructuras subjetivas y las
objetivas, que a modo de conceptos conjugados la una estaría
inserta dentro de la otra. Esto se podría ver en un análisis de
estos dos conceptos filosóficos, es decir, analizando (separando
en partes, criticando) uno de estos dos conceptos,
encontraríamos al otro como nexo de las partes internas del
anterior. Los dos actuarían como un par de conceptos
conjugados.
Por supuesto, caeríamos en una
metafísica simplista si intentásemos entender la ciencia moderna
desde un punto único subjetivista. Este reduccionismo implica la
desaparición del objeto dentro de la ciencia física actual. Pero
veamos en qué medida se podría realizar una crítica al
objetivismo clásico sin apartarnos de la decencia filosófica.
El problema de la
subjetividad/objetividad dentro de la física actual es obvio. De
qué manera lo podemos interpretar para que tenga sentido dentro
de un análisis filosófico que se aleje de ideas metafísicas
infantiles y que consiga penetrar en lo más profundo del asunto,
es la cuestión principal que uno ha de plantearse.
Hemos comenzado a dibujar junto
con el profesor Sen algunas ideas por las que intentaremos
alumbrar el camino, sobre todo la idea de la imposibilidad de
desconexión entre sujeto y objeto, es decir, hasta la estructura
más subjetivista que podamos imaginarnos llevará dentro de sí
sus partes objetivas y al contrario.
La idea de la ciencia que desde
siempre ha tenido la tradición moderna es que el sujeto quedaría
últimamente segregado de las estructuras formales científicas,
del mundo científico, del mundo tercero popperiano. Vemos ahora,
sobre todo a partir de los nuevos avances en física que esto no
es así. Al principio muchos levantaron la voz con ideas
filosóficas radicalmente subjetivistas, llegando incluso a decir
que la física no era más que la ciencia que estudia fenómenos
experimentales subjetivos (quizá conexiones de neuronas, como
nos quieren hacer creer en el documental “What the Beep do I
Know”).
Desde las coordenadas de Sen y
desde la propia mecánica cuántica vemos que esta separación es
imposible, pero diré (como lo hace Marx y Sen) que incluso la
estructura más subjetiva dentro de esta ciencia es tan objetiva
como ninguna otra. Veamos:
La introducción del sujeto
dentro de la ciencia física se realiza a través de probabilidad,
que en esta caso representaría nuestra falta de conocimiento
(según los subjetivistas) sobre un sistema determinado. Es, a su
vez, lo que sabemos o dejamos de saber sobre un sistema
determinado lo que cambia las ecuaciones probabilísticas
cuánticas (otra vez, según los subjetivistas).
El error de interpretar la
probabilidad como representante de nuestro conocimiento, es
decir, como algo subjetivo, ya lo señaló Kart Popper. Las
ecuaciones formales cuánticas pertenecen a un tercer género
que desde nuestro punto de vista se asemejaría mucho al Tercer
Mundo Popperiano.
Pero tampoco se puede caer en
el error que este mundo o tercer género existe al margen
de los otros dos. No hay independencia, los tres géneros
se relacionan a modo de Symploke, como una especia de red (al
estilo que lo ejerció Platón). Con el tema de los Tres Géneros
nos podríamos extender más de lo que aquí querríamos. Para
concluir diremos que en la ciencia es imposible separar objeto y
sujeto, que los dos están interconectados, pero que pertenecen a
géneros diferentes de la realidad. La Onda, por ejemplo, se
situaría en un género tercero de realidad. El corpúsculo, sin
embargo, se encontraría en el primero (que se identificaría con
el primer mundo de Popper - por acontecimiento físico). La
observación de un fenómeno determinado sería una colaboración
del primer y segundo géneros, puesto que entrarían en juego
entidades como el aparato de medida (G1) y el sujeto con su
cultura, experiencia… (G2).
Desde aquí defendemos la
inseparabilidad de los tres géneros, pero también afirmaremos la
posibilidad de desconexión metodológica entre los mismos. Así
pues, podremos identificar las fórmulas cuánticas
probabilísticas como tercio-genéricas desconectadas de las
estructuras primo-genéricas o de segundo género, aún viendo en
un análisis más profundo que están interconectadas entre las
mismas. Desde estas coordenadas, por ejemplo, sería incorrecto
hablar de Azar y Necesidad (como lo hace Monod en su famosa obra),
o de determinismo e indeterminismo como contrapuestos. Así pues,
el determinismo realista aparecería en el género primero de la
realidad (corpuscular) pero no así en el tercero (onda) pero
sería imposible sendas compresiones sin la ayuda de su
complementario. Así pues, desde un punto de vista global del
concepto (otros dirían metamérico) donde tomásemos a éste
como enterizo, podríamos hablar de desconexión entre ellos
(determinismo/indeterminismo, p. e.) pero desde el momento en
que los analizamos (los separamos en partes, como la propia
palabra indica, los criticamos, los utilizamos de manera
diamérica) aparecerán como internamente ligados, siendo uno
la conexión de las partes del otro.
Así ocurrirá en sujeto/objeto,
Azar/necesidad, onda/corpúsculo… que corresponden a géneros
diferentes de la realidad pero debido a la Symploke de la que
antes hablamos, esta interconexión solo desaparece de manera
funcional-operativa en una visión metamérica (tomando
a los conceptos como enterizos) de cada uno de los conceptos.
5.
CONCLUSIÓN
La ciencia no deja de ser objetiva debido a la
mecánica cuántica. Hay que reinterpretar de manera más crítica
de lo que se está haciendo ahora la manera en la que se
desarrollan los procesos de construcción científica y el papel
de los diferentes factores que intervienen, entre ellos el
sujeto mismo y su medio ambiente cultural, así como también el
propio objeto del campo científico en cuestión. Lo que estamos
haciendo aquí es presentar las coordenadas para la consecuente
exposición gnoseológica del problema que aquí nos afecta
colocando a cada elemento en el lugar que le corresponde sin
olvidar las conexiones internas que padecen con otros elementos
científicos.
El objeto no ha desaparecido. Hay que saber analizar
desde nuevas coordenadas el papel que este objeto tiene con
respecto a sí mismo, al sujeto y a las ecuaciones formales
científicas (los tres géneros de realidad de los que hemos
estado hablando). No debemos olvidar que desde una posición
diamérica del sujeto, es decir, analizándolo en partes,
vemos al objeto como conexión de estas partes y viceversa.
El sujeto no será, así pues, la panacea. Por el
mismo motivo: sería metafísico hablar del sujeto (representante
del segundo género de realidad) como único artífice de la
ciencia, como si no hubiese un objeto dentro del campo
científico (y dentro de las propias experiencias en el
laboratorio) que está interconectado con los otros géneros.
Porter,
A. W. , op. Cit, pag. 71.
Papp, D.
“La doble faz del mundo físico”, Ed.
Espasa-Calpe, Madrid, 1968 (Cap. IV, 1)
Born, M.;
Heisenberg, W. y Jordan, P., “Zur Quantenmechanik II”
Zeitschrift für Physic, 35, páginas 557-615,
1926. Pg. 558.
Heisenberg, W.
“Qantenmechanik” Naturwissenschaften,
14 jahrgang, heft 45, pgs. 989-994.
) Heisenberg,
W. “Qantenmechanik” Naturwissenschaften,
14 jahrgang, heft 45, pg. 993.
El
número cuántico ms no se deduce de la ecuación de
Schrödinger. Fue introducido para explicar ciertos
detalles de los espectros atómicos.
En
rigor, un orbital es una función de ondas solución de la
ecuación de Schrödinger para el átomo de hidrógeno
(función propia). Lo que corrientemente se llama orbital
o se presenta como tal, estaría mucho más cerca de Ψ2.