“Si nos ocupamos
solamente del conocimiento
como representación de
la naturaleza,
nos preguntamos cómo
podremos alguna vez
escapar de las
representaciones y
conectarnos al mundo”(Hacking
1992)
Consideraciones iniciales
Cuando se inicia
una indagación filosófica se debe tener presente que el problema a
tratar sea de carácter central en las discusiones, esto permitirá
que se pueda examinar a fondo, captar sus dificultades e
implicaciones y contribuir al planteamiento de una solución. Las
discusiones de los filósofos de una época se centran en los
problemas que consideran relevantes, su tarea es idear soluciones
determinantes que ayuden a que este sea algo vivo, de especial
importancia no solo para la comunidad de filósofos sino para la
cultura en general.
Las representaciones científicas
han personificado un tema de debate en los últimos años desde
ámbitos como la sociología de la ciencia, la economía de la ciencia,
hasta las temáticas centrales de la filosofía. La representación es
un concepto que se ha venido discutiendo en la filosofía de la
ciencia y al interior de su quehacer. Es un concepto que no está
bien establecido, constituyéndose en una problemática ha ser
abordada en trabajos de investigación.
Se considero importante, abordar
primero, el concepto de representación a través de autores como
Hacking(1992) y Woolgar(1991), quienes han mostrado una posición
divergente frente al tema; en una segunda parte, se buscó acercarse
a una posible teoría de la representación científica de Ibarra y
Mormann (2001),
así como el debate que propone Suárez(2004) para precisar
si las relaciones de isomorfia o de
similitud se constituyen en una condición necesaria y/o suficiente
para la existencia de una representación.
En una tercera parte se analizó la concepción de teorías como
modelos desde las perspectivas de Hughes (1997), Giere(2004),
Morrison-Morgan(2004) y Knuuttila(2005) , para armar un panorama
general que se contrastará con la visión de los científicos acerca
de la concepción de modelos en la ciencia. Por último se tomará como
ejemplo de modelo teórico las formulaciones de la mecánica cuántica
de Schröndinger y Heisenberg, que han sido abordadas en los textos
de física mostrando preferencias de una frente a la otra en su
enseñanza.
Una de las tareas propuestas es
hacer un acercamiento a las distintas posiciones desde las que se ha
abordado el tema de las representaciones científicas. A lo largo de
la historia de la ciencia, el tema del conocimiento ha sido
trabajado por filósofos como Platón y Descartes, pero éste comenzó a
tener una mayor fuerza desde los años setenta con las teorías
cognitivas. Una tesis central de estas teorías es que toda cognición
es manipulación de representaciones. El concepto de representación
tiene implicaciones ontológicas y epistemológicas, es decir, se da
por supuesto que el mundo es predefinido, que hay rasgos definidos
antes de cualquier actividad cognitiva y, para establecer una
relación entre ellos, se plantea la existencia de representaciones
mentales dentro del sistema cognitivo (imágenes, símbolos). Éste
último permitirá establecer una teoría, en la cual el mundo es
predeterminado, la mente posibilita el conocimiento de éste y
permite representar los rasgos característicos para luego actuar
sobre ellos.
Por lo menos tres diferentes
posiciones respecto al problema de la representación se pueden
encontrar.
Algunos desean renunciar a ésta y simplemente evaden el problema,
definiéndolo como improductivo y estéril. Entre éstos se
encuentran Rorty (1980) y Hacking (1992). Por otro lado, otros
intentan deconstruir la noción como Hughes (1987) y Woolgar (1991).
Al hablar sobre la representación se está haciendo referencia a las
maneras de dar, de denotar e indicar, entre otras. Esto no conlleva
al encuentro de un centro común que pueda llamarse ‘las
representaciones’. Por último, distintos autores buscan reconstruir
la noción de representación de una manera que preste atención debida
a la crítica, como lo son Ibarra-Mormann (2001), Suárez (2004) y
Knuuttila (2005).
La idea de que los sistemas
cognitivos tienen capacidad para elaborar representaciones y que en
eso se centra su función ha sido duramente criticada desde la
filosofía –ejemplo Rorty (1980)-, la sociología de la ciencia y
algunos campos de las ciencias cognitivas. En la década de los
noventa, en esta última disciplina, algunos autores se posicionaron
en contra, ya que rechazaron el postulado sobre las representaciones
mentales como condición necesaria para explicar el funcionamiento de
los sistemas cognitivos.
El ámbito actual de la filosofía de
la ciencia muestra una gran variedad teórica acerca de la
concepción de modelos, teniendo en cuenta un carácter formal y
práctico que ha veces resulta contradictorio cuando se quiere hacer
una aproximación a los modelos como representaciones, sin embargo
este trabajo de investigación tiene como propósito buscar una
aproximación a este debate, sin tener en cuenta las concepciones
acerca del conocimiento científico, sólo la categoría de cómo se
conciben las representaciones.
Posiciones de Hacking y Woolgar
Las propuestas planteadas desde ámbitos como la filosofía de la
ciencia y de la sociología de la ciencia acerca de las
representaciones, permite una fundamentación del tema, abordando sus
concepciones y soluciones, es claro que se ubican en maneras
diferentes de abordar el conocimiento científico, pero nos dan
elementos de análisis para abordar el tema la temática propuesta.
En la década de los años ochenta
Hacking publica su libro “Representar e intervenir”, en el que
propone un cambio en el enfoque de la filosofía de la ciencia. La
primera tarea del ser humano consiste en la representación, la cual
permite construir la realidad más no pretende decir como son los
objetos. En la tarea representacional surge la similitud mundo-
objeto, que se relaciona con las prácticas de representación
indirectamente. En la física no existe una verdad única sino una
variedad de representaciones que dan cuenta de cómo es el mundo. Sin
embargo, es necesario hacer referencia a los experimentos y la
tecnología, y en eso se centra la propuesta de Hacking.
Él señala que hay que pasar de la verdad y de la representación a
la experimentación y manipulación: “siempre hay pugna entre el
realismo y el antirealismo tratando de probar, que hay algo en la
naturaleza de la representación que vencerá el otro, quedando por lo
tanto inconclusa esta discusión” (Hacking 1992:173).
La experimentación debe recobrar su sitio central en el campo de la
ciencia y de la filosofía de la ciencia, pues ante todo ésta ha sido
una filosofía de las teorías. El concepto de observación también
está cargado de teoría y esto ha hecho que este término se considere
esencial en la práctica científica,
La observación, en el sentido filosófico de producir y registrar
datos, es sólo un aspecto del trabajo experimental. Es en otro
sentido que el experimentador debe ser un buen observador-sensible y
alerta. Sólo un buen observador puede llevar a cabo un experimento,
detectar los problemas que impiden el desarrollo del experimento,
modificarlo de la manera adecuada, distinguir si algo fuera de lo
común es una clave de la naturaleza o si es un artefacto de la
máquina (Hacking 1992:173).
Existe una triple relación entre
los modelos, la especulación, el cálculo y las aproximaciones, en la
concepción de una teoría científica. Por un lado, la especulación es
la “representación intelectual de algo de interés, un juego de
reestructuración de las ideas que nos lleva por lo menos a un
entendimiento cualitativo de alguna característica general del
mismo” (Hacking 1992:242) que se puede expresar en modelos físicos o
estructuras matemáticas enlazados en una dinámica permanente a lo
largo de la historia de la física. La especulación y el experimento
están articulados por el cálculo, esto permite una unión
cuantitativa entre la teoría y la observación. En este puente hay
una dinámica asociada a la construcción de modelos.
El concepto de modelo ha tenido
diferentes connotaciones. Su definición ha pasado desde la idea de
artefactos físicos constituidos por elementos básicos hasta el
concepto en la ciencia física como algo que está en la mente y no
es un objeto como tal, “hay una mezcla entre lo pictórico y lo
matemático” (Hacking 1980:245) que se pueden usar
indistintamente para diferentes problemas. El modelo es lo que
permite la conjunción entre las teorías y los fenómenos; pero las
relaciones entre estos no es simple, ya que nada parece acercarnos a
la verdad, “las relaciones de los modelos con la teoría y con los
fenómenos son variadas y complejas” ( Hacking 1992:247).
Los fenómenos son creados por los
científicos en la realización de los experimentos y después cobran
lugar dentro de las teorías, es decir, “los humanos hacen las
llaves, y tal vez también las cerraduras en las que se dan vuelta” (Hacking
1992:257). Experimentar se convierte en una tarea compleja, ya que
implica “(...) crear, producir, refinar y estabilizar fenómenos” (Hacking
1992:259),
donde la habilidad del experimentador juega un papel preponderante,
pues no es suficiente con la toma de datos sino que es importante
saber cuando funciona el experimento. Esto último trae como
consecuencia que no es posible repetir una práctica, puesto que las
condiciones técnicas cambian y se trata siempre de mejorarlo, más no
de repetirlo.
La experimentación es la que
permite dar cuenta de la realidad y da paso a que el científico sea
un realista. Las entidades “(...) son herramientas, instrumentos
para hacer y no para pensar” (Hacking 1992:291), de ahí la
importancia del trabajo experimental, por eso el realismo acerca de
las entidades está centrado en el quehacer “las entidades teóricas
que no terminan siendo manipuladas terminan, por lo general, siendo
tremendos errores” (Hacking 1992:304), cuando un científico manipula
una entidad tiene la convicción de que su existencia es tan real
como la de un objeto macroscópico. Según Hacking, la obsesión con
las representaciones ha conllevado a una imagen donde el pensamiento
y la teoría dan cuenta de la realidad. En ésta última, las
observaciones y la manipulación de un ente en los experimentos deben
ocupar su lugar.
Se busca la realidad alojada en el
lugar científico -la práctica-, pues solo tiene sentido sí ésta es
manipulada en un laboratorio, en donde la representación no tendría
un lugar predominante, sino que sería desplazada por la
experimentación, la manipulación y todas las tareas que impliquen el
trabajo experimental.
Las prácticas científicas se
constituyen en el mejor apoyo con que cuenta para dar la realidad,
dejando de lado los procesos de representación y la elaboración de
teorías. A pesar de que esta demanda se ha presentado en el contexto
de la ciencia, se pretende quitar el
lugar de preponderancia al tema representacional mantenido al
interior de esta.
Suárez (2003b: 261-284), ubica la obra de
Hacking en la línea de los defensores del nuevo experimentalismo,
ya que da preponderancia al papel de la práctica experimental, y al
conocimiento fenomenológico del mundo, independiente del
conocimiento teórico. La mayoría de los experimentos no están
previstos para verificar teorías sino para establecer enunciados
fenomenológicos, y modelos de los fenómenos. El papel de los
experimentos en la ciencia no se reduce a la verificación empírica
de una teoría, sino que ha promulgado “los experimentos tienen vida
propia”[6],
ya que se constituyen en modelos de los fenómenos.
La noción de manipulación
experimental, qué Hacking profesa, no parece tener éxito en su
tarea de reemplazar el realismo de la representación. En un primer
momento, encaja bien sólo en aquellas actividades científicas que
permiten la experimentación,
así que no es particularmente
conveniente para las ciencias sociales, para las cuales el trabajo
científico es relevante, pero no es considerada de la misma
naturaleza de las ciencias experimentales. En el caso del trabajo
científico, en áreas en que la producción intelectual es la tarea
principal, la existencia de entidades denominadas teóricas es
problemática, pues, según el planteamiento de Hacking, el argumento
de experimental no pueden aplicarse a la manipulación de estas
entidades en otras áreas del conocimiento, de la misma manera que se
hace en las ciencias naturales. Un ejemplo de esto está dado en
los problemas de la economía. Aparte de la dificultad de dirigir
los experimentos en este campo, los conceptos de lo experimental y
la manipulación son confusos, pues las entidades teóricas de la
economía (como “el consumidor” o “la empresa”) no son fáciles de
entender, para las áreas diferentes a esta. Los esfuerzos por evitar
o renunciar a la representación hacen que el trabajo en las
ciencias experimentales se de al nivel de las declaraciones. Pues,
cuando se comienza a visualizar en cómo el científico interviene,
según la expresión de Hacking, existe el compromiso con procesos
complejos que involucran artefactos especializados que graban,
trazan, visualizan, etc. Hacking concede importancia a los
instrumentos científicos, puesto estos permiten materializar los
saberes teóricos y prácticos de los científicos que estos pueden
materializar en los debates, pues se pide volcar la mirada más a la
observación científica en tanto acción y menos a los resultados
experimentales, ya que éstas están más cargadas de técnica y de
intervenciones humanas previas que de teoría.
Otros que centraron la atención
sobre el tema representacional han sido los sociólogos, entre los
que se encuentra Woolgar (1979), quien afirma que el acercamiento
sociológico a un problema particular debe hacerse en términos de su
relatividad social, lo cual permitirá indagar sobre la fuente, el
alcance y las características de las variaciones. Éstas están
asociadas a la diferencia en la clase social, la filiación
religiosa, la sociedad, la cultura, entre otras variables.
Esta aproximación al tema de las
representaciones científicas tiene matices diferentes. Los
sociólogos de tipo etnometodológico se han esforzado por indagar
cómo se producen los hechos en el
trabajo científico. Construyen historias de laboratorio donde
describen “realmente” lo que ocurre en la práctica científica.
Esto no sólo llevó a las discusiones del problema de reflexividad
Woolgar (1991) sino también a estudios en cómo las
representaciones se construyen con la ayuda de medios diversos y
procedimientos (Lynch 1985), cómo ellos funcionan como “los lugares
activos” (Amann y Knorr Cetina 1990) y cómo guían las diversas
actividades (Latour 1990).
Los puntos de vista del estudio
sociológico de la ciencia consisten en “(...) aceptar que la ciencia
y la no ciencia no pueden distinguirse mediante reglas de decisión”
(Woolgar 1991) y que el conocimiento científico es el resultado de
intrincados procesos sociales. Las reglas de decisión actúan post
hoc de la práctica científica y permiten dar una mirada
retrospectiva sobre la acción científica. Algunos de los
representantes de esta línea consideran estas reglas como elementos
determinantes del quehacer científico y la existencia de factores
sociales agregados que dan elementos de juicio en la explicación de
la evolución de la ciencia.
Históricamente, el carácter de la
ciencia ha estado en cambio continuo. Tanto la respuesta filosófica
como la histórica han mostrado variaciones en las apreciaciones y
esto se puede explicar desde dos posiciones denominadas
esencialismo y nominalismo. El argumento esencialista considera que
existe algo ‘ahí fuera” llamado ciencia, cuya naturaleza es
cambiante y compleja. Por su parte, la propuesta nominalista frente
al problema de la demarcación de las características de la ciencia
surge de las prácticas de definición de los participantes y, ésta
siempre se encuentra abierta a la reclasificación y a la
renegociación. Por lo tanto, no existen ni la ciencia ni el método
científico, pues estos se deben a diferentes prácticas y
comportamientos.
La tarea que se propone Woolgar es
caracterizar la posición esencialista -la idea de que los objetos
existen independiente de la percepción que se tenga de ellos- desde
la representación -que es el medio por el cual se generan imágenes
de un objeto situado ‘ahí afuera’- y presentar argumentos para
resistirse a esta posición.
La supuesta distinción entre
representación y objeto conlleva a un dualismo, que pretende buscar
características que se encuentran fuera de los límites de las
actividades de la ciencia. Frente a esto se formulan preguntas
base, entre las que se encuentran “¿cómo podemos estar seguros que
el lado izquierdo (representación) es un verdadero y apropiado
reflejo del derecho (objeto)?” o, de tipo metodológico, “¿qué
fundamento garantiza la relación existente entre los objetos de
estudio y las afirmaciones hechas sobre tales objetos?” (Woolgar
1991:47).
El problema de la adecuación entre
representación y objeto se puede presentar en la forma de desastre
metodológico, que consiste en la indexabilidad, la interminabilidad
y la reflexividad. En primera instancia, la indexabilidad hace
referencia a las realidades que subyacen a las representaciones, que
son cambiantes en función del uso. Como consecuencia de esto, frente
al intento de lograr una representación, aparecen distintas
versiones que no permiten tener certeza de lo que se está
representando. A su vez se encuentra la interminabilidad, que
sustenta el significado de cualquier representación de manera
infinita. Por lo tanto, es imposible una explicación suficiente del
significado de una representación. Por último está la reflexividad,
que abandera la idea de que la conexión entre el objeto y la
representación es en doble dirección, es decir, que el uno apoya al
otro.
Como solución al problema del
desastre metodológico, que aparece en todo acto interpretativo, se
han planteado cuatro estrategias (Woolgar 1991: 48):
-
Apelar a una jerarquía de conocimientos: Ésta
consiste en negar la generalidad del problema, buscando estatus
en las situaciones, siendo la ciencia la de mayor fiabilidad.
Esto incurre en una petición de principio. La tarea del estudio
social de la ciencia es indagar que características de esta
última le dan esa superioridad.
-
Interpretar el problema como una simple
dificultad técnica: Los problemas metodológicos se tratan como
si fueran dificultades técnicas, que aparecen esporádicamente
debido al uso de procedimientos de representación defectuosos.
Sin embargo, el problema permanece ahí.
-
Negar la importancia del problema: El mismo
problema es artificial y engañoso, pues no pasa de ser un
ejercicio filosófico artificial. Para las personas, los
desastres metodológicos no son importantes, entonces para qué
estudiar sus acciones cuando no son conscientes de ellos. Sin
embargo, los argumentos si resultan válidos cuando se pretende
aclarar controversias y se apela al relativismo como solución a
éstas.
-
Interpretar el problema como algo ajeno:
Los desastres metodológicos aparecen en el trabajo de los
demás, pero el propio es ajeno a ellos. Esta estrategia se usa
en las ciencias sociales para abordar los análisis que tienen
algún tipo de relativismo, en cuanto permite abordarlos en la
investigación.
El estudio social de la ciencia
debe enfrentarse a la idea de la representación y presenta dos modos
para abordarla. El primero corresponde a la inversión. Según éste,
los objetos descubiertos se constituyen a través de su
descubrimiento y critica la conexión unidireccional entre la
representación y, el objeto o la idea de que los dos objetos son
distintos. El otro es la retroalimentación, que resalta las
conexiones bidireccionales entre el objeto y el intento de llevar a
cabo un estudio de la ciencia. De ese modo la ciencia no es una
materia de estudio distinta ni separada de los investigadores.
Con estas dos ideas expuestas por
Woolgar se espera “abrir la caja negra” de la ciencia, asumiendo que
las representaciones se construyen con la ayuda de medios diversos y
procedimientos y, que se debe unir esfuerzos por escapar de las
representaciones científicas como única opción de abordar el trabajo
científico.
Los etnometodologos lograron el éxito haciendo el
trabajo científico material y visible. Sin embargo, este aspecto
“antropológico de la observación” contribuye a lograr un
entendimiento muy superficial de los métodos de diferentes
disciplinas. Analizaron diferentes experimentos realizados a lo
largo de la historia de la ciencia, algunos más conocidos que otros,
unos fructificaron y otros se abandonaron en el camino; desde los
fallos en los experimentos de Pasteur hasta el reciente escándalo de
la “fusión fría”, pasando por experimentos que sirvieron para
“demostrar” la teoría de la relatividad, por el estudio de la vida
sexual de las lagartijas de cola de látigo o por la investigación
sobre los neutrinos solares. Ellos han“(…) descrito no sólo
los trabajos de los científicos más venerados, los Einstein, Newtons
y Pasteurs, sino también los de otros que no merecerán, al parecer
aclamación: los grandes flujos de ondas gravitatorias de Joseph
Weber y la transferencia de memoria de Ungar y McConnell” (Collins
1986).
En lugar de evadir la pregunta de
representación, estudiosos en el campo de la ciencia y tecnología
han intentado abordarlo de frente. Inspirados por la
etnometodología han ido “al campo” a observar que hacen los
científicos “realmente” para representar. Se han dedicado al estudio
de deconstruir la representación científica en la compleja
fabricación de los procesos, haciendo uso de “los documentos “o
“las inscripciones”.
Los resultados de los experimentos
se recogen en una hoja de cifras, que el ordenador transforma en
hoja de datos y produce una sola curva, con sus picos y senos
determinantes, que servirán de soporte para el posterior artículo.
Las inscripciones de los sofisticados aparatos están en relación
directa con la sustancia original del experimento; las transforman
en un documento escrito. Esto da la impresión de un derroche de
recursos económicos para la producción de una hoja escrita. Los
científicos manejan un enorme volumen de material desordenado que
deben ordenar para darle sentido al estado caótico del conocimiento
como consecuencia de las informaciones sesgadas de su descubrimiento
o, incluso, del ocultamiento de la información.
Las representaciones se vuelven elementos que
deben ser estudiadas. En este caso, en lugar de preguntar por el
significado, se aborda la representación, examinando “los
documentos representativos”, donde los estudios son realizados por
los participantes. Lo que sigue de este acercamiento es que en los
procesos de construcción de las representaciones científicas los
estudiosos siguen “la línea de la asamblea” y consideran que los
hechos de la actividad científica contemporánea no solo suceden en
los laboratorios, sino que suceden en las controversias científicas
y en la forma que éstas finalizan. Se pasa de analizar los problemas
de laboratorio a los problemas en las controversias científicas.
A menudo el objetivo de la representación es
moldear el objeto científico, haciendo uso de diferentes
dispositivos textuales, para que asuma una forma matemática que le
permita ser descrito fácilmente. La representación científica
enfrenta en estos estudios un proceso circular, poniendo en un
orden los rastros fotográficos, los diagramas, las grabaciones, los
mapas y las entrevistas. A esto Collins denomina la “circularidad
del experimentador” Esto implica que la competencia de los
experimentadores y la integridad de los resultados únicamente pueden
ser inferidos inspeccionando los resultados. No obstante, estos
últimos, si son apropiados, sólo pueden ser conocidos mediante el
desarrollo de un experimento competente. Por lo que concluye que la
réplica no podrá por sí sola fundamentar la veracidad de una teoría
y siempre será inevitable un añadido no rigurosamente técnico. Un
resultado experimental no basta por sí sólo para que la comunidad
científica crea una cierta aserción. Para Latour (2001: 149), la
ciencia, la comunidad científica y los resultados experimentales
son afectados y modificados por los experimentos, estos traspasan
la frontera del todo o nada. Un experimento no puede situarse
exclusivamente en el laboratorio, en la literatura científica o en
el debate entre científicos. Un experimento se constituye en una
historia unida a un evento, es un acontecimiento, es un texto que
describe un evento no textual, un texto que es analizado y
discutido, si al final tiene éxito, traspasa la connotación de texto
y se convierte en un experimento.
El problema epistemológico acerca de la
relación de las representaciones científicas con la realidad se debe
al olvido de las relaciones del extenso material obtenido con los
procesos sociales, detrás de las representaciones acabadas.
A pesar de que existen múltiples formas de interpretación, éstas
están limitadas mediante mecanismos sociales, retóricos,
institucionales, entre otros, con la finalidad de deconstruir la
idea de representación en cada caso en particular. Las explicaciones
sociales del conocimiento científico son prioritarias al papel que
desempeñan la lógica y la evidencia empírica. En concreto, se trata
de describir el proceso de construcción de los hechos y explicarlo
sociológicamente. “El contenido científico debe explicarse tanto
como sea posible mediante el supuesto de que son los factores
sociales, no los respectivos considerados técnicos, los que permite
su generación y validación” (Lamo de Espinosa y otros 1994:548). La
tensión de abordar el proceso en como los científicos hacen para
representar, no permite ahondar sobre lo que posiblemente hacen las
actividades representantes. Así, la representación y lo representado
surgen, y se unen en el mismo proceso material del trabajo
científico. Parece que estos estudios plantean un doble juego.
Proceden en algunos casos como si excluyeran cualquier
consideración de la epistemología de la representación y mostraran
interés en las prácticas representativas a través de considerarlas
un fenómeno social.
Hay algo contradictorio, según mi punto de
vista, sobre esta manera de proceder. Primero, se hace un esfuerzo
al deconstruir la noción de representación a través de estudios de
casos prácticos. En segundo lugar, se desafía a los filósofos, pues
los sociólogos tomaron la delantera frente al problema de la
representación, pero hay una dificultad, pues en lugar de ir
ahondando en la noción de representación, lo que hacen es mostrar
en que va realmente la representación científica, buscando ampliar
su concepto. Entonces, surge la pregunta ¿realmente los
etnometodologos y otros estudiosos de CTS están confiando en una
noción bastante tradicional de representación, la misma noción de la
que ellos partieron para su discusión? Creo que sí, pues realmente
no hay argumentos para demostrar lo contrario. Latour (2001: 34),
por ejemplo, propone abandonar el modelo de núcleo/ contenido ,
para estructurar un esquema de cinco bucles ( instrumentos, colegas,
aliados, público y los vínculos o nudos) que permitirán hacer una
representación realista de la ciencia. Los vínculos y nudos ocupan
los puntos de intersección entre los cuatro bucles restantes, estos
servirán de referente conceptual pues permite conectarlos. La
transformación en cada etapa de referencia puede representarse como
un intercambio entre lo que se gana (amplificación) y lo que se
pierde (reducción) en cada uno de los pasos en los que se generan
información.
Frente a este panorama de la deconstrucción
de las representaciones científicas, se recoge de los sociólogos
que la ciencia es una actividad científica. La construcción de los
hechos es “totalmente social” y esto queda implícito en el quehacer
científico. De Hacking, se retoma la aproximación a una comprensión
adecuada de las prácticas científicas y la ciencia entendida en su
propio hacer, lo que los científicos van haciendo entre sí y con
otros; construyendo en medio de objetos no humanos, situaciones
históricas particulares, diseños de técnicas y formas de
comunicación.
Los acuerdos colectivos, permiten
consensos estructurales que se constituyen a partir de los
discursos, los valores y las prácticas sociales que circulan en una
sociedad. Actúan como reguladores de conductas por adhesión o
rechazo. Se trata de algo cambiante, móvil, impreciso y contundente
a la vez. Produce materialidad, es decir, produce efectos concretos
sobre los sujetos y su vida de relación, así como sobre las
realizaciones humanas en general. Esto conlleva a que las prácticas
sociales son determinantes, ya que permite que la información sea
creada y transformada.
De las anteriores propuestas conviene
resaltar que mantienen un punto en común: la señalización de los
espacios de laboratorio y de la experimentación como lugares de
grandes posibilidades para la construcción de un conocimiento más
crítico con relación a la ciencia y con la sociedad.
Naturaleza de
las Representaciones Científicas
La tendencia desde los años
ochenta frente a las representaciones ha sido tema de debate entre
los realistas- quienes consideran que éstas son las que dan cuenta
de la realidad- y los antirrealistas- para los cuales lo más
importante es la posibilidad de predecir y producir sucesos-. Esto
parece ser una discusión sin ganadores inminentes y esta diferencia
seguirá contribuyendo al debate en filosofía de la ciencia.
Esta parte de la investigación hace
énfasis en el acercamiento al concepto de las representaciones desde
la óptica actual. Sí bien se puede dar una aproximación histórica,
la revisión de las propuestas actuales conlleva a hacer un análisis
sobre la naturaleza de las representaciones científicas y su papel
en la filosofía de la ciencia y en las prácticas científicas.
La idea de
abandonar estudios de casos y tratar de orientarse hacia una teoría
de la representación ha sido asumida por Ibarra y Mormann (1997),
le apuestan a la noción de la representación, tomando como base la
idea que la ciencia parte de la representación de objetos por medio
de modelos, existiendo una “relación preservadora de estructuras”,
cuyo significado está mediado por la intencionalidad del agente que
la realiza. Proponen que la idea del carácter representacional de
la ciencia está en relación directa con las principales formas
“identificables en las prácticas representacionales de la ciencia”
(Ibarra y Mormann 2001: 4), que se pueden clasificar como:
1. La representación como
isomorfía,
2. La representación como
sustitución,
3. La representación como
homomorfía,
4. La representación como
homología.
El primer tipo de
representación, como isomorfía, se caracteriza por la necesidad de
que exista una semejanza entre los dos objetos de la representación.
En este momento no desempeña ningún papel importante en la práctica
científica y se menciona sólo porque la clasificación quede
completa. Copias de mapas, planos y gráficas son ejemplos clásicos
de este tipo de representación.
Históricamente, frente a la
representación como sustitución, se puede nombrar a Aristóteles como
gestor de esta postura, quién toma lo semejante a algo, no como
semejante, sino como aquello a lo que se asemeja. Esta concepción ha
sufrido cambios, como lo fue en la Edad Media, en donde se asumió
como medio para acceder al conocimiento y no el fin. Se presenta en
términos de ejemplos, como en el caso del embajador de un país que
puede representarlo en una conferencia; un abogado que representa a
su cliente o el papel del apoderado de un menor. Los números y otras
magnitudes matemáticas “funcionan como sustitutos vicariales
de entidades empíricas de diverso tipo” (Ibarra y Mormann 2001: 6).
Por su parte, la representación como homomorfía corresponde a la
concepción de la representación “como aplicación preservadora de
estructura”, entendidas como representaciones que conservan
las formas. Por último, la representación como homología se
caracteriza como aquel tipo de representación que no depende ni de
la semejanza objetual ni de la estructural, sino aquellas que
conservan la lógica. Esta concepción se introduce a partir de una
idea de Hertz. Los autores pretenden mostrar que las
representaciones científicas no son generalmente de tipo homomórfico,
es decir, del tipo de representación que, según ellos, ha sido el
más estudiado en la filosofía de la ciencia, sino de tipo homológico,
en estos se contaran procesos que confían en complejos procesos que
pueden ser estadístico-computacionales.
La idea de la representación
como homología puede derivarse de la descripción que hace Hertz de
la actividad científica como la producción de una simetría entre
“las consecuencias naturalmente necesarias” y “las consecuencias
intelectualmente necesarias” de sus representaciones. Esta simetría
se ilustra en el siguiente diagrama:
La idea de los autores es la
siguiente:
La parte izquierda del diagrama, A −→
A∗
puede interpretarse como un proceso empírico en el que se pasa del
estado A al estado A∗
a través de tA. Este paso se representaría por un
proceso teórico consistente en el paso de B a B∗
por tB, tal que tB es una relación lógica [. .
. ] entre B y B∗
que corresponde a la relación tA “naturalmente necesaria”
en el sentido que el diagrama conmuta (Ibarra y Mormann 2001: 30)
Otro aspecto relevante es
que, en la ciencia, todas las representaciones forman una compleja
red representacional que está constituida por diversos tipos de
combinaciones. Por ejemplo, un objeto o proceso puede generar
diferentes representaciones o una representación puede valer para
diferentes objetos, procesos o representaciones. Esta estructura
reticular de las representaciones se podría capturar por medio de la
estructura combinatoria- asociativa- de los diagramas.
Usando estos supuestos no les
es difícil mostrar que la teoría matemática de las categorías es, de
hecho, una teoría de la combinación de representaciones posibles.
Una vez que este punto ha sido establecido, pasan a mostrar la
significación epistemológica de la teoría de categorías, que es
concebida como una teoría combinatoria general de las
representaciones.
La búsqueda de una teoría de
la representación es lograr “la identidad característica de una
teoría”.
(…) no reside en la base empírica dada ni en los conceptos que fijan
su marco conceptual, sino en el espacio inducido, por así decir, por
la relación de representación, esto es, en el encaje estructural
concebido no referencialmente como singularización de los modelos
estándar de la teoría, por ejemplo, sino en su sentido más
estrictamente funcional, como aplicación preservadora de
estructuras, y extensible a una variedad de marcos teóricos posibles
en los que fija su significación (Ibarra y Mormann 1997: 10).
La tesis de que hay una teoría filosófica
general de las representaciones que “capta las propiedades
esenciales de las representaciones” mejor que otras propuestas parte
del supuesto, ciertamente controversial, de que existen tales
propiedades esenciales de las representaciones. Toda una serie de
investigaciones en estudios sobre la ciencia sugiere que no hay tal
teoría general de la representación, y que la única manera
fructífera de estudiar el tema de la representación es a través de
un estudio de casos y de propuestas de clasificación de diferentes
tipos de representación que puedan servir para entender mejor como
crece el conocimiento. Esto no le quita interés filosófico al tema
de la representación, pero lo sitúa en un espacio de discusión que
no es el que los autores proponen. Sigue siendo filosóficamente
interesante entender la manera en que determinados tipos de
representación están asociados con diferentes tipos de conocimiento.
La propuesta de Ibarra y
Mormann (1997) ha sido criticada por algunos autores como Martínez,
(2001), quien considera que este tipo de enfoque formalista del tema
de la representación tiene serias limitaciones. Partiendo de la
historia muestra que no queda claro qué tipo de clasificación están
ofreciendo. Pero, según ellos, “se trata de una clasificación
motivada por razones esencialmente metodológicas, pero nunca queda
claro cuales son esas razones, más bien parece que las motivaciones
son metafísicas” (Martínez, 2001: 75-95).
A un nivel práctico, dado la diversidad de las
representaciones que se usan y la complejidad de sus prácticas,
parece claro que el concepto general de representación no ayuda
mucho a explicar qué tipo de cosa es y como se constituye.
Por otro lado, Suárez (2003a:
225-244), indica que las fuentes de representaciones científicas
pueden ser objetos físicos concretos- sistemas, modelos, diagramas,
imágenes o ecuaciones- para los posibles blancos. Puede haber una
gran variedad de medios, ya que la representación hace su trabajo a
su modo: el isomorfismo y la similitud son simplemente dos comunes
pero, hay otros como la ejemplificación, la convención y la verdad.
Además, los medios de representación no son precisamente
transparentes unos respecto a los otros, es decir, ninguna fuente
lleva sus medios de representación debajo de la camisa.
Suárez, se opone a toda propuesta
que apunte a una teoría de la representación centrada en el
isomorfismo y la similitud, y frente a esto plantea cinco
argumentos. El primer argumento es la observación empírica simple,
pues ni la similitud ni el isomorfismo pueden aplicarse a la
variedad de dispositivos de representación que se usan en la
práctica de la ciencia. El segundo argumento es que estos no
cumplen algunas de las propiedades lógicas formales de la
representación, como la propiedad
simétrica, reflexiva y la relación transitiva.
El tercer argumento es que
no permiten acercamientos a la falsedad o la representación
inexacta. El cuarto el argumento es que no son necesarios para la
representación, ya que fallan en algunos casos de representación
exitosa. El quinto y último argumento es que no suficientes para la
representación, puesto que omiten esencialmente la direccionalidad
de la representación.
La intencionalidad del agente, su
competencia y su capacidad para permitir el razonamiento serán la
clave en el proceso de representación. A sólo representa a B si (i)
la fuerza representacional de A apunta hacia B, y (ii) A les
permite a unos agentes informados competentes plantear las
inferencias específicas respecto un B. Así, los modelos se
satisfacen por inferencias de sus blancos., pues es factor
importante la actividad intencional de los usuarios de la
representación, negando que la relación de representación solo pueda
tener en cuenta las propiedades respectivas del vehículo
representativo y su objeto designado.
La concepción de la representación
es inferencial, por lo tanto todo tipo de representaciones
mantiene una serie de relaciones que tienen un carácter a producir
nuevas representaciones, o a generar acciones permitiendo a los
agentes disponer de nuevos elementos para su interpretación. Zamora
(2005:199), expresa frente a la interpretación inferencialista,
que para entender un significado, es primordial presentar
razones con el fin de buscar la aceptación, de tal manera que se
aceptaran las consecuencias producto de esta. Esto lo autoriza para
llevar a cabo determinadas afirmaciones. “Las inferencias no son
únicamente internas al lenguaje de ciertas afirmaciones no se
seguirán determinadas acciones y, a sí mismo algunas afirmaciones
no se seguirán de otras, sino más bien de ciertas percepciones”. El
carácter inferencial permite abrir caminos a la mediación de los
modelos, pues el uso de este presupone la aceptación previa,
entendida inferencialmente, así este no puede usarse salvo si se
acepta todas las consecuencias que se derivan de este.
Es la capacidad de los modelos como
generadores de inferencia que les permite usarlos como
representaciones.
Estas son dos aproximaciones de la
diversidad de maneras de reconocer la complejidad de las prácticas
representacionales. El propósito de postular una teoría general de
las representaciones que existen en la ciencia es una tarea
compleja que apenas comienza y sobre la cual no hay acuerdos, pues
algunos consideran que más que una teoría debería estudiarse el tema
de la representación a través de un estudio de casos y de
propuestas de clasificación de diferentes tipos de representación,
que puedan servir para entender mejor como surge el conocimiento.
La consideración de un agente como elemento
fundamental en la teoría de las representaciones consideradas en
este apartado, lleva a que sea este quien tenga la capacidad de
generar los medios representacionales (modelos, diagramas, gráficos)
que permitirán lograr un acercamiento a lo que se pretende
representar, pues la consecución de información del medio, la
búsqueda de medios representacionales y su comunicación, son las
tareas de la actividad científica, un buen acercamiento a ellas, en
última instancia permitirán la generación de conocimiento,
justificando su papel epistemológico.
¿Qué
representan los Modelos Científicos?
Mirando la representación desde el
ángulo de los modelos científicos, se enfatiza en los métodos, los
ingredientes y los dispositivos representativos que se necesitan,
por eso se considera valioso revisar las propuestas de Hughes
(1997), Giere (2004), Morrison- Morgan (2004) y Knuuttila Tarja
(2005). Los Modelos no sólo
funcionan como herramientas y generadores de inferencia, sino en
derecho propio, como objetos de investigación.
Hughes
(1997:325-336)
llama representación a las “construcciones teóricas, modelos
y la relación entre ellas (…) pero no todas las representaciones
sobre el mundo son modelos teóricos”. Plantea tres componentes DDI-
designación-demostración-interpretación- que corresponde a
diferentes aspectos de la práctica científica. Según Hughes, la
representación científica puede ser analizada útilmente como una
noción de tres partes, que incluye la designación física del
sistema y sus propiedades por medio de elementos del modelo,
incluyendo las ecuaciones, los diagramas, etc; la demostración de
las consecuencias dinámicas del modelo y la interpretación de estas
consecuencias.
La
teoría de representación que Hughes defiende tiene los elementos de
“la designación” -los elementos del modelo, por ejemplo, denotan los
fenómenos- y “la demostración” - usa el modelo para conseguir un
resultado- y “la interpretación” - el resultado se interpreta
físicamente-. DDI no proporciona requisitos y condiciones
suficientes para cuando una representación tiene lugar; más bien,
Hughes está “haciendo una modesta sugerencia, pues si examinamos
un modelo teórico con estas tres actividades en la mente, podremos
lograr alguna visión en el tipo de representación que proporciona”.
Sin embargo, esto no es considerado por
Súarez, quien afirma que el
modelo DDI de Hughes no puede constituirse en una teoría general
de la representación, ya que la denotación, la demostración y la
interpretación son las condiciones necesarias pero no suficientes.
“Para Hughes, la representación involucra la demostración
esencialmente, y por lo tanto requiere llevar a cabo las inferencias
sobre la fuente por parte de un agente”
(Suarez 2004: 767-
780), Esto permite
abrir el debate sobre otros aspectos diferentes a la similitud y al
isomorfismo presentes en las teorías de representación.
Algunos filósofos
de las ciencias han asumido el tema de las representaciones
considerando que los modelos científicos pueden asumir el papel
fundamental de esta, pues estos se han convertido en verdaderos
ensambles heterogéneos que con sus diferentes roles permiten
aproximarse al conocimiento. A pesar de las diferentes orientaciones
filosóficas es posible reconocer en ellos sus posturas acerca de lo
que se asume como modelo.
La propuesta de Giere (1992)
sobre la representación científica ha contribuido al desarrollo de
la ciencia cognoscitiva en las últimas décadas, según los expresa se
debe “usar los conceptos y métodos de las ciencias cognitivas para
estudiar la propia ciencia”
(Giere 2004:742-752).
Se parte de que el ser humano, gracias a su evolución, tiene
capacidades cognitivas como la percepción, la memoria, el control
locomotor, la imaginación y el lenguaje, los cuales le permiten
interactuar con el ambiente y, estas mismas capacidades le han
permitido al científico además de interactuar, construir la ciencia
moderna. Las ciencias cognitivas aportan los recursos más poderosos
y prometedores para estudiar la ciencia como una empresa cognitiva
y a los científicos como agentes cognitivos.
El tema central
de la discusión son las representaciones, que “son mapas internos
del mundo externo” (Giere 1992:10).
Con mapas internos se
refiere a las creencias, modelos y teorías. Caracteriza cada uno de
estos medios que permiten las representaciones. El concepto
fundamental en la práctica representacional está fundamentado en los
modelos. Presentar una teoría es especificar a una familia de
estructuras, modelos y, después se debe especificar una cierta parte
de esos modelos como candidatos para la representación directa de
los fenómenos. Giere niega que la relación entre el modelo y un
sistema real no es principalmente el de la verdad, correspondencia o
isomorfismo sino de
similitud.
No muestra interés
por definir la noción de similitud, pues, en su opinión, las
ciencias cognoscitivas evidencian que “la cognición humana y
la percepción operan con base a alguna clase de similitud métrica,
los eslabones entre los modelos son más bien las relaciones de
similitud que las conexiones lógicas. Los modelos son objetos
abstractos construidos en conformidad con apropiados principios
generales y condiciones específicas”
(Giere 2004:747). Poder usar
un modelo para representar algunos aspectos del mundo permite
escoger de forma pertinente los rasgos similares. La existencia de
las similitudes específicas hace posible el uso del modelo para
representar el sistema real de esta manera. Sin embargo, esto no
impide a los modelos proporcionar intuiciones profundas y útiles
acerca del funcionamiento del mundo natural.
La ciencia
proporciona modelos de la realidad que poseen varios grados de
alcance y precisión. La clase de modelos científicos incluye modelos
físicos a escala y representaciones por diagramas, pero los modelos
de mayor interés son los modelos teóricos. Estos son objetos
abstractos, entidades imaginarias cuya estructura puede ser ó no
similar a aspectos y procesos en el mundo real. Los científicos
hablan corrientemente de la correspondencia entre sus modelos y el
mundo.
Desarrolla su visión de modelos
basado en la mecánica clásica presentada en los libros de texto
avanzados, teniendo en cuenta que los estudios fundacionales sobre
los cuáles se ocupan algunos filósofos, “no han influido en
la manera como los científicos enseñan, aprenden o entienden la
ciencia” (Giere 1992:27).
En los textos
se presentan estudios de casos, como el del oscilador armónico que
posibilitan la interpretación y la identificación.
Por ejemplo, en la fórmula F = -kx, podemos interpretar x, como el
desplazamiento de una partícula respecto de su posición de reposo.
Al aplicar la fórmula al estudio de una cierta masa unida a un
resorte, identificamos x como el desplazamiento de esta masa en
particular respecto a su posición de equilibrio (Giere 1992:90).
Así, el “oscilador lineal” no es
un solo modelo con versiones específicas diferentes sino un racimo
de modelos de variantes grados de especificidad. Encuentra como
norma en los libros de texto “una población de modelos que consisten
en familias relacionadas de modelos”
(Giere 1992:104). Los
modelos como tales no se constituyen en verdad o falsedad respecto
a el mundo; el papel de la teoría es más bien exigir un “el ataque
bueno entre los modelos y algunos tipos importantes de sistemas
reales” (Giere 1992:107).
Por consiguiente, sugiere que una teoría comprende dos elementos:
(1) una población de modelos, y (2) varias hipótesis que unen
aquéllos modelos con los sistemas en el mundo real. Como una
consecuencia para un científico la teoría no resulta ser una entidad
bien definida. Nada en la estructura de cualquier modelo podría
determinar si pertenece a una familia dada de modelos o no. El juez
es la comunidad científica quien determina si el parecido es
suficiente. Esto permite plantear la relación triádica donde las
decisiones por parte de los científicos permiten aceptar los modelos
como las mejores representaciones de la realidad. “Los científicos
son agentes intencionales con metas y propósitos específicos” (Giere 2004:743), los
términos de la representación estarían dados por la forma “S
usa X para representar W para propósitos P”
(Giere 2004:743),
donde S puede ser un científico individual, un grupo de científicos
o una comunidad científica, W es un aspecto del mundo real y X son
los modelos.
La idea de que
los modelos son entidades abstractas corresponde con la idea de “los
modelos mentales”, propuesta en la ciencia cognoscitiva algunos hace
años. Pero, también persiste la idea de que los modelos deben ser
cosas materialmente existentes de alguna clase, ellos funcionan
como las herramientas centrales de la ciencia y median entre las
personas y otros artefactos. En esta concepción se enmarca lo
expuesto por Morrison y Morgan, quienes proponen que se debe
investigar los modelos usados en la ciencia para entender el tipo de
entidades, qué son y cómo funcionan. Atribuyen la importancia de los
modelos a los procesos de construcción y a la manipulación en lugar
de enfocarse unilateralmente en la representación. Enfatizan en que
se aprenden de los modelos construyéndolos y manipulándolos, por lo
tanto, son algo más concreto que una simple idea conceptual. Estos
son, en parte, los mediadores independientes entre la teoría y los
datos. Por ejemplo, para hacer una economía matemática, el
economista no solo necesita del lenguaje, de los términos ó las
fórmulas matemáticas, sino además imaginar un mundo matemáticamente
descrito, dentro del cual sus ideas económicas puedan expresarse. La
economía confió en los procesos de imaginación e imagen que hicieron
los matemáticos, pero la matematización de la economía permitió
concebir un cambio en cómo los economistas entienden y perciben los
fenómenos económicos.
El acto de
representación involucra la visualización directa del mundo
económico en los símbolos matemáticos y otros formularios de
designación no-verbal para crear un nuevo mundo en el modelo.
Llegar a la versión recientemente hecha del mundo económico requiere
la imaginación sobre cómo representar el mundo y hacer una imagen de
él en un modelo. Es por eso que la representación se vuelve un
complicado proceso productivo e interpretativo.
Siguiendo la
misma línea de trabajo se encuentra la propuesta de Knuuttila
(2005), quién plantea la concepción de modelos como artefactos
epistémicos, lo cual se resume en los siguientes puntos: i) los
modelos son artefactos humanos, que se usan para actuar
recíprocamente con el mundo en lugar de usarse para
representarlo; ii) más que construcciones teóricas abstractas, se
conciben como entidades que se materializan en algunos medios de
comunicación; iii) el valor epistémico de los modelos sobrepasa
pretenciosamente de su dimensión material y explica el porqué los
modelos tienen otras funciones epistémicas además de la
representar el mundo; iv) la función representacional de los
modelos no debe aproximarse a términos representacionalistas
comunes, y v) la representación es la actividad que cuenta
tanto con el medio específico de la señal-vehículo material y el
proceso intencional de relacionar la señal-vehículo a su objeto,
denominándose el pragmatismo triádico.
El acercamiento a
los modelos debe hacerse desde su valor productivo donde su quehacer
y posibilidad de experimentación le dan un valor epistémico. El
uso y los puntos de vista productivos le permiten acercarse a lo
que podría llamarse representación, pero se hace necesario superar
ese concepto hacia una función no representacionalista.
La
concepción semántica de las teorías científicas expresa que los
modelos semánticos o meta-matemáticos de la teoría proporcionan los
elementos suficientes para abordar la relación entre modelos y el
mundo, ya sea a través de predicados teóricos, uso del lenguaje
matemático ó las ciencias de la comunicación. Sin embargo, no hay un
consenso frente a la concepción de modelos. Se encuentran posiciones
en las cuales los modelos son asumidos como abstracciones de la
teoría o clase de modelos
(las diferentes proposiciones, las frases, etc.) que nos indican una
concepción de la realidad o aspectos de esta. Los modelos están en
el mundo en algún sentido y sobre estos se obtienen rendimientos
epistemológicos distintos, pues se acude a instancias de
isomorfismo entre la teoría y el mundo. Ciertamente es correcto
decir que planean representar el mundo, que son entidades
representativas.
Cómo utilizan los
científicos los modelos?
El hecho significativo de la representación
científica tiene sus cimientos en la práctica de los científicos por
eso se hace necesario entrar en sus propias concepciones filosóficas
acerca de los modelos como representación. Retomando a
Knuuttila (2005), el valor
epistémico de los modelos toma relevancia partir de su valor
productivo en el quehacer y la experimentación. La práctica, uso y
producción les permite acercarse a lo que se podría llamar
representación. La filosofía de la ciencia propone una discusión
acerca de la formulación de los modelos en la práctica científica
pero se hace necesario preguntarse
cómo estas diversas propuestas funcionan en la ciencia, y es cuando
es interesante adentrarse en el discurso científico para comparar
como ellos conciben los modelos en su práctica.
Este referente es interesante
en la medida que permite visualizar el camino trazado por los
hombres de ciencia en la materialización de sus propuestas de
modelos.
De Gennes Pierre-Gilles, Premio Nobel de Física
en 1991, mostró cómo pueden usarse analogías simples para entender
sistemas complejos como los cristales líquidos y polímeros. Estos
materiales son al mismo tiempo sólidos y líquidos. Él explicó las
propiedades de los materiales sobre las transiciones de fase
orden-desorden en sistemas más simples. De Gennes descubrió que
aunque las transiciones de fase en materiales diferentes dan lugar
a fenómenos extensamente diferentes, estos son gobernados por
parámetros diferentes, como temperatura, la concentración, campo
magnético o eléctrico, que pueden describirse de una manera muy
general. Si la estructura es un cristal líquido, ferromagnético,
superconductor o polímero, pueden identificarse rasgos universales y
pueden ser explicados por leyes de escala simple. “¿Qué queremos
decir nosotros por materia suave? Los americanos prefieren llamarlo
“fluido complejo” .Aunque parezca un nombre bastante extraño y poco
atractivo trae consigo dos rasgos mayores:
i) la Complejidad. Podemos decir que la
biología moderna, ha procedido desde el estudio de modelos simples
(bacterias) a organismos multicelulares complejos (plantas,
invertebrado, los vertebrados...). Semejante a la explosión de
física atómica en el primero la mitad de este siglo, uno de los
aspectos superados es la materia suave, basada en los polímeros,
cristales líquidos y granos coloidales.
ii) la flexibilidad. Explica esto a través de un
experimento del polímero temprano, este es el hecho conocido por
los indios del Amazonas: ellos recogen la savia del árbol del hevea,
lo ponen en su pie, lo dejan secar durante un tiempo corto y luego
tienen una bota. Desde un punto de vista microscópico, la
explicación de este hecho, es la estructura en cadenas de polímeros
independientes, flexibles. El oxígeno del aire une los puentes
entre las cadenas, y esto conlleva a un espectacular cambio: se
cambia de líquido a una estructura de la red que puede resistir
tensión - lo que nosotros llamamos un caucho (en francés: el
caoutchouc, una trascripción directa de la palabra nativa). Lo que
está mostrando este experimento, es el hecho que una acción
química ha inducido un cambio drástico en las propiedades
mecánicas: un rasgo típico de la materia suave.
El valor epistémico del modelo
planteado está en la intencionalidad del científico pues no basta
solo con el modelo teórico y el modelo empírico y la coherencia
entre ellos sino que entra en juego la inferencia a buscar una
explicación que permita abordar el hecho que se estudia, su
extensiva aplicación a otros campos y la generación de nuevas
explicaciones permiten entender su valor dentro del campo
científico
Según Prigogine
(1977), desde el campo de la ciencia, la idea de las leyes de la
naturaleza ha perneado el concepto de la ciencia occidental, tanto
así que se justifica desde un carácter finalista, “pareciera
que la naturaleza está obligada a cumplir ciertas reglas”.
Esto último conllevo al desarrollo de la ciencia moderna, pues las
explicaciones estaban dadas en relación con las leyes de la
naturaleza. Según lo expresa Poincaré, al hacer referencia al éxito
de la teoría cinética, los modelos se formulan a partir de las
leyes, se constituyen en los pilares de la explicación y, en algunos
casos, permiten formular teorías. “Tal vez sea la teoría cinética de
los gases la que se desarrollará y servirá de modelo a las otras…La
ley física cobraría entonces un aspecto totalmente nuevo… poseería
el carácter de una ley estadística” (citado por Prigogine 1977:31).
Las preguntas sobre la utilidad del
estado representacional llevan a un pragmatismo y sirven de ayuda
pragmática al reconocimiento de una relación representacional, que
es constituido por otro.
Cuando se usan modelos se buscan
ámbitos de explicaciones posibles, que estarían dadas por las
propiedades del modelo, es un “modo de presentar las estructuras que
posiblemente tengan las materias” (Hanson 1997). El premio Nobel de
Física del año 1997, Anderson, Philip, expresó en la ceremonia en
Estocolmo que
El arte de la construcción de modelos es la exclusión de partes
reales pero insignificantes del problema…la construcción de modelos
comporta peligros para el constructor y para el lector, el
constructor puede pasar por alto algo que sea realmente de
importancia, mientras que el lector producto de una computación
realmente precisa puede tomar literalmente un modelo esquemático,
cuya meta principal sea la demostración de una posibilidad (citado
por Judson 1984:48 ).
En la teoría de
Anderson, físico del estado sólido de los Laboratorios Telefónicos
Bell, el modelo se expresa como un conjunto de ecuaciones, apenas
una página de relaciones simbolizadas. Galison (2004) intenta
mostrar como Einstein y Poincaré buscan especies de modelos útiles
para su trabajo a través de los relojes y de los mapas
respectivamente. La formulación de modelos es, por tanto,
indispensable en el trabajo científico. Los tipos de modelos pueden
variar de ser un conjunto de ecuaciones a un mapa o, un conjunto de
relojes pueden pasar a ser mecanismos más complejos, donde está
presente todo el proceso creativo de sus creadores.
El juego
incesante entre la predicción y la corrección del modelo es la
característica principal de toda teorización en la ciencia. Los
modelos complejos permiten teorizaciones, como en el caso de Linus,
quién en 1948 presentó un modelo que compilaba los trabajos
realizados en los últimos diez años acerca de la naturaleza de la
vida. Formuló la estructura de las proteínas como cadenas de enlace
enroscados, llamada hélice alfa y, a partir de la utilización de
perillas y bolas de colores brillantes, representó los átomos que
funcionaban casi como una computadora análoga para prevenir errores.
Las formas y tamaños de las perillas eran exactas, hasta una
milésima de centímetro para representar con precisión los tamaños a
los cuales los átomos empiezan a disponerse de otras maneras en las
diversas combinaciones; las uniones, a través de los cuales encajan,
tenían ángulos y distancias correctas. Frente a la pregunta ¿es el
modelado una forma de construir teorías? Respondió: “Sí, así
lo creo (…) la construcción de un modelo puede representar el
desarrollo de una teoría y con un modelo la teoría será
precisa”(citado por Judson 1984:65
). Observando los detalles del
modelo, éste no daría respuesta de verdad o falsedad. Simplemente
se ajusta a las necesidades de explicación del científico. Si la
representación es una relación, entonces un modelo no puede
representar el ADN a menos que éste exista No hay ninguna razón
para temer que solamente el estado aproximado de un modelo imponga
su capacidad de representar.
Schrödinger(
175:136 )
expresó :
Nunca podemos decir qué es en
realidad o qué ocurre en realidad, sino solo lo que es observable en
cada caso concreto, ¿debemos contentarnos con esto como algo
permanente? En principio, sí. Está muy lejos de ser nuevo afirmar
que, en principio, la meta última de la ciencia exacta debe
limitarse a la descripción de lo realmente observable. La respuesta
es sólo si, en adelante- como hasta ahora-, habremos de renunciar a
conectar esta descripción con una hipótesis definitiva sobre la
verdadera estructura del universo. Existe una difundida tendencia a
insistir en esta renuncia. Pero yo creo que esto es tomar las cosas
a la ligera”
De esta manera se llega al punto de encuentro con los filósofos,
quienes discuten sí las teorías como representaciones y éstas como
modelos se constituyen en las piezas claves de la investigación
científica. Según Olivé ( ), “una teoría aproximadamente
verdadera, es una teoría que a través de sus modelos ofrece una
descripción correcta, o adecuada, pero siempre parcial de sistemas
reales, de su estructura y funcionamiento”
Las
concepciones acerca de los modelos por parte de los científicos son
tan variadas que las técnicas y medios comunicacionales se confunden
con la concepción de modelo que subyace pero lo interesante en esta
revisión es encontrar puntos de encuentro entre agentes diferentes
(en este caso filósofos y científicos), que tienen formaciones, e
intereses diferentes pero que encuentran en la representación un
punto de discusión.
La
formulación y rivalidad de los modelos
Los textos de Física se constituyen en promotores de modelos que
cumplen determinadas funciones de acuerdo a las aplicaciones que se
les quiera dar, cumpliendo la intencionalidad del agente. Los
variados vehículos de representación son usados en las escenas
científicas (los modelos, las ecuaciones, las construcciones, los
dibujos, etc.) y como estos representan sus blancos (la conducta de
gases ideales, las evoluciones de estado cuántico, los puentes) en
virtud de los estados mentales de su constructores ó usuarios. Por
ejemplo, un dibujo representa un puente, porque el fabricante del
dibujo estipula que lo hace, y hace creer a su público, la creencia
que lo hace, responde de forma alguna a los propósitos personales,
los puntos de vista o intereses de los investigadores.
La percepción de los modelos como
mediadores entre las teorías,
fenómenos y datos, nos permiten ubicarlos en la concepción práctica
de modelos considerándolos como los mediadores independientes entre
la teoría y los datos, su papel como artefacto epistemológico le
permiten acceder al conocimiento de muchas maneras, más que ser los
representantes directos; la consideración como objetos y
herramientas de investigación, permite a través de los medios
comunicacionales, la búsqueda del carácter inferencial del modelo,
y esto nos lleva a buscar un ejemplo desde la física cuántica que dé
razón de estos aspectos.
Los libros de
texto se han constituido en la principal fuente de acercamiento al
conocimiento científico, tal como lo expresa Giere (1992:86) “si
deseamos enterarnos de lo que es una teoría desde la perspectiva de
los científicos que la usan, una manera de proceder es examinar los
libros de texto de los cuales aprendieron la mayor parte de lo que
saben acerca de esa teoría”.
La tendencia a
lo largo de los textos de mecánica cuántica ha favorecido la
propuesta de Schrödinger frente a la de Heisenberg. Históricamente,
la formulación de la mecánica matricial tuvo lugar en 1925 con
Werner Heisenberg, Max Born y Pascual Jordan, a partir de los
conceptos de energía y probabilidad y, en 1926, Schrödinger fórmuló
matemáticamente la mecánica cuántica en términos de ecuaciones
diferenciales, aunque hizo una equivalencia parcial con la
matricial. Las ecuaciones diferenciales se constituyen en los
instrumentos favoritos de la física, ya que permiten plantear
modelos para la comprensión de la materia: las moléculas pueden ser
tratadas como si fuesen ondas.
Un modelo
ondulatorio de la materia era una guía adecuada para construir una
teoría, la tarea era encontrar una ecuación de onda para las ondas
materiales.
Cuando aplicó la ecuación a varios problemas de la teoría cuántica
que servían de piedras de toque, el oscilador armónico, el rotador
simple, el rotador vibracional y el átomo de hidrógeno- algunas de
las aplicaciones que hacía poco emplearan Heisenberg, Born, Jordan
y Pauli para verificar la nueva mecánica de matrices-, obtuvo
precisamente los espectros de energía requeridos. Incluso obtuvo el
estado energético fundamental semientero, en vez de nulo, para el
oscilador armónico: resultado que Heisenberg había exibido
orgullosamente varios meses antes, cuando introdujo su nueva
cinemática cuántica ( Wesel 1990:234)
Al analizar esta
decisión desde los modelos productores propuestos por Knuuttila, se
debe hacer énfasis en los métodos, los ingredientes y los
dispositivos representativos que permitieron que la propuesta de
Schrödinger se impusiera a la Heisenberg en los libros de texto.
Por un lado, se debe
estudiar los artefactos y los modelos; sus interacciones específicas
y sus producciones, así como los medios de comunicación, métodos y
los conocimientos. Por otro lado, se debe estudiar cómo la relación
representativa entre la señal-vehículo y su objeto es logrado. El
ejemplo tomado se centra en
los procesos de construcción
y controversia en lugar de enfocarse unilateralmente en la
representación.
Dos importantes disciplinas
matemáticas son esenciales para entender la mecánica cuántica. Una
de ellas es el álgebra lineal -matrices y determinantes- y la otra
son las ecuaciones diferenciales. Es considerado que los dos
modelos matemáticos, aunque son diferentes pueden ser equivalentes,
porque ellos pueden transformarse entre si
(aunque no recíprocamente).
El trabajo de
Heisenberg en la mecánica matricial es de una naturaleza
especializada. Hoy día el álgebra lineal es un asunto de los
primeros cursos de matemáticas de la universidad pero, en 1925, era
una rama desconocida para los físicos. Fue publicada en 1924 por
Hilbert- Courant en el libro “Métodos de Física- Matemática” y
aprovechada por Börh, Heisenberg y Jordán para la formulación
rigurosa de la mecánica de matrices.
Esto nos lleva a preguntarnos por
el papel de las matemáticas en la representación, el protagonismo
dado en otras concepciones diferente a los modelos como mediadores,
la ubican en una posición privilegiada denominándola “el lenguaje de
la física”, tratándola como monismo representacional por excelencia
en las ciencias físicas, contrapuesto a esto es el pluralismo
representacional que presupone la intencionalidad del agente en los
procesos que lleva a cabo.
En la formulación clásica,
el movimiento de una sola partícula de masa m es determinado por las
coordenadas de posición -x,y,z- y por los componentes del momento -px,py,pz-:
la cantidad de movimiento está definida como el producto de la masa
m de la partícula y sus componentes de velocidad -vx,vy,vz-.
Así,
px = mvx,
etc.
px es llamada
conjugada de la coordenada x, py de y, pz
de z. La anterior descripción puede generalizarse a un sistema de
muchas partículas introduciendo un juego de coordenadas
generalizadas qi y los momentos conjugados pi.
Estas generalizaciones de coordenadas y momentos
constituyen la base para la formulación de mecánica de matrices.
En la mecánica
matricial, las coordenadas qi y los momentos pi
se representan simbólicamente por matrices. Por simplicidad, se
considera el movimiento en una sola dimensión. La regla de
cuantización requiere que la diferencia entre el productos de dos
matriz p. q y q. p sea igual a la matriz identidad I
multiplicado por el factor h/2
Π.
Este último término,
se define como ħ = h/2
Π.
La regla de cuantización
podría escribirse por consiguiente como,
p .q – q . p = ħ I
Para determinar
los estados estacionarios de un sistema, es necesario primero
expresar la energía del sistema como una función de la coordenada q
y del momentum p. Esta función es conocida como la función
Hamiltoniana H del sistema. La matriz H que representa el
Hamiltoniano es obtenida sustituyendo las matrices q y p en la
expresión analítica para el Hamiltoniano.
Los estados
estacionarios del sistema son derivados, identificando las
expresiones de la matriz q y p, asociados en la diagonal de H, es
decir, una matriz H dónde todos los elementos no diagonales son
cero. El procedimiento es bien definido, lógico y consistente y, fue
aplicado para derivar con éxito los estados estacionarios del
oscilador armónico. Sin embargo, la matemática que es requerida para
las aplicaciones de otros sistemas es sumamente engorrosa y, por
consiguiente, el uso práctico de la mecánica matricial fue
limitado.
La intencionalidad del agente en la
representación, nos lleva a retomar lo planteado por Zamora
(2005:162), quien expresa que hay una cuádruple analogía entre el
sistema científico y el sistema económico, el valor científico
dependerá de los factores objetivos y subjetivos, en este caso vale
la pena resaltar este factor pues las interpretaciones inferenciales
de cada científico como agente intencional, le permiten obtener
valores epistémicos a sus modelos, lo cual se traduce en una
distribución de valoraciones. La valoración epistémico llegará a una
situación de equilibrio cuando en la confrontación de los modelos de
representación no haya un incentivo mayor del uno frente al otro,
poniendo en juego la autoridad cognitiva que tiene que ver con las
relaciones de recursos, productividad, de los modelos en
competencia, y las normas de la comunidad científica con las que
se encuentran los modelos en competencia, esta propuesta permite ver
la intencionalidad del agente en los modelos mediadores, desde una
perspectiva económica.
Heisenberg
pensaba que la descripción mecánica cuántica de sistemas atómicos
debería centrarse solo en las cantidades físicas notables. Por
consiguiente, no deben usarse las órbitas y velocidad adquirida de
los electrones dentro del átomo porque no pueden observarse. La
teoría debe partir de los datos experimentales que pueden derivarse
de los espectros atómicos. Las valoraciones epistémicos del modelo
de Heisenberg, nos indican que ante todo buscaba un modelo centrado
en identidades no observables, como lo propone Hacking (1992), su
existencia debe ser inferida a partir de la evidencia observacional,
jugando un papel importante las prácticas científicas.
Cada línea en el espectro atómico
es determinada por su frecuencia v y por su intensidad. Este último
es relacionado con otra cantidad física notable denominada momento
de la transición. La transición espectral entre dos estados
estacionarios n y m es por consiguiente determinado por el v- n,m de
frecuencia- y por el x- n,m de momento de transición-. Heisenberg
propuso un modelo matemático en el que se presentaban las
cantidades físicas por juegos que contenían el x- n de momentos de
transición, m- además del tiempo, dependiente de las condiciones
de frecuencia.
Existe una anécdota interesante y divertida relacionada
con el descubrimiento de Mecánica Matricial, expuesta por Hameka
(2004:13). Cuando Heisenberg mostró su obra a Born, éste dijo no
saber nada sobre matrices pues no se acordó que había aprendido un
poco de álgebra lineal cuando era estudiante. Recurrieron a Hilbert
para obtener la ayuda. Durante la reunión, Hilbert mencionó, entre
otras cosas, que las matrices juegan un papel importante en la
solución de ecuaciones diferenciales en condiciones límite.
Estas condiciones especiales fueron las que usó Schrödinger para
demostrar la equivalencia de la mecánica matricial y la formulación
diferencial. Después, Hilbert dijo a algunos de sus amigos entre
risas que Born y Heisenberg podían haber descubierto la ecuación de
Schrödinger antes, si hubieran puesto más atención a lo que les
estaba diciendo. Si esto es verdadero o no, es una buena anécdota.
Para la mayoría de los estudiosos de la mecánica cuántica, la
ecuación de Schrödinger es más accesible que la mecánica de
matrices.
La idea
motivadora para Schröndinger en la búsqueda de una ecuación había
sido que cada una de las partículas era en realidad una onda, y que
ésta determinaría las características físicas de dicha onda. Se
considera
al átomo como un sistema de vibraciones,
en lugar de un sistema mecánico.
Sin embargo, en la ecuación
encontrada, los dispositivos representativos estaban lejos de
satisfacer las condiciones de las ondas físicas y en este punto
solo quedaban dos caminos “o rechazar la nueva ecuación y seguir
buscando un modo de describir las supuestas ondas de la materia, o
abandonar su plan originario de describir ondas materiales y
desarrollar una teoría de la materia basada en la nueva ecuación”(Hameka
2004:15).
Sobre el significado de Schrödinger
decía que
Se
podría caer en la tentación de asociar la función con
un proceso vibratorio en el átomo, probablemente más real que las
órbitas electrónicas, cuya realidad se cuestiona cada vez mas. (…)
He preferido presentarla [la nueva formulación] en términos
puramente matemáticos, que permite destacar lo que, en mi opinión,
es el punto esencial: el hecho de de que la misteriosa “exigencia de
valores enteros” ya no requiere ninguna regla de cuantización, sino
que resulta de las condiciones de finitud y univalencia de una
cierta función... Parece innecesario señalar cuánto más gratificante
resulta concebir una transición cuántica como un cambio energético
de un estado vibratorio a otro, que considerarla como un “salto” de
electrones... ” (Bombal 2002)
Schrödinger esperaba que, además de predecir correctamente los
resultados del experimento, una teoría física debería proveer una
imagen espacio-temporal de los sistemas físicos que conllevaban a
resultados experimentales y que el propósito de las leyes
matemáticas de la teoría era explicar el comportamiento de estos
sistemas en el espacio y en el tiempo. La primera etapa de su
trabajo se centró en buscar un modelo de los microsistemas
subyacentes a los fenómenos atómicos y moleculares. De acuerdo a las
formulaciones estudiadas, las perspectivas de Schrödinger, estarían
más acorde con las propuestas de Hacking, para quien las propuestas
estarían más en el marco de la práctica científica. Frente a la
propuesta de modelos productores, esperaría que no solo tuviera un
valor epistémico sino que los medios representacionales estuvieran
en el marco pluralista en el sentido de buscar una mayor amplitud a
sus modelos.
Buscó una descripción más detallada
de tal modelo y la formulación de una ecuación matemática que
gobernara su comportamiento. La ecuación planteada no proporcionaba
una descripción directa de los sistemas subyacentes como había
esperado.
Su búsqueda fue exitosa en el sentido de que la ecuación era
propicia para salvar los fenómenos. En la segunda etapa de su labor
sobre la mecánica ondulatoria trató de desarrollar una teoría basada
en la ecuación de onda, ideando nuevas maneras de aplicarla o
formularla dependiente del tiempo y, procurando hallar un nuevo
modo de vincular sus ecuaciones formales con un modelo de los
microsistemas. Sin embargo, esta búsqueda de modelos
espacio-temporales no consiguió dar con los frutos esperados, pues
“átomos, electrones, luz y energía radiante fueran
susceptibles de una descripción uniforme, conceptualmente
paradójica, pero de una limpieza sin mácula desde el punto de vista
matemático”(Arana 2000:18) La mayor parte de los símbolos de la
teoría están identificados con conceptos espacio-temporales y la
elección de las ecuaciones mecánico-cuánticas adecuadas para la
aplicación a un fenómeno macroscópico dependen del empleo de uno o
más modelos espacio-temporales de los microprocesos subyacentes.
Como la ecuación funcionaba, la tarea era proporcionar una imagen
física más completa, en la que fuera explícita la conexión entre la
teoría y el movimiento de las ondas materiales y, esto lo consiguió
con la articulación de la mecánica de matrices y la ondulatoria.
A
pesar de su rechazo del formalismo de la mecánica de matrices,
Schrödinger también estaba convencido de que ambos modelos se
complementaban mutuamente. Y así, en la primavera de 1926, descubrió
lo que llamo “una identidad matemática formal” entre la mecánica
ondulatoria y la mecánica de matrices. Desde un planteamiento
estrictamente formal, Schrödinger probó que la mecánica ondulatoria
implicaba los aspectos básicos de la mecánica de matrices en los
casos simples de espectro discreto. Estas ideas fueron marcando el
derrotero hacia la teoría de transformaciones de Dirac y Jordan
primero, y luego la posterior unificación de Von Neumann. Al mismo
tiempo, sirvieron para decantar el desarrollo conceptual moderno de
la Mecánica cuántica.
¿Por qué tanto empeño en elaborar descripciones
espacio-temporales de los sistemas? “Una respuesta probable y tal
vez generalmente aceptada es que era un realista científico, de los
que creen que la tarea de la ciencia es describir la fábrica real
del mundo”
”(Arana 2000:17). Como lo
expresa él mismo, “las observaciones, y los resultados de las
mediciones particulares, son la respuesta de la naturaleza a nuestra
indagación. Así, de manera esencial, no sólo sean una ocasión del
objeto, sino, antes bien una ocasión de la relación intercambiante
sujeto-objeto” (Schrödinger 1975:37). Un modelo matemático más
realista es la asociación de movimiento de la partícula con la
superposición de un número infinito de ondas planas. En este
acercamiento, el movimiento de una partícula libre puede
representarse por un paquete de ondas. Esto explica la relación
entre la partícula y movimiento de la onda de manera lógica y
consistente.
Frente al debate del realismo, no niega la
existencia de una realidad independiente, sólo brinda restricciones
sobre aquello que puede considerarse real. La ‘realidad’ no debería
ser un concepto presupuesto o un prejuicio utilizado para observar y
relacionar datos empíricos, sino más bien un concepto a desarrollar
y transformar. La mecánica cuántica es un modelo matemático, una
interpretación de la realidad, pero no la realidad misma. Un modelo
sólo puede dar cuenta sobre la naturaleza de realidad si se asume
que representa la parte seleccionada o aspecto del mundo que se
investiga. Es evidente que los modelos científicos son una
abstracción mental, una interpretación de la naturaleza. Dotados
generalmente de una estructura lógico-matemática, se utilizan para
poder explicar algunos fenómenos relacionados y para reconstruir por
aproximación los rasgos del objeto considerado en la investigación.
El modelo será mejor cuanto más se aproxime al comportamiento real
del objeto. No es imprescindible que esas interpretaciones sean
ciertas, sino que sea útil y eficaz para el fin que se persigue. Por
ejemplo, no importa demasiado saber si los electrones se mueven en
orbitales alrededor del núcleo, sino su comportamiento, como si lo
hiciera.
Lejos de las pretensiones de este trabajo
estarían las controversias entre las interpretaciones de Copenhague
y la causal que ha condicionado el desarrollo experimental y teórico
de la mecánica cuántica. Es importante señalar que solo unos pocos
aspectos no son fundamentales en la solución de las controversias y
los debates. La comunidad científica propone alternativas para
ayudar a esclarecerlas, así el experimento EPR, las variables
ocultas y la desigualdad de Bell se constituyen en pilares
fundamentales, que conllevan a problemas relevantes como las
probabilidades en la medición, el principio de localidad entre
otros. Frente a
los principios tanto de superposición lineal de estados, y de
incertidumbre (dualidad onda-partícula) que conforman la mecánica
cuántica –la mecánica ondulatoria (formulación de Schrödinger) y la
mecánica matricial (formulación de Heisenberg)-. El principio de
superposición de estados implica, entre otras cosas, la
posibilidad de la coexistencia simultánea de distintos estados
(algún notable) para un mismo sistema, como lo expresa la famosa
paradoja del gato de Schrödinger (1935). El principio de
incertidumbre presupone la idea de que existe una imposibilidad
intrínseca del mundo microscópico para la realización simultánea de
determinadas mediciones y que esta imposibilidad no es resultado de
una limitación de los dispositivos de medida o de la falta de
información sobre variables del sistema.
La dualidad onda-partícula -directamente
conectada al principio de incertidumbre- implica aceptar que los
objetos cuánticos evidencian a veces propiedades de partículas
clásicas y, en otras situaciones, características de ondas, pero que
en ningún caso pueden identificarse con unas o con otras. Como ha
sido indicado, de estos principios resulta que la mecánica cuántica
es una teoría inherentemente probabilística; el resultado de cada
medida no puede ser previsto con la precisión deseada, si es
conocido el estado inicial del sistema, la mecánica cuántica ofrece
apenas predicciones probabilísticas. Frente a la naturaleza de esas
probabilidades, la función de onda (vector de estado) contiene
toda la información acerca del estado de un sistema, y además las
densidades de probabilidades presentan términos de interferencia,
resultantes del módulo al cuadrado de la suma de las amplitudes.
A manera de resumen se presenta un cuadro donde
se compara los métodos, ingredientes y dispositivos representativos
que hacen que una propuesta se imponga frente a la otra.
|
Schrödinger |
Heisenberg |
Formulación Matemática |
Diferencial |
Matricial |
Modelos |
Espacio-temporales |
Probabilísticas |
Símbolos de la teoría |
Ondas piloto |
Cantidades dinámicas |
Dispositivos
representativos |
Función de onda |
cantidades físicas
notables |
Enfoque |
Estados |
Operacional |
La interpretación de Schrödinger de los
fenómenos atómicos a través de “paquetes de onda” concebía a los
fenómenos observados (cuantización, existencia de niveles discretos
de energía) con relación a frecuencias y fenómenos de
interferencia, sin postular los “saltos cuánticos” y aportando
elementos a las concepciones más clásicas de una realidad
continua.
La interpretación del formalismo
dada por Heisenberg y Böhr exigía un cambio radical en las
concepciones habitualmente aceptadas de la realidad física. El
formalismo de la “Mecánica de matrices” de Heisenberg no permitía
las descripciones usuales espacio-temporales y las conexiones
causales de los fenómenos físicos. Pero, las descripciones y
nociones intuitivas de la Física clásica se habían aplicado
indiscriminadamente a la Mecánica cuántica. Esta disparidad entre el
formalismo y las concepciones intuitivas tenían forzosamente que
originar serias dificultades. Las concepciones de la Física están
ligadas a las descripciones espacio-temporales, Heisenberg lo sabía
y propuso otra alternativa para salvar estas dificultades,
formulando el Principio de Incertidumbre con el fin de
mantener las nociones clásicas intuitivas, pero restringiendo su
aplicabilidad.
La Mecánica de Matrices y la Mecánica
Ondulatoria buscan la explicación del mismo tipo de fenómenos y
obtienen resultados análogos. Aunque, ambas son radicalmente
diferentes, tanto en su formalismo matemático como en su
interpretación física, pues Heisenberg utilizó un enfoque
algebraico, postulando la existencia de operaciones no conmutativas
y reglas de cálculo novedosas frente a las conocidas en el
formalismo matemático de la época. Físicamente, su concepción básica
es el corpúsculo y enfatiza en la discontinuidad en el microcosmos.
Por el contrario, Schrödinger utilizó un enfoque analítico,
utilizando las técnicas usuales de ecuaciones diferenciales de la
mecánica clásica de fluidos. Físicamente, su concepción básica es la
onda y la continuidad en el mundo subatómico.
Ambos formalismos matemáticos parten de la
física clásica (ya sea de la dinámica newtoniana o de la mecánica de
fluidos), planteando en algún momento el calculo una hipótesis
innovadora. Posiblemente, esta puede ser el origen de la discordia:
el querer expresar conceptos clásicos como “posición”, “trayectoria”
“velocidad” o “paquete de ondas” en términos del nuevo formalismo.
Heisenberg, dispuesto a defender la potencia del formalismo
matemático, defendía, la posibilidad de realizar experimentos que
sirvieran de test directo de las predicciones de la teoría, como
lo hacía, Einstein que “la teoría es la que decide lo que podemos
observar”. Si la teoría rechaza la observabilidad de la trayectoria
de una partícula, y esta aparece en la cámara de Wilson como una
sucesión discreta de puntos borrosos, la conclusión, según
Heisenberg, es que “carece de sentido hablar de la posición de una
partícula con una velocidad definida”. Esta línea de pensamiento,
junto a su convencimiento de que el formalismo matemático es lo que
permite establecer y predecir nuevos resultados, es lo que llevó a
Heisenberg a enunciar su principio de incertidumbre. El uso de
palabras como “ondas” o “partículas” para la descripción de lo que
realmente sucede, es irrelevante. Böhr aceptó las conclusiones de
Heisenberg, pero no su interpretación, señalando que la causa ultima
del principio de incertidumbre residía en la dualidad onda-partícula
y en la imposibilidad de usar ambas descripciones simultáneamente, a
pesar de que las dos son necesarias para obtener una descripción
completa del fenómeno físico.
En primera instancia se podría pensar que la
tradición matemática juega un papel importante en las controversias
pero, es importante analizar los medios representacionales y su
comunicación, pues estos se constituyen en factores determinantes de
la actividad científica. Si se toma el caso de la clasificación de
los elementos químicos, Mendeliev, utilizó un sistema periódico
para clasificar todos los elementos, según el orden de progresión
del peso atómico. Estudia los elementos con propiedades bien
definidas, que podrán servir como modelo, como “patrones” para
ordenar el resto. Esto lo consigue no buscando semejanzas y
diferencias sino contrastes y discrepancias entre los elementos,
propuso la tabla periódica y no una espiral, pues la discontinuidad
en los valores del peso atómico no permitía una estructura continua
que permitiera ofrecer el máximo de información y de claridad con
un número mínimo de postulados. Qué ventajas ofrecía la tabla
frente a la espira. La elección de una tabla como medio
representacional permite dilucidar una forma sencilla de comunicar
los resultados de las investigaciones. Una de las tareas era
sistematizar y organizar los conocimientos acerca de los elementos
que se encontraba dispersos hacia 1879, y la tabla periódica
permitió no sólo esto sino también constituir el concepto de
elemento como organizador. Todos los elementos con raras
excepciones, se sucedían uno al otro en líneas horizontales,
siguiendo el orden creciente de sus pesos atómicos. Los elementos
semejantes quedaban encuadrados en varias columnas verticales. El
permitir dejar espacios en blanco, permitió predecir la existencia
de muchos otros que no habían sido descubiertos. Este medio de
representación permite el auge de una química centrada en los
elementos.
La estructura de la molécula de ADN fue logrado
por cuatro científicos: Maurice Wilkins, James Watson y Francis
Crick, y por Rosalind Franklin. El modelo propuesto por estos
científicos semeja una escalera de caracol que recibe el nombre de
‘doble hélice’. Esta escalera está compuesta por peldaños compuestos
por cuatro piezas (adenina, guanina, timina y citosina), que se
integran por pares atendiendo a las siguientes reglas: Adenina (A)
siempre forma un par con timina (T), Guanina (G) siempre debe unirse
con citosina (C). Ha diferencia de una espiral, una hélice no se
va ampliando a partir del punto de origen, sino que se alarga
siempre de manera monótona con el mismo diámetro. Ellos prefirieron
esta forma de representación, la hélice alfa que había sido
propuesta por Pauling en 1951, pues permite la relación entre dos
objetos asimétricos, pero equivalentes en el espacio, si se repite
esta operación, se obtiene una gran cantidad de objetos equivalentes
que forman una hélice.
Estos dos medios representacionales nos pueden
dar un ejemplo de cómo frente a situaciones propuestas uno resulta
favorable frente al otro de acuerdo a lo que se quiera comunicar.
La búsqueda de conexiones coherentes de los modelos entre el modo
en que podrían funcionar y cómo podrían ser las cosas están mediadas
por la intencionalidad del agente pues hay varias formas de
aproximarse y finalmente quién decide es el investigador de acuerdo
a sus pretensiones.
Los científicos han estado de acuerdo en que la
comunicación de los resultados de las investigaciones se den a
través de eventos (congresos, encuentros, foros, etc,), artículos en
revistas especializadas y en libros. La comunicación científica es
el juego mutuo mediante el cuál se logran evidencias, se pone en
duda, se logra nuevas comprobaciones y se pone en evidencias formas
de representación, ya sea través de los diversos medios
representacionales o las inferencias que se hagan de los modelos,
sin desconocer el juego económico que subyace en las comunidades
científicas con los desarrollos científicos y tecnológicos. Un
ejemplo de esto, fue a los finales de los años cuarenta cuando el
esfuerzo de los físicos teóricos, y especialmente de Freeman Dyson,
Richard Feynman, Julian Schwinger y Sinitiro Tomonaga, hicieron ver
los frutos de su trabajo. En ese entonces, fue cuando hizo su
presentación en la sociedad científica un ejemplo práctico de una
teoría relativista del campo cuántico «renormalizada» que expresaba
las interacciones de dos partículas cuánticas, el electrón y el
fotón; se denominó electrodinámica cuántica. Los teóricos centraron
sus esfuerzos en la electrodinámica cuántica no sólo porque había
datos experimentales desconcertantes de las interacciones de fotones
y electrones que exigían explicación, sino porque fotones y
electrones, eran por sí solos, bastante aproximadamente, un pequeño
subsisterna de todas las partículas cuánticas. En consecuencia,
podían ignorarse sus interacciones con otras partículas cuánticas,
lográndose así una gran simplificación. Si el procedimiento de
renormalización tenía alguna validez, debería demostrarse en este
caso. Esto no solo lleva a considerar la conveniencia de adecuación
de un modelo sino de su comunicación a la comunidad
científica.
Los modelos no pueden reducirse
solamente a la designación de sistemas externos, donde su valor
epistémico está dado por la cognición, sino que debe darse un giro
considerándolos desde su productividad, donde su valor epistémico
están en la laboriosidad y la experimentación, que permiten abordar
sus métodos y dispositivos representacionales.
Consideraciones
Finales
Las propuestas semánticas plantean que las relaciones de los modelos
con la realidad pueden ser isomórficos, de similitud, de analogía,
de inferencia causal que pretenden concebir los modelos como
mediadores entre la teoría y el mundo, lo cual conlleva
necesariamente a algún tipo de representación. En este trabajo se ha
mostrado la intención de los diferentes autores de abordar las
representaciones científicas a través de los análisis de las
relaciones, que buscan rendimientos epistemológicos de cada una de
sus propuestas, que sirvan como base para contrastar las teorías
científicas. La búsqueda de un ejemplo que permitiera dar razón de
los medios representacionales, de información y la manera de
comunicación lleva necesariamente a la intencionalidad del agente
como principal responsable del éxito de la representación.
¿Cuál es el modelo adecuado?
Frente a esta pregunta no hay una respuesta clara, pues también hay
discrepancias entre los filósofos que plantean que dependen del
ajuste con la realidad, que solo ofrece algunos aspectos del
fenómeno, pues nunca un modelo sirve de manera óptima para todos lo
fenómenos; solo aquellas hipótesis verdaderas acerca de aspectos
observables del mundo o de la negociación de los agentes que dan
cuenta de su carácter representacional. En física podemos encontrar
referencias a modelos como el modelo estándar, el modelo estelar
estándar, el modelo del Big Bang, El primero, fue propuesto en el
Congreso de Tokio en 1978, clasifica todas las subpartículas del
universo en tres familias, cada una de las cuales consta de un par
de leptones y un par de quarks. El segundo, proporciona una relación
simple entre la masa, el radio y la luminosidad de una estrella, fue
propuesto por Sir Eddintong en 1926. El tercero sobre el cual giran
las investigaciones de los premios Nobel de 2006, La teoría de un
Universo que se expande fue propuesta primero por Friedmann (1922) y
Lemaître (1927). Un gran trabajo alrededor de este modelo es dada
por Steven Weinberg laureado al Nobel en1993.
Alrededor de 1960, se discutían dos modelos
para el Universo ¿Estaba el universo expandiéndose según el
modelo del big bang, o estaba en un estado estacionario? Ambos
modelos tenían sus partidarios y entre los científicos que defienden
el último era Hannes Alfvén (premio de Nobel en físicas 1970), Fred
Hoyle y Dennis Sciama. Si el modelo del big bang fuera el correcto,
la radiación del universo primitivo todavía debe existir, y varios
grupos estaban buscándolo. Esta radiación debe ser térmica e
isotrópica, por ejemplo, en forma de radiación de cuerpo negro.
El descubrimiento de microondas provenientes del
fondo del cósmico por Penzias y Wilson en 1964, premio de Nobel en
física 1978, se constituyó en una completa sorpresa mientras
intentaban entender la inesperada fuente de ruido en su
radio-receptor. Unos 16 años atrás, Gamow (1946) y Herman -Alpher
1(949) habían predicho un campo de radiación que penetra el
Universo. Tolman había mostrado en 1934 que la radiación del fondo
cósmico en un Universo que se expande es parecida a la de un cuerpo
negro. En 1964, sin embargo, Doroshkevich y Novikov, publicaron un
artículo donde se mostraba una búsqueda explícita para la radiación
que se enfoca en las características de un cuerpo negro. En 1964,
el descubrimiento de la radiación de microondas del fondo cósmico,
era contundente, esto permitió la aceptación del modelo del big bang
pero no todos los defensores del modelo estático se rindieron.
La historia de la física nos
muestra un amplio abanico de ejemplos que
permite dilucidar las problemáticas alrededor de
que son los modelos científicos y como estos nos dan cuenta del
conocimiento, pues son entidades que se materializan en los medios
comunicacionales. La pretensión de este trabajo consiste en mostrar
que es posible tener modelos diferentes para el mismo dominio de
fenómenos, pero es importante en las controversias que se generan
analizar aspectos como los métodos comunicacionales y los medios
representativos que afirmar que el modelo representa, refleja o
simula la realidad. Un medio representacional puede ser un
sistema de formas simbólicas (el lenguaje natural o el lenguaje
lógico de programación), las matemáticas y la geometría, las
imágenes, diagramas, planos, códigos, instrumentos, artefactos,
dejando de lado como único medio de representación el lingüístico,
que es el permitido por excelencia en la concepción semántica.
La concepción de modelos como
mediadores nos indican que los medios representacionales son tan
variados, que no suponen un medio universal, la obtención de la
información es tan compleja que en ocasiones se requiere de varios
medios representacionales, por eso el acercamiento que se da en la
concepción pragmática de los modelos, está orientado hacia una zona
de acercamiento entre la realidad y las leyes de la naturaleza, ha
través de los modelos, esto permite actuar recíprocamente con el
mundo, más que representarlo.
La representación puede aproximarse a los dos
maneras presentadas en esta investigación ya sea considerándolo a
través del uso ó los puntos de vista de la producción. Los
análisis filosóficos de la representación científica se han
concentrado hasta ahora unilateralmente en el uso de los modelos.
La propuesta de investigación, es centrarse en los modelos como
artefactos epistémicos, considerándolo como un artefacto histórico,
materialmente construido. Los modelos son considerados mediadores
entre la teoría y las leyes fenomenológicas construidas a través
del conocimiento del mundo. Uno de los medios representacionales
son los instrumentos científicos, estudiar su significado e
implicaciones para la filosofía de la ciencia, desde una
epistemología de los instrumentos, sería un camino para abordar la
tesis doctoral.
Referencias Bibliográficas
Amann, Klaus and Karin Knorr
Cetina (1990), “The Fixation of (Visual) Evidence”,in
Michael Lynch and Steve Woolgar (eds.),
Representation in Scientific Practice
MIT Press:85-122.
Arana, Juan (2000). “En Física cuántica y
realidad”, Madrid: Universidad Complutense
Bombal, Fernando (2002), “Los Modelos
Matemáticos de la Mecánica Cuántica”
www. ochoa.mat.ucm.es
Broncano, Fernando (2003).
“Saber en condiciones”, Madrid:Antonio Machado libros.
Biswas, Tarum (1999),“Quantum
mechanics,Concepts and applications”: Physics
Deparment State
University New York.
Cartwright, Nancy (2004),
“Causation: One World, Many Things”, Philosophy of science, 71: 805-
819
Collins, H.M. and Robert
Evans (2002), “The Third Wave of Science Studies:Studies of
Expertise and Experience”, Social
Studies of Science 32(2): 235-296
_________ (1996). “El
gólem. Lo que todos deberíamos saber acerca de la ciencia”.
Madrid :Ed. Drakontos.
De Gennes,
Pierre-Gilles (1991),
http://nobelprize.org/nobel_prizes/physics/laureates/1991/gennes-lecture.html.
De Lorenzo, Javier (2005). Filosofías de la
Matemática: de fundamentaciones y
construcciones”, Enciclopedia
Iberoamericana de Filosofía, Madrid: Editorial Trotta.
Diegüez, Antonio (1998),
“Realismo científico”, Málaga :Universidad de Málaga.
Giere, Ronald (2004), “How
models are used to represent reality”, Philosophy of
science,71: 742- 752
_________ (1992),“La
explicación de la ciencia. Un acercamiento cognoscitivo”
México:Consejo Nacional de
Ciencia y Tecnología.
Hacking, Ian, (1992),
“Representar e Intervenir”, México : Consejo Nacional de Ciencia
y Tecnología.
Hameka, Hendrik F. (2004),
“Quantum Mechanics: A Conceptual Approach”, John
Wiley & Sons, Inc.
Hanson, Norwood (1977). Patrones de
descubrimiento. Observación y explicación,
Madrid:Alianza Universidad .
Hughes, Rig (1997), “Models
and representation” ,Philosophy of science, 64: 325- 336
Ibarra, & Mormann (2000), “Variedades de
la representación en la ciencia y la
filosofía”, Barcelona: Ariel
__________ (2001), “Una
teoría combinatoria de las representaciones
científicas”, Crítica,
XXXII, 95
__________(1997), “ Representaciones en la
ciencia”.Madrid: Ediciones Bronce.
Iranzo, Valeriano (2000).
“Manipulabilidad y entidades inobservables”, Teoría-
Segunda época, 15/1: 131-153
Judson, Orase Freeland
(1984). “La búsqueda de respuestas”. México:Fondo
educativo
Interamericano.
Knuuttila Tarja(2005). “Representation
and Realism in Economics: From the
Assumptions Issue to the Epistemology of Modelling”.
Helsinki: University of Helsinki
______ (2005), “Models, Representation, and Mediation”,
Philosophy of science 72:
1261-1271
Lamo de Espinosa y otros (1994). “La
sociología del conocimiento y la ciencia”.
Madrid:Editorial Alianza.
Latour, Bruno and Steve
Woolgar (1986), “La vida en el laboratorio: Construcción
de los hechos científicos”.
Princeton: Princeton University Press.
León, Olivé (1995), “Racionalidad
Epistémica”. Enciclopedia Iberoamericana de Filosofía de la ciencia,
Madrid: Editorial Trotta
Lynch, Michael (1985),
“Discipline and the Material Form of Image: An Analysis of
Scientific Visibility”, Social
Studies of Science 15: 37-66
Martínez , Sergio (2001),
“Historia y combinatoria de las representaciones científicas
comentarios a la propuesta de
Ibarra y Mormann”, Crítica, Revista Hispanoamericana de Filosofía,
33, 99 : 75–95
Morgan &
Morrison (2004), “Imagination and Imaging in
Model Building”,
Philosophy of science, 71:
753- 766
Prigogine, Ilya (1997). “El
fin de las certidumbres”, Madrid: Editorial Tuarus.
Rorty, Richard (1980),
“Philosophy and the Mirror of Nature”. Oxford: Basil
Blackwell.
Schrödinger, E( 1975 ). “Qué es una ley de
la naturaleza?”, Mexico: Fondo de cultura
economica
Súarez, Mauricio, (2004), “An
inferential Conception of Scientific Representation”,
Philosophy of science, 71:
767-779
___________, (2003), “Scientific
representation: Against similarity and isomorphism”,
International Studies in the
Philosophy of Science, 17, 3: 225-244.
___________, (2003), “Hacking Kuhn”,
Revista de Filosofía, 28, 2: 261-284
Wessel, linda (1990). “Schrödinger y la
tradición descriptiva”, ensayo en Resortes de la
creatividad científica, Mexico: Fondo de
cultura Económica.
Woolgar, Steve (1991), “
Ciencia: Abriendo la Caja Negra”, Barcelona:Anthropos.
Zamora, Jesús (2005),
“Cuestión de protocolo”, Madrid: Editorial Tecnos
Esta
clasificación es debida a Knuuttila, (2.005), para quien
la pregunta por la representación ha sido un asunto de
preocupación epistemológica constante, pero plantea que no
hay acuerdos claros sobre el significado de la
representación por eso se han hecho varios frentes para
estudiarla, no solo en la filosofía sino en otros campos
de estudio.
7El
nuevo experimentalismo, considera que el conocimiento
científico tiene una estructura de tres niveles, ubicando la
teoría y los datos observacionales en los extremos y una
larga y compleja serie de modelos de los fenómenos actuando
como “mediadores” entre teorías y datos (Súarez 2003b).
Súarez ( 2003b: 261-284) expresa
“En literatura castellana el modelo de tres niveles ha sido
descrito por Ibarra y Mormann (1998), aunque con un
propósito ajeno o incluso contrario al new
experimentalism, puesto que para estos autores los tres
niveles constituyen los componentes de las teorías
científicas, mientras que, de acuerdo con los new
experimentalists, los dos niveles más concretos (datos y
fenómenos) no son en absoluto componentes de teoría alguna.
Más bien al contrario, tanto los datos como los fenómenos se
definen en parte por hallarse en la clase de contraste
opuesta a la de las teorías científicas. En este trabajo
adopto escrupulosamente la concepción del new
experimentalism: teorías, fenómenos y datos son tres
categorías diferenciadas del conocimiento científico, cuya
intersección es el conjunto vacío”.
Palabras del discurso pronunciado por De Gennes en Estocolmo en
Diciembre de 1991 cuando recibió el premio Nobel de Física
por el Desarrollo de métodos para estudiar fenómenos de
orden complejo traducidos a sistemas simples y como estos
pueden generalizarse a las formas más complejas de materia,
en particular a los cristales líquidos y polímeros,
Los procesos de matematización no consisten en la traducción a un
lenguaje preciso de un modelo preexistente. Es a través
de ellos que se permite la producción de modelos, siendo
las matemáticas una de las formas intencionales de las
actividades humanas.