REALIDAD Y FICCIÓN                                                                                                                  FILOSOFÍA, LITERATURA, ARGUMENTACIÓN, CIENCIA, ARTE    

                                                

                                                                                                                                             

lindaraja     REVISTA de estudios interdisciplinares y transdisciplinares. ISSN:  1698 - 2169

 

 

 

Laguna de la Plaza y

Picos nevados de la Sierra de

Cocuy en Boyacá (Colombia)

 

Rosa Nidia Tuay

 

 

 

 

Revista Lindaraja

nº 11,

julio de 2007

 

 

 Rosa Nidia Tuay

      

       

 

Si nos ocupamos solamente del conocimiento

como representación de la naturaleza,

nos preguntamos cómo

podremos alguna vez escapar de las

representaciones y

conectarnos al mundo”(Hacking 1992)

 

         Consideraciones iniciales

            Cuando se inicia una indagación filosófica se debe tener presente que el problema  a tratar sea  de carácter central en las discusiones, esto permitirá que se pueda  examinar a fondo, captar sus dificultades e implicaciones y contribuir al planteamiento de una solución. Las discusiones de los filósofos de una época se centran en los problemas que consideran relevantes, su tarea es idear soluciones determinantes que ayuden a que este sea algo vivo, de especial importancia no solo para la comunidad de filósofos sino para la cultura en general.   

 Las representaciones científicas han personificado un tema de debate en los últimos años desde ámbitos como la sociología de la ciencia, la economía de la ciencia, hasta las temáticas centrales de la filosofía.  La representación es un concepto que se ha venido discutiendo  en la filosofía de la ciencia y al interior de su  quehacer. Es un concepto que no está bien establecido, constituyéndose en una problemática ha ser abordada en trabajos de investigación. 

Se considero importante, abordar primero, el concepto de representación  a través de autores como Hacking(1992) y Woolgar(1991), quienes han mostrado una posición divergente frente al tema; en una segunda parte, se buscó acercarse a una posible teoría de la representación científica de Ibarra y Mormann (2001), así como el debate que propone Suárez(2004) para precisar  si las  relaciones  de isomorfia o de similitud se constituyen en una condición necesaria y/o suficiente para la existencia de una representación. En una tercera parte se analizó la concepción de teorías como modelos desde las perspectivas de Hughes (1997), Giere(2004), Morrison-Morgan(2004) y Knuuttila(2005) , para armar un panorama general que se contrastará con la visión de los científicos acerca de la concepción de modelos en la ciencia. Por último se tomará como ejemplo de  modelo teórico las formulaciones de la mecánica cuántica de Schröndinger  y Heisenberg, que han sido abordadas en los textos de física mostrando preferencias de una frente a la otra en su enseñanza. 

Una de las tareas propuestas es hacer un acercamiento a las distintas posiciones desde las que se ha abordado el tema de las representaciones científicas. A lo largo de la historia de la ciencia, el tema del conocimiento ha sido trabajado por filósofos como Platón y Descartes, pero éste comenzó a tener una mayor fuerza desde los años setenta con las teorías cognitivas. Una tesis central de estas teorías es que toda cognición es manipulación de representaciones. El concepto de representación tiene implicaciones ontológicas y epistemológicas, es decir, se da por supuesto que el mundo es predefinido, que hay rasgos definidos antes de cualquier actividad cognitiva y, para establecer una relación entre ellos, se plantea la existencia de representaciones mentales dentro del sistema cognitivo (imágenes, símbolos). Éste último permitirá establecer una teoría, en la cual el mundo es predeterminado, la mente posibilita el conocimiento de éste y permite representar los rasgos característicos para luego actuar sobre ellos. 

Por lo menos tres diferentes posiciones respecto al problema de la representación se pueden encontrar[1]. Algunos desean renunciar a ésta y simplemente evaden el problema, definiéndolo como improductivo y estéril. Entre éstos se encuentran       Rorty (1980) y Hacking (1992). Por otro lado, otros intentan deconstruir la noción como Hughes (1987) y Woolgar (1991). Al hablar sobre la representación se está haciendo referencia a las maneras de dar, de denotar e indicar, entre otras. Esto  no conlleva al encuentro de un centro común que pueda llamarse ‘las representaciones’. Por último, distintos autores buscan reconstruir la noción de representación de una manera que preste atención debida a la crítica, como lo son Ibarra-Mormann (2001), Suárez (2004) y Knuuttila (2005).  

La idea de que los sistemas cognitivos tienen capacidad para elaborar representaciones y que en eso se centra su función ha sido duramente criticada desde la filosofía –ejemplo Rorty (1980)-,  la sociología de la ciencia y algunos campos de las ciencias cognitivas. En la década de los noventa, en esta última disciplina, algunos autores se posicionaron en contra, ya que rechazaron el postulado sobre las representaciones mentales como condición necesaria para explicar el funcionamiento de los sistemas cognitivos.  

El ámbito actual de la filosofía de la ciencia  muestra una gran variedad teórica acerca de la concepción de modelos, teniendo en cuenta un carácter formal y práctico que ha veces resulta contradictorio cuando se quiere hacer una aproximación a los modelos como representaciones, sin embargo  este trabajo de investigación  tiene como propósito buscar una aproximación a este  debate, sin tener en cuenta las concepciones acerca del  conocimiento científico, sólo la categoría de cómo se conciben las representaciones.

 

Posiciones de Hacking y Woolgar 

               Las propuestas planteadas desde ámbitos como la filosofía de la ciencia y de la sociología de la ciencia acerca de las representaciones, permite una fundamentación del tema, abordando sus concepciones y soluciones, es claro que se ubican en  maneras diferentes de abordar el conocimiento científico, pero nos dan elementos de análisis para abordar el tema la temática propuesta.

En la década de los años ochenta Hacking publica su libro “Representar e intervenir”, en el que propone un cambio en el enfoque de la filosofía de la ciencia. La primera tarea del ser humano consiste en la representación, la cual permite construir la realidad más no pretende decir como son los objetos. En la tarea representacional surge la similitud mundo- objeto, que se relaciona con las prácticas de representación indirectamente. En la física no existe una verdad única sino una variedad de representaciones que dan cuenta de cómo es el mundo. Sin embargo, es necesario hacer referencia a los experimentos y la tecnología, y en eso se centra la propuesta de Hacking[2]. Él  señala que hay que pasar de la verdad y  de la representación a la experimentación y manipulación: “siempre hay pugna entre el realismo y el  antirealismo tratando de probar, que hay algo en la naturaleza de la representación que vencerá el otro, quedando por lo tanto inconclusa esta discusión” (Hacking 1992:173)[3]. La experimentación debe recobrar su sitio central en el campo de la ciencia y de la filosofía de la ciencia, pues ante todo ésta ha sido una filosofía de las teorías. El concepto de observación también está cargado de teoría y esto ha hecho que este término se considere esencial en la práctica científica,  

La observación, en el sentido filosófico de producir y registrar datos, es sólo un aspecto del trabajo experimental. Es en otro sentido que el experimentador debe ser un buen observador-sensible y alerta. Sólo un buen observador puede llevar a cabo un experimento, detectar los problemas que impiden el desarrollo del experimento, modificarlo de la manera adecuada, distinguir si algo fuera de lo común es una clave de la naturaleza o si es un artefacto de la máquina (Hacking 1992:173). 

Existe una triple relación entre los modelos, la especulación, el cálculo y las aproximaciones, en la concepción de una teoría científica. Por un lado, la especulación es la “representación intelectual de algo de interés, un juego de reestructuración de las ideas que nos lleva por lo menos a un entendimiento cualitativo de alguna característica general del mismo” (Hacking 1992:242) que se puede expresar en modelos físicos o estructuras matemáticas enlazados en una dinámica permanente a lo largo de la historia de la física. La especulación y el experimento están articulados por el cálculo, esto permite una unión cuantitativa entre la teoría y la observación. En este puente hay una dinámica asociada a la construcción de modelos. 

El concepto de modelo ha tenido diferentes connotaciones. Su definición ha pasado desde la idea de artefactos físicos constituidos  por  elementos básicos hasta el concepto en la ciencia física como  algo que está en la mente y no es un objeto como tal, “hay una mezcla entre lo pictórico y lo matemático(Hacking 1980:245) que se pueden usar indistintamente para diferentes problemas. El modelo es lo que permite  la conjunción entre las teorías y los fenómenos;  pero las relaciones entre estos no es simple, ya que nada parece acercarnos a la verdad, “las relaciones de los modelos con la teoría y con los fenómenos son variadas y complejas” ( Hacking 1992:247). 

Los fenómenos son creados por los científicos en la realización de los experimentos y después cobran lugar dentro de las teorías, es decir, “los  humanos hacen las llaves, y tal vez también las cerraduras en las que se dan vuelta” (Hacking 1992:257). Experimentar se convierte en una tarea compleja, ya que implica “(...) crear, producir, refinar y estabilizar fenómenos” (Hacking 1992:259)[4], donde la habilidad del experimentador juega un papel preponderante, pues no es suficiente con la toma de datos sino que es importante saber cuando funciona el experimento. Esto último trae como consecuencia que no es posible repetir una práctica, puesto que las condiciones técnicas cambian y se trata siempre de mejorarlo, más no de repetirlo.  

La experimentación es la que permite dar cuenta de la realidad y da paso a que el científico sea un realista. Las entidades “(...) son herramientas, instrumentos para hacer y no para pensar” (Hacking 1992:291), de ahí la importancia del trabajo experimental, por eso el realismo acerca de las entidades está centrado en el quehacer “las entidades teóricas que no terminan siendo manipuladas terminan, por lo general, siendo tremendos errores” (Hacking 1992:304), cuando un científico manipula una entidad tiene la convicción de que su existencia  es tan real  como la de un objeto macroscópico. Según Hacking, la obsesión con las representaciones ha conllevado a una imagen donde el pensamiento y la teoría dan cuenta de la realidad. En ésta última, las observaciones y la manipulación de un ente en los experimentos deben ocupar su lugar. 

Se busca la realidad alojada en el lugar científico -la práctica-, pues solo tiene sentido sí ésta es manipulada en un laboratorio, en donde la representación no tendría un lugar predominante, sino que sería desplazada por la experimentación, la manipulación y todas las tareas que impliquen el trabajo experimental[5]

Las prácticas científicas se constituyen en  el mejor apoyo con que cuenta para dar la realidad, dejando de lado los procesos de representación y la elaboración de teorías. A pesar de que esta demanda se ha presentado en el contexto de la ciencia, se pretende quitar el lugar de preponderancia al tema representacional mantenido al interior de esta. 

Suárez (2003b: 261-284), ubica la obra de  Hacking en la línea de  los defensores del nuevo experimentalismo, ya que da preponderancia al papel de la práctica experimental,  y al conocimiento fenomenológico del mundo, independiente del conocimiento teórico. La mayoría de los experimentos no están  previstos para verificar  teorías  sino para establecer enunciados fenomenológicos, y modelos de los fenómenos.  El papel  de los experimentos en la ciencia no se reduce  a la verificación  empírica de una teoría, sino que ha promulgado  “los experimentos tienen vida propia”[6], ya que se constituyen en modelos  de los fenómenos.

            La noción de manipulación experimental, qué Hacking profesa, no parece  tener  éxito en su tarea de reemplazar el realismo de la  representación. En  un primer momento, encaja bien sólo en aquellas actividades científicas  que permiten la experimentación,  así que no es particularmente conveniente para las ciencias sociales, para las cuales el trabajo científico es relevante, pero no es considerada de la misma naturaleza de las ciencias experimentales.  En el caso del trabajo científico, en áreas en  que la producción intelectual es la tarea principal, la existencia de  entidades denominadas teóricas es problemática, pues, según el planteamiento de Hacking,  el argumento de experimental no pueden aplicarse a la  manipulación de estas entidades en otras áreas del conocimiento, de la misma manera que se hace  en las ciencias naturales. Un ejemplo de esto está dado en  los problemas de la economía. Aparte de la dificultad de dirigir los experimentos en este campo, los conceptos de  lo experimental y la  manipulación son confusos,  pues  las entidades  teóricas de la economía (como “el consumidor” o “la empresa”)  no son fáciles de entender, para las áreas diferentes a esta. Los esfuerzos por evitar o renunciar a la representación hacen que el  trabajo en las ciencias experimentales se de al nivel de las declaraciones. Pues, cuando se comienza a visualizar en cómo el científico interviene, según la expresión de Hacking, existe el compromiso con  procesos complejos que involucran artefactos especializados que graban, trazan, visualizan, etc. Hacking concede importancia a los instrumentos científicos, puesto estos permiten materializar los saberes teóricos y prácticos de los científicos que estos pueden materializar  en los debates, pues se pide volcar la mirada más a la observación científica en tanto acción y menos a los resultados experimentales, ya que éstas están más cargadas de técnica y de intervenciones humanas previas que de teoría.  

Otros que centraron la atención sobre el tema  representacional han sido  los sociólogos, entre los que se encuentra Woolgar (1979), quien afirma que el acercamiento sociológico a un problema particular debe hacerse en  términos de su relatividad social, lo cual permitirá indagar sobre la fuente, el alcance y las características  de las variaciones. Éstas están asociadas a la diferencia en la clase social, la filiación religiosa, la sociedad, la cultura, entre otras variables.             

Esta aproximación al tema de las representaciones científicas tiene matices diferentes. Los sociólogos de tipo etnometodológico se han esforzado por indagar cómo se producen los hechos en el trabajo científico. Construyen  historias de laboratorio donde describen  “realmente” lo que ocurre  en la práctica científica. Esto no sólo llevó a las discusiones del problema de reflexividad Woolgar  (1991) sino también a estudios  en cómo las representaciones se construyen con  la ayuda de medios diversos y procedimientos (Lynch 1985), cómo ellos funcionan como “los lugares activos” (Amann y Knorr Cetina 1990) y cómo  guían las diversas actividades (Latour 1990).  

Los puntos de vista del estudio sociológico de la ciencia consisten en “(...) aceptar que la ciencia y la no ciencia no pueden distinguirse mediante reglas de decisión” (Woolgar 1991) y que el conocimiento científico es el resultado de intrincados procesos sociales. Las reglas de decisión actúan post hoc de la práctica científica y permiten dar una mirada retrospectiva sobre la acción científica. Algunos de los representantes de esta línea consideran  estas reglas como elementos determinantes del quehacer científico y la existencia de  factores sociales agregados que dan elementos de juicio en la explicación de la evolución de la ciencia. 

Históricamente, el carácter de la ciencia ha estado en cambio continuo. Tanto la respuesta filosófica como la histórica han mostrado variaciones en las apreciaciones y esto se puede  explicar desde dos posiciones denominadas esencialismo y nominalismo. El argumento esencialista considera que existe algo ‘ahí fuera” llamado ciencia, cuya naturaleza es cambiante y compleja. Por su parte, la propuesta nominalista frente al problema de la demarcación de las características de la ciencia surge de las prácticas de definición de los participantes y, ésta siempre se encuentra abierta a la reclasificación y a la renegociación. Por lo tanto, no existen ni la ciencia ni el método científico, pues estos se deben a diferentes prácticas  y comportamientos. 

La tarea que se propone Woolgar es caracterizar la posición esencialista -la idea de que los objetos existen independiente de la percepción que se tenga de ellos- desde la representación -que es el medio por el cual se generan imágenes de un objeto situado ‘ahí afuera’-  y presentar  argumentos para resistirse a esta posición.   

La supuesta distinción entre  representación y objeto conlleva a un dualismo, que pretende buscar características que se encuentran fuera de los límites de las actividades de la ciencia.  Frente a esto se formulan preguntas base, entre las que se encuentran  “¿cómo podemos estar  seguros que el lado izquierdo (representación) es un verdadero y apropiado reflejo del derecho (objeto)?” o, de tipo metodológico, “¿qué fundamento  garantiza la relación existente entre los objetos de estudio  y las afirmaciones hechas sobre tales objetos?” (Woolgar 1991:47). 

El problema de la adecuación entre representación y objeto se puede presentar en la forma de desastre metodológico, que consiste en la indexabilidad, la interminabilidad y la reflexividad. En primera instancia, la indexabilidad hace referencia a las realidades que subyacen a las representaciones, que son cambiantes en función del uso. Como consecuencia de esto, frente al intento de lograr una representación,  aparecen distintas versiones que no permiten tener certeza de lo que se está representando. A su vez se encuentra la interminabilidad, que sustenta el significado de cualquier representación de manera infinita. Por lo tanto, es imposible una explicación suficiente del significado de una representación. Por último está la reflexividad, que abandera la idea de que la conexión entre el objeto y la representación es en doble dirección, es decir, que el uno apoya al otro. 

Como solución al problema del desastre metodológico, que aparece en todo acto interpretativo, se han planteado cuatro estrategias (Woolgar 1991: 48):  

  1. Apelar a una jerarquía de conocimientos: Ésta consiste en negar la generalidad del problema, buscando estatus en las situaciones, siendo la ciencia la de mayor fiabilidad. Esto incurre en una petición de principio. La tarea del estudio social de la ciencia es indagar que características de esta última le dan esa superioridad.
  1. Interpretar el problema como una simple dificultad técnica: Los problemas metodológicos se tratan como si fueran dificultades técnicas, que aparecen esporádicamente debido al uso de procedimientos de representación defectuosos. Sin embargo, el problema permanece ahí.
  1. Negar la importancia del problema: El mismo problema es artificial y engañoso, pues no pasa de ser un ejercicio filosófico artificial. Para las personas, los desastres metodológicos  no son importantes, entonces para qué estudiar sus acciones  cuando no son conscientes de ellos. Sin embargo, los argumentos si resultan válidos cuando se pretende  aclarar controversias y se apela al relativismo como solución a éstas.
  1. Interpretar el problema como algo ajeno: Los desastres metodológicos aparecen en el trabajo de los demás, pero el propio es ajeno a ellos. Esta estrategia se usa en las ciencias sociales para abordar los análisis que tienen algún tipo de relativismo, en cuanto permite abordarlos en la investigación.

 

El estudio social de la ciencia debe enfrentarse a la idea de la representación y presenta dos modos para abordarla. El primero corresponde a la inversión. Según éste, los objetos descubiertos se constituyen a través de su descubrimiento y critica la conexión unidireccional entre la representación y, el objeto o la idea de que los dos objetos son distintos. El otro es la retroalimentación, que resalta las conexiones bidireccionales entre el objeto y el intento de llevar a cabo un estudio de la ciencia. De ese modo la ciencia no es una materia de estudio distinta ni separada de los investigadores. 

Con estas dos ideas expuestas por Woolgar se espera “abrir la caja negra” de la ciencia, asumiendo que las representaciones se construyen con la ayuda de medios diversos y procedimientos y, que se debe unir esfuerzos por escapar de las representaciones científicas como única opción de abordar el trabajo científico.                                                     

Los etnometodologos lograron el éxito haciendo el trabajo científico material y  visible. Sin embargo,  este  aspecto “antropológico de la observación”  contribuye a lograr un entendimiento muy superficial de los métodos de diferentes disciplinas. Analizaron diferentes  experimentos realizados a lo largo de la historia de la ciencia, algunos más conocidos que otros, unos fructificaron y otros se abandonaron en el camino; desde los fallos en los experimentos de Pasteur hasta el reciente escándalo de la “fusión fría”, pasando por  experimentos que sirvieron para “demostrar” la teoría de la relatividad, por el estudio de la vida sexual de las lagartijas de cola de látigo o por la investigación sobre los neutrinos solares. Ellos han“(…) descrito no sólo los trabajos de los científicos más venerados, los Einstein, Newtons y Pasteurs, sino también los de otros que no merecerán, al parecer aclamación: los grandes flujos de ondas gravitatorias de Joseph Weber y la transferencia de memoria de Ungar y McConnell” (Collins 1986).           

En lugar de evadir la pregunta de representación, estudiosos en el campo de la ciencia y tecnología han intentado abordarlo de frente. Inspirados por la  etnometodología  han ido  “al campo” a observar que hacen los científicos “realmente” para representar. Se han dedicado al estudio de  deconstruir la representación científica en la compleja fabricación de los procesos, haciendo uso  de “los documentos “o “las inscripciones”. Los resultados de los experimentos se recogen en una hoja de cifras, que el ordenador transforma en hoja de datos y produce una sola curva, con sus picos y senos determinantes, que servirán de soporte para el  posterior artículo. Las inscripciones de los sofisticados aparatos están en relación directa con la sustancia original del experimento; las transforman en un documento escrito. Esto da la impresión de un derroche de recursos económicos para la producción de una hoja escrita. Los científicos manejan un enorme volumen de material desordenado que deben ordenar para  darle sentido al estado caótico del conocimiento como consecuencia de las informaciones sesgadas de su descubrimiento o, incluso, del ocultamiento de la información. 

 Las representaciones se vuelven elementos que deben ser estudiadas. En este caso, en lugar de preguntar por  el significado, se aborda la representación, examinando  “los documentos representativos”, donde  los estudios son realizados por los participantes. Lo que sigue de este acercamiento es que en los procesos de construcción de las representaciones científicas los estudiosos siguen  “la línea de la asamblea” y consideran que los hechos de la actividad científica contemporánea no solo suceden en los laboratorios, sino que suceden en las controversias científicas y en la forma que éstas finalizan. Se pasa de analizar los problemas de laboratorio a los problemas en las controversias científicas.  

A menudo el objetivo de la representación es moldear el objeto científico, haciendo  uso de diferentes dispositivos textuales, para que asuma una forma matemática que le permita ser descrito fácilmente. La representación científica enfrenta en estos estudios  un proceso  circular, poniendo en un orden los rastros fotográficos, los diagramas, las grabaciones, los mapas y las entrevistas. A esto Collins denomina la circularidad del experimentador” Esto implica que la competencia de los experimentadores y la integridad de los resultados únicamente pueden ser inferidos inspeccionando los resultados. No obstante, estos últimos, si son apropiados, sólo pueden ser conocidos mediante el desarrollo de un experimento competente. Por lo que concluye que la réplica no podrá por sí sola fundamentar la veracidad de una teoría y siempre será inevitable un añadido no rigurosamente técnico. Un resultado experimental no basta por sí sólo para que la comunidad científica crea una cierta aserción. Para Latour (2001: 149),  la ciencia, la comunidad  científica  y los resultados experimentales son  afectados y modificados por los experimentos, estos traspasan la frontera del todo o nada. Un experimento no puede  situarse exclusivamente en el laboratorio,  en la literatura científica o en el  debate entre científicos. Un experimento se constituye en  una historia unida a un evento, es un acontecimiento, es un texto que describe un evento  no textual, un texto que es analizado y discutido, si al final tiene éxito, traspasa la connotación de texto y se convierte en un experimento.  

El problema  epistemológico acerca de la relación de las representaciones científicas con la realidad se debe al olvido de las relaciones del extenso material obtenido con  los procesos sociales, detrás de las representaciones acabadas[7]. A pesar de que existen múltiples formas de interpretación, éstas están limitadas mediante mecanismos sociales, retóricos, institucionales, entre otros,  con la finalidad de deconstruir la idea de representación en cada caso en particular. Las explicaciones sociales del conocimiento científico son prioritarias al papel que desempeñan la lógica y la evidencia empírica. En concreto, se trata de describir el proceso de construcción de los hechos y explicarlo sociológicamente. “El contenido científico debe explicarse tanto como sea posible mediante el supuesto de que son los factores sociales, no los respectivos considerados técnicos, los que permite su generación y validación” (Lamo de Espinosa y otros 1994:548). La tensión de abordar el proceso en como los científicos hacen para representar, no permite ahondar sobre lo que posiblemente hacen las actividades representantes. Así, la representación y lo representado surgen, y se unen en el mismo proceso material del trabajo científico. Parece que estos estudios plantean un doble juego. Proceden en algunos casos como si  excluyeran cualquier consideración  de la epistemología de la representación y mostraran interés en las prácticas representativas a través de considerarlas un fenómeno social. 

Hay algo contradictorio, según  mi punto de vista,  sobre esta manera de proceder. Primero, se hace un esfuerzo al deconstruir la noción de representación a través de estudios de casos prácticos. En segundo lugar, se  desafía a los filósofos, pues los sociólogos  tomaron la delantera frente al problema de  la representación, pero hay una dificultad, pues en  lugar de ir ahondando en  la noción de representación, lo que hacen es mostrar en  que va realmente la representación científica, buscando ampliar su concepto. Entonces, surge  la pregunta  ¿realmente los etnometodologos y otros estudiosos de CTS están confiando en una noción bastante tradicional de representación, la misma noción de la que ellos partieron para  su discusión? Creo que sí,  pues realmente no hay argumentos para demostrar lo contrario. Latour (2001: 34), por ejemplo, propone  abandonar el modelo de núcleo/ contenido , para estructurar un esquema de cinco bucles ( instrumentos, colegas, aliados, público y los vínculos o nudos) que permitirán hacer una representación realista de la ciencia. Los vínculos y nudos ocupan los puntos de intersección entre los cuatro bucles restantes, estos servirán de referente conceptual pues permite conectarlos. La transformación en cada etapa de referencia  puede representarse como un intercambio entre lo que se gana (amplificación) y lo que se pierde (reducción) en cada uno de los pasos en los que se generan información. 

Frente a este panorama de la deconstrucción de las representaciones científicas,  se recoge  de los sociólogos que la ciencia es una actividad científica. La construcción de los hechos es “totalmente social” y esto queda implícito en el quehacer científico. De Hacking, se retoma la aproximación a una comprensión adecuada de las prácticas científicas y la ciencia entendida en su propio hacer,  lo que los científicos van haciendo entre sí y  con otros; construyendo en medio de objetos no humanos, situaciones históricas particulares,  diseños de técnicas y formas de comunicación. 

Los acuerdos colectivos,  permiten consensos estructurales  que se constituyen a partir de los discursos, los valores y las prácticas sociales que circulan en una sociedad.  Actúan como reguladores de conductas por adhesión o rechazo. Se trata de algo cambiante, móvil, impreciso y contundente a la vez. Produce materialidad, es decir, produce efectos concretos sobre los sujetos y su vida de relación, así como sobre las realizaciones humanas en general. Esto conlleva a que las prácticas sociales son determinantes, ya que permite que la información sea creada y transformada. 

 De las anteriores propuestas conviene resaltar que mantienen un punto en común: la señalización de los espacios de laboratorio y de la experimentación como lugares de grandes posibilidades para la construcción de un conocimiento más crítico con relación a la ciencia y con la sociedad.

 

 Naturaleza de las  Representaciones Científicas  

La tendencia desde los años ochenta frente a las representaciones ha sido tema de debate entre los realistas- quienes consideran que éstas son las que dan cuenta de la realidad- y los antirrealistas- para los cuales lo más importante es la posibilidad de predecir y producir sucesos-. Esto parece ser una discusión sin ganadores inminentes y esta diferencia seguirá contribuyendo al debate en filosofía de la ciencia.

 

Esta parte de la investigación hace énfasis en el acercamiento al concepto de las representaciones desde la óptica actual. Sí bien se puede dar una aproximación histórica, la revisión de las propuestas actuales conlleva a hacer un análisis sobre la naturaleza de las representaciones científicas y su papel en la filosofía de la ciencia y en las prácticas científicas. 

            La idea de abandonar estudios de casos y tratar de orientarse hacia una teoría de la representación ha sido asumida por  Ibarra y Mormann (1997), le apuestan a la noción de la representación, tomando como base la idea que la ciencia parte de la representación de objetos por medio de modelos, existiendo una “relación preservadora de estructuras”, cuyo significado está mediado por la intencionalidad del agente que la realiza. Proponen que la idea del carácter representacional  de la ciencia está en relación directa con las principales formas “identificables en las prácticas representacionales de la ciencia” (Ibarra y Mormann 2001: 4), que se pueden clasificar como:

 

1. La representación como isomorfía,

2. La representación como sustitución,

3. La representación como homomorfía,

4. La representación como homología.

 

El primer tipo de representación, como isomorfía, se caracteriza por la necesidad de que exista una semejanza entre los dos objetos de la representación. En este momento no desempeña ningún papel importante en la práctica científica y se menciona sólo porque la clasificación quede completa. Copias de mapas, planos y gráficas son ejemplos clásicos de este tipo de representación. 

Históricamente, frente a la  representación como sustitución, se puede nombrar a Aristóteles como gestor de esta postura, quién toma lo semejante a algo, no como semejante, sino como aquello a lo que se asemeja. Esta concepción ha sufrido cambios, como lo fue en la Edad Media, en donde se asumió como medio para acceder al conocimiento y no el fin. Se presenta en términos de ejemplos, como en el caso del embajador de un país que puede representarlo en una conferencia; un abogado que representa a su cliente o el papel del apoderado de un menor. Los números y otras magnitudes matemáticas  funcionan como sustitutos vicariales de entidades empíricas de diverso tipo” (Ibarra y Mormann 2001: 6). Por su parte, la representación como homomorfía corresponde a la concepción de la representación “como aplicación preservadora de estructura”, entendidas como representaciones que conservan las formas. Por último, la representación como homología se caracteriza como aquel tipo de representación que no depende ni de la semejanza objetual ni de la estructural, sino aquellas que conservan la lógica.  Esta concepción se introduce a partir de una idea de Hertz.  Los autores pretenden mostrar que las representaciones científicas no son generalmente de tipo homomórfico, es decir, del tipo de representación que, según ellos, ha sido el más estudiado en la filosofía de la ciencia, sino de tipo homológico, en estos se contaran procesos que confían en complejos procesos que pueden  ser estadístico-computacionales.

 

La idea de la representación como homología puede derivarse de  la descripción que hace Hertz de la actividad científica como la producción de una simetría entre “las consecuencias naturalmente necesarias” y “las consecuencias intelectualmente necesarias” de sus representaciones. Esta simetría se ilustra en el siguiente diagrama:

 

                                                                                                                 


La idea de los autores es la siguiente: 

 

La parte izquierda del diagrama, A −→ A puede interpretarse como un proceso empírico en el que se pasa del estado A al estado A a través de tA. Este paso  se representaría por un proceso teórico consistente en el paso de B a B por tB, tal que tB es una relación lógica [. . . ] entre B y B que corresponde a la relación tA “naturalmente necesaria” en el sentido que el diagrama conmuta (Ibarra y Mormann 2001: 30)

 

Otro aspecto relevante es que, en la ciencia, todas las representaciones forman una compleja red representacional que está constituida por diversos tipos de combinaciones. Por ejemplo, un objeto o proceso puede generar diferentes representaciones o una representación puede valer para diferentes objetos, procesos o representaciones. Esta estructura reticular de las representaciones se podría capturar por medio de la estructura combinatoria- asociativa- de los diagramas. 

Usando estos supuestos no les es difícil mostrar que la teoría matemática de las categorías es, de hecho, una teoría de la combinación de representaciones posibles. Una vez que este punto ha sido establecido,  pasan a mostrar la significación epistemológica de la teoría de categorías, que es concebida como una teoría combinatoria general de las representaciones. 

La búsqueda de una teoría de la representación es  lograr “la identidad característica de una teoría”.  

(…) no reside en la base empírica dada ni en los conceptos que fijan su marco conceptual, sino en el espacio inducido, por así decir, por la relación de representación, esto es, en el encaje estructural concebido no referencialmente como singularización de los modelos estándar de la teoría, por ejemplo, sino en su sentido más estrictamente funcional, como aplicación preservadora de estructuras, y extensible a una variedad de marcos teóricos posibles en los que fija su significación (Ibarra y Mormann 1997: 10). 

La tesis de que hay una teoría filosófica general de las representaciones que “capta las propiedades esenciales de las representaciones” mejor que otras propuestas parte del supuesto, ciertamente controversial, de que existen tales propiedades esenciales de las representaciones. Toda una serie de investigaciones en estudios sobre la ciencia sugiere que no hay tal teoría general de la representación, y que la  única manera fructífera de estudiar el tema de la representación es a través de un estudio de casos y de propuestas de clasificación de diferentes tipos de representación que puedan servir para entender mejor como crece el conocimiento. Esto no le quita interés filosófico al tema de la representación, pero lo sitúa en un espacio de discusión que no es el que los autores proponen. Sigue siendo filosóficamente interesante entender la manera en que determinados tipos de representación están asociados con diferentes tipos de conocimiento. 

La propuesta de Ibarra y Mormann (1997) ha sido criticada por algunos autores  como Martínez, (2001), quien considera que este tipo de enfoque formalista del tema de la representación tiene serias limitaciones. Partiendo de la historia  muestra que no queda claro qué tipo de clasificación están ofreciendo. Pero, según ellos, “se trata de una clasificación motivada por razones esencialmente metodológicas, pero nunca queda claro cuales son esas razones, más bien parece que las motivaciones son metafísicas” (Martínez, 2001: 75-95). 

A un nivel práctico, dado la diversidad de las representaciones que se usan y la complejidad de sus prácticas, parece claro que el concepto general de representación no ayuda mucho a explicar qué tipo de cosa es y como se constituye.  

Por otro lado, Suárez (2003a: 225-244), indica que las fuentes de representaciones científicas pueden ser objetos físicos concretos- sistemas, modelos, diagramas, imágenes o ecuaciones-  para los posibles blancos. Puede haber una gran variedad de medios, ya que la representación hace su trabajo a su modo: el isomorfismo y la similitud son simplemente dos comunes pero, hay otros como la ejemplificación, la convención y la verdad. Además, los medios de representación no son  precisamente transparentes unos respecto a los otros, es decir, ninguna fuente lleva sus medios de representación debajo de la camisa. 

Suárez, se opone a toda propuesta que apunte a una teoría de la representación centrada en el isomorfismo y  la similitud, y frente a esto plantea cinco argumentos.  El primer argumento es la observación empírica simple, pues ni la similitud ni el isomorfismo pueden aplicarse a la variedad de  dispositivos de  representación que se usan en  la práctica de  la ciencia. El segundo argumento es que estos no cumplen  algunas de las propiedades lógicas formales de la representación, como la propiedad simétrica, reflexiva  y la relación transitiva.  El tercer argumento es que  no permiten acercamientos a la falsedad o la representación inexacta. El cuarto el argumento es que no son necesarios para la representación,  ya que fallan en algunos  casos de representación exitosa. El quinto y último argumento es que no suficientes para la representación, puesto que omiten esencialmente la direccionalidad de la  representación.  

La intencionalidad del agente, su competencia  y su capacidad para permitir el razonamiento serán la clave en el proceso de representación. A sólo representa a B si  (i) la  fuerza  representacional de A apunta hacia B, y (ii) A les permite a unos  agentes informados competentes  plantear las inferencias específicas respecto un B. Así, los  modelos se satisfacen por inferencias de sus blancos., pues es factor importante la  actividad intencional de los usuarios de la representación, negando que la relación de representación solo pueda tener en cuenta  las propiedades respectivas del vehículo representativo y su objeto designado.           

La concepción de la representación es  inferencial, por lo tanto  todo tipo de representaciones mantiene una serie de relaciones que tienen un carácter  a producir nuevas representaciones, o a generar acciones permitiendo a  los agentes disponer de nuevos elementos para su interpretación. Zamora (2005:199),  expresa frente a la interpretación inferencialista,  que para entender un significado,  es  primordial presentar  razones con el fin de buscar la  aceptación, de tal manera que se aceptaran  las consecuencias producto de esta. Esto lo autoriza para llevar a cabo determinadas afirmaciones. “Las inferencias no son únicamente internas al lenguaje  de ciertas afirmaciones no se seguirán determinadas acciones y, a sí mismo  algunas afirmaciones no se seguirán de otras, sino más bien de ciertas percepciones”. El carácter inferencial permite abrir caminos a la mediación de los modelos, pues el uso de este presupone la aceptación previa, entendida inferencialmente, así este no puede usarse salvo si se acepta todas las consecuencias que se derivan de este. Es  la capacidad de  los modelos como  generadores de inferencia que les permite usarlos como representaciones. 

Estas son dos aproximaciones de la diversidad de maneras de reconocer la complejidad de las prácticas representacionales. El  propósito de postular  una teoría general de las representaciones que existen en  la ciencia es una tarea compleja que apenas comienza y sobre la cual no hay acuerdos, pues algunos consideran que más que una teoría debería estudiarse el tema de la representación  a través de un estudio de casos y de propuestas de clasificación de diferentes tipos de representación, que puedan servir para entender mejor como surge el conocimiento.

La consideración de un agente como elemento fundamental en la teoría de las representaciones consideradas en este apartado, lleva a que sea este quien tenga la capacidad de generar los medios representacionales (modelos, diagramas, gráficos) que permitirán  lograr  un  acercamiento a lo que se pretende  representar, pues la consecución de información del medio,  la búsqueda de medios representacionales y su comunicación, son las tareas de la actividad científica, un buen acercamiento a ellas,  en última instancia permitirán la generación de conocimiento,  justificando su papel epistemológico[8].    

 

¿Qué representan los Modelos Científicos?  

Mirando la representación desde el ángulo de los modelos científicos, se enfatiza en los métodos, los ingredientes y los dispositivos representativos que se necesitan, por eso se considera valioso revisar las propuestas de Hughes (1997),  Giere (2004), Morrison- Morgan (2004) y Knuuttila Tarja (2005). Los Modelos no sólo funcionan como  herramientas  y generadores de inferencia, sino en derecho propio, como objetos de  investigación.  

            Hughes (1997:325-336)  llama representación a las construcciones teóricas, modelos y la relación entre ellas (…) pero no todas las representaciones sobre el mundo son modelos teóricos”. Plantea tres componentes DDI- designación-demostración-interpretación- que corresponde a diferentes aspectos de la práctica científica. Según Hughes, la representación científica puede ser analizada útilmente como una noción de tres partes, que incluye la designación física del sistema  y sus propiedades por medio de elementos del modelo, incluyendo las ecuaciones, los diagramas, etc;  la demostración de las consecuencias dinámicas del modelo y la interpretación de estas consecuencias.           

La teoría de representación que Hughes defiende tiene los elementos de “la designación” -los elementos del modelo, por ejemplo, denotan los fenómenos- y “la demostración” - usa el modelo para conseguir un resultado- y “la interpretación” - el resultado se interpreta  físicamente-. DDI no proporciona requisitos y condiciones suficientes para cuando una representación tiene lugar; más bien, Hughes está “haciendo una  modesta sugerencia, pues si  examinamos  un modelo teórico con estas tres actividades en la mente, podremos  lograr alguna visión en el tipo de representación que proporciona”. Sin embargo, esto no es considerado por Súarez, quien  afirma que el modelo DDI de Hughes no puede  constituirse en  una teoría general de la representación, ya que la denotación, la demostración y la interpretación son las condiciones necesarias pero no suficientes. “Para Hughes, la representación involucra la demostración esencialmente, y por lo tanto requiere llevar a cabo las inferencias sobre la fuente  por parte de un agente” (Suarez 2004: 767- 780), Esto permite abrir  el debate sobre otros aspectos diferentes a la similitud y al isomorfismo presentes en las teorías de representación. 

            Algunos filósofos de las ciencias han asumido el tema de las representaciones  considerando que los  modelos científicos pueden asumir el papel fundamental de esta, pues estos se han convertido en verdaderos ensambles heterogéneos que con sus diferentes roles permiten aproximarse al conocimiento. A pesar de las diferentes orientaciones filosóficas es posible reconocer en ellos sus posturas acerca de lo que se asume como modelo. 

La propuesta de Giere (1992) sobre  la representación científica ha  contribuido al desarrollo de la ciencia cognoscitiva en las últimas décadas, según los expresa se debe “usar los conceptos y métodos de las ciencias cognitivas para estudiar la propia ciencia” (Giere 2004:742-752). Se parte de que el ser humano, gracias a su evolución, tiene capacidades cognitivas como la percepción, la memoria, el control locomotor, la imaginación y el lenguaje, los cuales le permiten interactuar con el ambiente y, estas mismas capacidades le han permitido al científico además de interactuar, construir la ciencia moderna. Las ciencias cognitivas aportan los recursos más poderosos y prometedores para estudiar la ciencia  como una  empresa cognitiva y a los científicos como agentes cognitivos.  

            El  tema central de la discusión son las representaciones, que “son mapas internos del mundo externo” (Giere 1992:10).  Con mapas internos se refiere a las creencias, modelos y teorías. Caracteriza cada uno de estos medios que permiten las representaciones. El concepto fundamental en la práctica representacional está fundamentado en los modelos. Presentar una teoría es especificar a una familia de estructuras, modelos y, después se debe especificar una cierta parte de esos modelos  como candidatos para la representación directa de los fenómenos. Giere niega que la relación entre el modelo y un sistema real no es principalmente el de la verdad, correspondencia o isomorfismo sino de  similitud. No muestra interés por definir la noción de  similitud, pues,  en su opinión, las ciencias cognoscitivas evidencian que la cognición humana y la percepción operan con base a alguna clase de similitud métrica, los eslabones entre los modelos son más bien las relaciones de  similitud que las conexiones lógicas. Los modelos son objetos abstractos construidos en conformidad con apropiados principios generales y condiciones específicas” (Giere 2004:747).  Poder usar  un modelo para representar algunos aspectos del mundo permite escoger de forma pertinente los rasgos similares. La existencia de las similitudes específicas hace posible el uso del modelo para representar el sistema real de esta manera. Sin embargo, esto no impide a los modelos proporcionar intuiciones profundas y útiles acerca del funcionamiento del mundo natural.  

            La ciencia proporciona modelos de la realidad que poseen varios grados de alcance y precisión. La clase de modelos científicos incluye modelos físicos a escala y representaciones por diagramas, pero los modelos de mayor interés son los modelos teóricos. Estos son objetos abstractos, entidades imaginarias cuya estructura puede ser ó no similar a aspectos y procesos en el mundo real. Los científicos hablan corrientemente de la correspondencia entre sus modelos y el mundo.    

Desarrolla su visión de modelos basado en la mecánica clásica  presentada en los libros de texto avanzados, teniendo en cuenta que los estudios fundacionales sobre los cuáles se ocupan algunos filósofos, no han influido  en la manera como los científicos enseñan, aprenden o entienden la ciencia” (Giere 1992:27).   En los textos se presentan estudios de casos, como el del oscilador armónico que posibilitan la interpretación y la identificación.  

Por ejemplo, en la fórmula F = -kx, podemos interpretar x, como el desplazamiento de una partícula respecto de su posición de reposo. Al aplicar la fórmula al estudio de una cierta masa unida a un resorte, identificamos x como el desplazamiento de esta masa en particular respecto a su posición de equilibrio (Giere 1992:90). 

Así,  el “oscilador lineal” no es un  solo modelo con  versiones específicas diferentes sino un racimo de modelos de variantes grados de especificidad. Encuentra como norma en los libros de texto “una población de modelos que consisten en familias relacionadas de modelos” (Giere 1992:104). Los modelos como  tales no se constituyen en verdad o falsedad  respecto a el mundo; el papel de la teoría es más bien exigir un “el ataque bueno entre los modelos y algunos tipos importantes de sistemas reales (Giere 1992:107). Por consiguiente,  sugiere que una teoría comprende  dos elementos: (1) una población de modelos, y (2) varias hipótesis que  unen aquéllos modelos con los sistemas en el mundo real. Como una consecuencia para un científico la teoría no resulta ser una entidad bien definida. Nada en  la estructura de cualquier modelo  podría determinar si pertenece a una familia dada de modelos o no. El juez es la comunidad científica quien determina si el parecido es suficiente. Esto permite plantear la relación triádica donde las decisiones por parte de los científicos permiten aceptar los modelos como las mejores representaciones de la realidad. “Los científicos son agentes intencionales con metas y propósitos específicos” (Giere 2004:743), los términos de la representación estarían dados por la forma S usa X para representar W para propósitos P (Giere 2004:743), donde S puede ser un científico individual, un grupo de científicos o una comunidad científica, W es un aspecto del mundo real y X son los modelos[9].  

            La idea de que los modelos son entidades abstractas corresponde con la idea de “los modelos mentales”, propuesta en la ciencia cognoscitiva algunos hace años. Pero, también persiste la idea de que  los modelos deben ser cosas materialmente existentes de alguna clase,  ellos   funcionan como las herramientas centrales de la ciencia y median entre las personas y otros artefactos. En esta concepción se enmarca lo expuesto por  Morrison y Morgan, quienes proponen que se debe investigar los modelos usados en la ciencia para entender el tipo de entidades, qué son y cómo funcionan. Atribuyen la importancia de los modelos a los procesos de construcción y a la manipulación en lugar de enfocarse unilateralmente en la representación. Enfatizan en que se aprenden de los modelos construyéndolos y manipulándolos, por lo tanto, son algo más concreto que una simple idea conceptual. Estos son, en parte, los mediadores independientes entre la teoría y los datos. Por ejemplo,  para hacer una economía matemática, el economista no solo necesita del  lenguaje, de los términos ó las fórmulas matemáticas, sino además imaginar un mundo matemáticamente descrito, dentro del cual sus ideas económicas puedan expresarse. La economía confió en los procesos de imaginación e imagen que hicieron los matemáticos, pero la matematización de la economía permitió concebir un cambio en cómo los economistas entienden y perciben los fenómenos económicos. 

            El acto de representación  involucra la visualización directa del mundo económico en los símbolos matemáticos y otros formularios de designación  no-verbal para  crear un nuevo mundo en el modelo. Llegar a la versión recientemente hecha del mundo económico requiere la imaginación sobre cómo representar el mundo y hacer una imagen de él en un modelo. Es por eso que la representación se vuelve un complicado proceso productivo e interpretativo. 

            Siguiendo la misma línea de trabajo se encuentra la propuesta de Knuuttila (2005), quién plantea la concepción de  modelos como artefactos epistémicos, lo cual se resume en los siguientes puntos: i)  los modelos son artefactos humanos,  que se usan para actuar recíprocamente con el  mundo en lugar de usarse para  representarlo;  ii) más que construcciones teóricas abstractas, se conciben como entidades que se materializan en algunos medios de comunicación; iii) el valor epistémico de los modelos sobrepasa pretenciosamente de su dimensión material y explica el porqué los modelos tienen otras funciones epistémicas además de  la  representar el mundo;  iv) la función  representacional de los modelos no debe aproximarse a términos representacionalistas comunes, y  v)   la representación  es la  actividad que cuenta tanto con el  medio específico de la señal-vehículo material y el proceso intencional de relacionar la señal-vehículo a su objeto, denominándose el pragmatismo triádico.  

            El acercamiento a los modelos debe hacerse desde su valor productivo donde su quehacer y posibilidad de experimentación  le  dan un valor epistémico. El uso  y los puntos de vista productivos le permiten acercarse a  lo que  podría llamarse representación, pero se hace necesario superar ese concepto hacia una función no representacionalista.  

            La concepción  semántica de  las teorías científicas expresa que los modelos semánticos o meta-matemáticos de la teoría proporcionan los elementos suficientes para abordar la relación entre modelos y el mundo, ya sea a través de predicados teóricos, uso del lenguaje matemático ó las ciencias de la comunicación. Sin embargo, no hay un consenso frente a la concepción de modelos. Se encuentran posiciones en las cuales los modelos son asumidos como abstracciones de la teoría o clase de modelos (las diferentes proposiciones, las frases, etc.) que nos indican una concepción de la realidad o aspectos de esta.  Los modelos están  en el mundo en algún sentido y sobre estos se obtienen rendimientos epistemológicos distintos, pues se acude a instancias de isomorfismo  entre la teoría y el mundo. Ciertamente es correcto decir que planean representar el mundo, que son entidades representativas.

 

Cómo utilizan los científicos los modelos? 

El hecho significativo de la representación científica tiene sus cimientos en la práctica de los científicos por eso se hace necesario entrar en sus propias concepciones filosóficas acerca de los modelos como representación. Retomando a Knuuttila (2005), el valor epistémico de los modelos  toma relevancia  partir de su valor productivo en  el quehacer y la  experimentación. La práctica, uso y producción  les permite acercarse a  lo que se podría llamar representación. La filosofía de la ciencia  propone una discusión acerca de la formulación de los modelos en la práctica científica pero se hace necesario preguntarse cómo estas diversas propuestas  funcionan en la ciencia, y es cuando es interesante adentrarse en el discurso  científico para comparar como ellos conciben  los modelos en su práctica.              

            Este referente es interesante en la medida que permite visualizar el camino trazado por los hombres de ciencia en la  materialización de sus propuestas de modelos. 

De Gennes  Pierre-Gilles, Premio Nobel de Física en 1991, mostró cómo pueden usarse analogías simples para entender sistemas complejos como  los cristales líquidos y polímeros. Estos materiales son al mismo tiempo sólidos y líquidos. Él explicó las propiedades de los materiales  sobre las transiciones de fase orden-desorden en sistemas más simples. De Gennes descubrió que aunque las transiciones de  fase en materiales diferentes dan lugar a  fenómenos extensamente diferentes, estos son gobernados por parámetros diferentes, como temperatura, la concentración, campo magnético o eléctrico, que  pueden describirse de una manera muy general. Si la estructura es un cristal líquido, ferromagnético, superconductor o polímero, pueden identificarse rasgos universales y pueden ser explicados por leyes de escala simple. “¿Qué queremos decir nosotros por materia suave? Los americanos prefieren llamarlo “fluido complejo” .Aunque parezca  un nombre bastante extraño y poco atractivo trae consigo dos rasgos mayores:  

i) la Complejidad.  Podemos decir que la biología moderna, ha procedido desde el estudio de modelos simples (bacterias) a organismos multicelulares complejos (plantas, invertebrado, los vertebrados...). Semejante a  la explosión de física atómica en el primero la mitad de este siglo, uno de los aspectos superados es la materia suave, basada en los polímeros,  cristales líquidos y  granos coloidales.  

ii) la flexibilidad. Explica esto a través de un experimento del polímero temprano,  este es el hecho  conocido  por los indios del Amazonas: ellos recogen la savia del árbol del hevea, lo ponen  en su pie, lo dejan secar durante un tiempo corto y luego tienen una bota. Desde un punto de vista microscópico, la explicación de este hecho, es la estructura en cadenas de polímeros independientes, flexibles. El oxígeno del aire une los  puentes entre las cadenas, y esto conlleva a un espectacular  cambio: se cambia de líquido a una estructura de la red que puede resistir  tensión - lo que nosotros llamamos un caucho  (en francés: el caoutchouc, una trascripción directa de la palabra nativa). Lo que está mostrando  este experimento, es el  hecho que una acción  química  ha inducido un cambio drástico en  las propiedades mecánicas: un rasgo típico de la materia suave[10]

             El valor epistémico del modelo planteado está en la  intencionalidad del científico pues no basta solo con el modelo teórico y el modelo empírico y la coherencia entre ellos sino que entra en juego la inferencia  a buscar una explicación que permita abordar el hecho que se estudia, su extensiva aplicación a otros campos y la generación de nuevas explicaciones permiten entender su valor dentro del campo científico 

            Según Prigogine (1977), desde el campo de la ciencia, la idea de las leyes de la naturaleza ha perneado el concepto de la ciencia occidental,  tanto así que se justifica desde un carácter finalista, pareciera que la naturaleza está obligada a cumplir ciertas reglas”. Esto último conllevo al desarrollo de la ciencia moderna, pues las explicaciones estaban dadas en relación con las leyes de la naturaleza. Según lo expresa Poincaré,  al hacer referencia al éxito de la teoría cinética, los modelos se formulan a partir de las leyes, se constituyen en los pilares de la explicación y, en algunos casos, permiten formular teorías. “Tal vez sea la teoría cinética de los gases la que se desarrollará y servirá de modelo a las otras…La ley física cobraría entonces un aspecto totalmente nuevo… poseería el carácter de una ley estadística” (citado por Prigogine 1977:31). Las preguntas sobre la utilidad del estado representacional llevan a un pragmatismo y sirven de ayuda  pragmática al reconocimiento de una relación  representacional, que es constituido por otro. 

Cuando se usan modelos se buscan ámbitos de explicaciones posibles, que estarían dadas por las propiedades del modelo, es un “modo de presentar las estructuras que posiblemente tengan las materias” (Hanson 1997). El premio Nobel de Física del año 1997, Anderson, Philip, expresó en la ceremonia en Estocolmo que  

El arte de la construcción de modelos  es la exclusión de partes reales pero insignificantes del problema…la construcción de modelos comporta peligros para el constructor y para el lector, el constructor puede pasar por alto algo que sea realmente de importancia, mientras que el lector producto de una computación realmente precisa puede tomar literalmente un modelo esquemático, cuya meta  principal sea  la demostración de una posibilidad (citado por Judson 1984:48 ).  

              En la teoría de Anderson, físico del estado sólido de los Laboratorios Telefónicos Bell, el modelo se expresa como un conjunto de ecuaciones, apenas una página de relaciones simbolizadas. Galison (2004) intenta mostrar como Einstein y Poincaré  buscan especies de modelos útiles para su trabajo a través de los relojes y de los mapas respectivamente. La formulación de modelos es, por tanto, indispensable en el trabajo científico. Los tipos de modelos pueden variar de ser un conjunto de ecuaciones a un mapa o, un conjunto de relojes pueden pasar a ser mecanismos más complejos, donde está presente todo el proceso creativo de sus creadores.  

              El juego incesante entre la predicción y la corrección del modelo es la característica principal de toda teorización en la ciencia. Los modelos complejos permiten teorizaciones, como en el caso de Linus, quién en 1948 presentó un modelo que compilaba los trabajos realizados en los últimos diez años acerca de  la naturaleza de la vida. Formuló la estructura de las proteínas como cadenas de enlace enroscados, llamada hélice alfa y, a partir de la utilización de perillas y bolas de colores brillantes, representó los átomos que funcionaban casi como una computadora análoga para prevenir errores. Las formas y tamaños de las perillas eran exactas, hasta una milésima de centímetro para representar con precisión los tamaños a  los cuales los átomos empiezan a disponerse de otras maneras en las diversas combinaciones; las uniones, a través de los cuales encajan, tenían ángulos y distancias correctas. Frente a la pregunta ¿es el modelado una forma de construir teorías? Respondió: Sí, así lo creo (…) la construcción de un modelo puede representar el desarrollo de una teoría y con un modelo la teoría será precisa”(citado por Judson 1984:65 ). Observando los detalles del modelo, éste  no daría respuesta de verdad o falsedad. Simplemente se ajusta a las necesidades de explicación del científico. Si la representación es una relación, entonces un modelo no puede representar el ADN a menos que éste exista  No hay ninguna razón para temer que solamente el estado aproximado de un modelo imponga su capacidad de representar. 

              Schr­ödinger( 175:136 )  expresó : 

Nunca podemos decir qué es en realidad o qué ocurre en realidad, sino solo lo que es observable en cada caso concreto, ¿debemos contentarnos  con esto como algo permanente? En principio, sí. Está muy lejos de ser nuevo afirmar que, en principio, la meta última de la ciencia exacta debe limitarse a la descripción de lo realmente observable. La respuesta es sólo si, en adelante- como hasta ahora-, habremos de renunciar a conectar esta descripción con una hipótesis definitiva  sobre la verdadera estructura del universo. Existe una difundida tendencia a insistir en esta renuncia. Pero yo creo que esto es tomar las cosas a la ligera”  

            De esta manera se llega al punto de encuentro con los filósofos, quienes discuten sí las teorías como representaciones y éstas como modelos se constituyen en las piezas claves de la investigación científica. Según Olivé (   ), “una teoría aproximadamente verdadera, es una teoría que a través de sus modelos ofrece una descripción correcta, o adecuada, pero siempre parcial de sistemas reales, de su estructura y funcionamiento           

              Las concepciones acerca de los modelos por parte de los científicos son tan variadas que las técnicas y medios comunicacionales se confunden con la concepción de modelo que subyace pero lo interesante en esta revisión es encontrar puntos de encuentro  entre agentes diferentes (en este caso filósofos y científicos), que tienen formaciones, e intereses diferentes pero que encuentran en la representación un punto de discusión.

 

La formulación y rivalidad  de los modelos 

               Los textos de Física se constituyen en promotores de modelos que cumplen determinadas funciones de acuerdo a las aplicaciones que se les quiera dar, cumpliendo la intencionalidad del agente. Los variados vehículos de representación son usados en las escenas científicas (los modelos, las ecuaciones, las construcciones, los dibujos, etc.) y como estos representan sus blancos (la conducta de gases ideales, las evoluciones de estado cuántico, los puentes) en virtud de los estados mentales de su constructores ó usuarios. Por ejemplo, un dibujo representa un puente, porque el fabricante del dibujo estipula que lo hace, y  hace creer a su público, la creencia que lo hace, responde de forma alguna a los propósitos personales, los puntos de vista o intereses de los investigadores. 

La percepción de los modelos como mediadores entre las teorías, fenómenos y datos, nos permiten ubicarlos en la concepción práctica de  modelos considerándolos como los mediadores independientes entre la teoría y los datos,  su papel  como artefacto epistemológico le permiten acceder al conocimiento de muchas maneras, más que ser los representantes directos; la consideración como objetos y herramientas de investigación,  permite a través de los medios comunicacionales, la búsqueda del carácter inferencial del modelo,  y esto nos lleva a buscar un ejemplo desde la física cuántica que dé razón de estos aspectos. 

              Los libros de texto se han constituido en la principal fuente de acercamiento al conocimiento científico, tal como lo expresa Giere (1992:86) “si deseamos enterarnos de lo que es una teoría desde la perspectiva de los científicos que la usan, una manera de proceder es examinar los libros de texto de los cuales aprendieron la mayor parte  de  lo que saben acerca de esa teoría”. 

              La tendencia a lo largo de los textos de mecánica cuántica ha favorecido  la propuesta de Schrödinger frente a la de Heisenberg. Históricamente, la formulación de la mecánica matricial tuvo lugar en 1925 con Werner Heisenberg, Max Born y Pascual Jordan, a partir de los conceptos de energía y probabilidad y, en 1926, Schrödinger  fórmuló matemáticamente la mecánica cuántica en términos de ecuaciones diferenciales, aunque hizo una equivalencia parcial con la matricial. Las ecuaciones diferenciales se constituyen en los instrumentos favoritos de la física, ya que permiten plantear modelos para la comprensión de la materia: las moléculas pueden ser tratadas como si fuesen ondas[11].              

              Un modelo ondulatorio de la materia era una guía adecuada para construir una teoría, la tarea era encontrar una ecuación de onda para las ondas materiales.               

  Cuando aplicó la ecuación a varios problemas de la teoría cuántica que servían de piedras de toque, el oscilador armónico, el rotador simple, el rotador vibracional y el átomo de hidrógeno-  algunas de las  aplicaciones que hacía poco emplearan  Heisenberg, Born, Jordan y Pauli para verificar la nueva mecánica de matrices-, obtuvo precisamente los espectros de energía requeridos. Incluso obtuvo el estado energético fundamental semientero, en vez de nulo, para el oscilador armónico: resultado que Heisenberg había exibido orgullosamente varios meses antes, cuando introdujo su nueva cinemática cuántica ( Wesel 1990:234)             

            Al analizar esta decisión desde los modelos productores propuestos por Knuuttila, se debe hacer énfasis en  los métodos, los ingredientes y los dispositivos representativos que permitieron que la propuesta de Schrödinger se impusiera a la Heisenberg en los libros de texto. Por un lado, se debe estudiar los artefactos y los modelos; sus interacciones específicas y sus producciones, así como los medios de comunicación, métodos y  los  conocimientos. Por otro lado, se debe estudiar cómo la relación representativa entre la señal-vehículo y su objeto es logrado.  El ejemplo tomado se centra en  los procesos de construcción y controversia en lugar de enfocarse unilateralmente en la representación. 

Dos importantes disciplinas matemáticas son esenciales para entender  la mecánica cuántica. Una de ellas es el álgebra lineal -matrices y determinantes- y la otra son las ecuaciones diferenciales.  Es considerado que los dos modelos matemáticos, aunque son diferentes pueden ser  equivalentes, porque ellos pueden transformarse entre si (aunque no recíprocamente)[12].  

              El trabajo de Heisenberg en la mecánica matricial es de una naturaleza especializada. Hoy día el álgebra lineal es un asunto de los primeros cursos de  matemáticas de la universidad pero, en 1925, era una  rama desconocida para los físicos. Fue publicada en 1924 por Hilbert- Courant en el libro “Métodos de Física- Matemática”  y aprovechada por Börh, Heisenberg y Jordán  para la formulación rigurosa de la  mecánica de  matrices[13].           

Esto nos lleva a preguntarnos por el papel de las matemáticas en la representación, el protagonismo dado en otras concepciones diferente a los modelos como mediadores, la ubican en una posición privilegiada denominándola “el lenguaje de la física”,  tratándola como monismo representacional por excelencia en las ciencias físicas, contrapuesto a esto es el pluralismo representacional que presupone la intencionalidad del agente en los procesos que lleva a cabo. [14]            

En  la formulación clásica, el movimiento de una sola partícula de masa m es determinado por las coordenadas de posición -x,y,z- y por los componentes del momento -px,py,pz-:  la cantidad de movimiento está definida como el  producto de la masa m de la partícula y sus componentes de velocidad -vx,vy,vz-. Así,  

px =  mvx, etc. 

px  es llamada conjugada de la  coordenada x, py de  y,  pz  de z. La  anterior descripción puede generalizarse a un sistema de  muchas partículas introduciendo un juego de coordenadas generalizadas qi y los momentos conjugados pi.  Estas generalizaciones de  coordenadas y momentos constituyen la base para la formulación de mecánica  de matrices.  

            En la mecánica  matricial, las coordenadas qi y los momentos pi se representan simbólicamente por matrices. Por  simplicidad, se considera el movimiento en una sola dimensión. La regla de cuantización requiere que la diferencia entre el productos de dos matriz p. q y q. p  sea igual a la  matriz  identidad I multiplicado  por  el factor h/2 Π.  Este último término, se define como ħ = h/2 Π. 

La regla de cuantización podría escribirse por consiguiente como,  

p .q – q . p =  ħ I 

            Para determinar los estados estacionarios de un  sistema, es necesario primero expresar la energía del sistema como una función de la coordenada q y del  momentum p. Esta función es conocida como la función  Hamiltoniana H del sistema. La matriz  H que representa el Hamiltoniano es obtenida sustituyendo las matrices q y p en la expresión analítica para el Hamiltoniano.  

            Los estados estacionarios del sistema son derivados, identificando las expresiones de la matriz q y p, asociados en la diagonal de  H, es decir, una matriz H dónde todos los elementos no diagonales son  cero. El procedimiento es bien definido, lógico y consistente y, fue aplicado para derivar con éxito  los estados estacionarios del oscilador armónico. Sin embargo, la matemática que es requerida para las aplicaciones de otros sistemas es sumamente engorrosa y, por consiguiente, el uso práctico de la  mecánica matricial fue limitado.  

La intencionalidad del agente en la representación, nos lleva a retomar lo planteado por Zamora (2005:162), quien expresa que hay una cuádruple analogía entre el sistema científico y el sistema económico, el valor científico dependerá de los factores objetivos y subjetivos, en este caso vale la pena resaltar este factor pues las interpretaciones inferenciales de cada científico como agente intencional, le permiten obtener valores epistémicos a sus modelos, lo cual se traduce en una distribución de valoraciones. La valoración epistémico llegará a una situación de equilibrio cuando en la confrontación de los modelos de representación no haya un incentivo mayor del uno frente al otro, poniendo en juego la autoridad cognitiva que tiene que ver con las relaciones de recursos, productividad, de los modelos en competencia, y las normas de la comunidad científica con las que   se encuentran los modelos en competencia, esta propuesta permite ver la intencionalidad del agente  en los modelos mediadores, desde una perspectiva económica.  

            Heisenberg pensaba que la descripción mecánica cuántica de sistemas atómicos debería centrarse solo en las cantidades físicas notables. Por consiguiente, no deben usarse las órbitas y velocidad adquirida de los electrones dentro del átomo porque  no pueden observarse. La teoría debe partir de los datos experimentales que pueden derivarse de los espectros atómicos. Las valoraciones epistémicos del modelo de Heisenberg, nos indican  que ante todo buscaba un modelo centrado en identidades no observables, como lo propone Hacking (1992), su existencia debe ser inferida a partir de la evidencia observacional, jugando un papel importante las prácticas científicas.  

Cada línea en  el espectro atómico es determinada por su frecuencia v y por su intensidad. Este último es relacionado con otra cantidad física notable denominada momento de la transición. La transición espectral entre dos estados estacionarios n y m es por consiguiente determinado por el v- n,m de frecuencia- y por el x- n,m de momento de transición-. Heisenberg  propuso  un modelo matemático en el que se  presentaban las cantidades físicas por juegos que contenían  el x- n de momentos de transición, m- además del  tiempo, dependiente de  las condiciones de frecuencia[15].  

            Existe una anécdota  interesante y divertida relacionada con el descubrimiento de Mecánica Matricial, expuesta por Hameka (2004:13). Cuando Heisenberg mostró su obra a Born, éste dijo no saber nada sobre matrices pues no se acordó que había aprendido un poco de álgebra lineal cuando era  estudiante. Recurrieron a Hilbert para obtener la ayuda. Durante la reunión, Hilbert mencionó, entre otras cosas, que las matrices juegan un papel importante  en la solución  de ecuaciones diferenciales  en  condiciones  límite. Estas condiciones  especiales fueron las que usó Schrödinger para demostrar la equivalencia de la mecánica matricial y la formulación  diferencial. Después, Hilbert dijo a algunos de sus amigos entre risas que Born  y Heisenberg podían haber descubierto la ecuación de Schrödinger antes, si hubieran puesto más atención a lo que les estaba diciendo. Si esto es verdadero o no, es una buena anécdota. Para la mayoría de los estudiosos de la mecánica cuántica, la ecuación de Schrödinger es más accesible que  la mecánica de matrices[16]. 

            La idea motivadora para Schröndinger en la búsqueda de una ecuación había sido que cada una de las partículas era en realidad una onda, y que ésta determinaría las características físicas de dicha onda. Se considera al átomo como un sistema de vibraciones, en lugar de un sistema mecánico. Sin embargo, en la ecuación encontrada, los dispositivos representativos estaban lejos de satisfacer  las condiciones de las ondas físicas y en este punto solo quedaban dos caminos “o rechazar la nueva ecuación  y seguir buscando un modo de describir las supuestas ondas de la materia, o abandonar su plan originario de describir ondas materiales  y desarrollar una teoría de la materia basada en la nueva ecuación”(Hameka 2004:15).  Sobre el significado de  Schrödinger decía que 

 Se podría caer en la tentación de asociar la función   con un proceso vibratorio en el átomo, probablemente más real que las órbitas electrónicas, cuya realidad se cuestiona cada vez mas. (…) He preferido presentarla [la nueva formulación] en términos puramente matemáticos, que permite destacar lo que, en mi opinión, es el punto esencial: el hecho de de que la misteriosa “exigencia de valores enteros” ya no requiere ninguna regla de cuantización, sino que resulta de las condiciones de finitud y univalencia de una cierta función... Parece innecesario señalar cuánto más gratificante resulta concebir una transición cuántica como un cambio energético de un estado vibratorio a otro, que considerarla como un “salto” de electrones... ” (Bombal 2002)

             Schrödinger esperaba que, además de predecir correctamente los resultados del experimento, una teoría física debería proveer una imagen espacio-temporal de los sistemas físicos que conllevaban a resultados experimentales y que el propósito de las leyes matemáticas de la teoría era explicar el comportamiento de estos sistemas en el espacio y en el tiempo. La primera etapa de su trabajo se centró en buscar un modelo de los microsistemas subyacentes a los fenómenos atómicos y moleculares. De acuerdo a las formulaciones estudiadas, las perspectivas de Schrödinger, estarían más acorde con las propuestas de Hacking, para quien las propuestas estarían más en el marco de la práctica científica. Frente a la propuesta de modelos productores, esperaría que no solo tuviera un valor epistémico sino que los medios representacionales estuvieran en el marco pluralista en el sentido de buscar una mayor amplitud a sus modelos.    

Buscó una descripción más detallada de tal modelo y la formulación de una ecuación matemática que gobernara su comportamiento. La ecuación planteada no proporcionaba una descripción directa de los sistemas subyacentes como había esperado[17]. Su búsqueda fue exitosa en el sentido de que la ecuación era  propicia para salvar los fenómenos. En la segunda etapa de su labor sobre la mecánica ondulatoria trató de desarrollar una teoría basada en la ecuación de onda, ideando nuevas maneras de aplicarla  o formularla  dependiente del tiempo  y, procurando hallar  un nuevo modo de vincular sus ecuaciones formales  con un modelo de los microsistemas. Sin embargo, esta búsqueda de modelos espacio-temporales no consiguió dar con los frutos esperados, pues átomos, electrones, luz y energía radiante fueran susceptibles de una descripción uniforme, conceptualmente paradójica, pero de una limpieza sin mácula desde el punto de vista matemático”(Arana 2000:18) La mayor parte de los símbolos de la teoría están identificados con conceptos espacio-temporales y la elección de las ecuaciones mecánico-cuánticas adecuadas para la aplicación a un fenómeno macroscópico dependen del empleo  de uno o más modelos espacio-temporales de los microprocesos subyacentes. Como la ecuación funcionaba, la tarea era proporcionar una imagen física más completa, en la que fuera explícita la conexión entre la teoría y el  movimiento de las ondas materiales y, esto lo consiguió con la articulación de la mecánica de matrices y la ondulatoria. 

 A pesar de su rechazo del formalismo de la mecánica de matrices, Schrödinger también estaba convencido de que ambos modelos se complementaban mutuamente. Y así, en la primavera de 1926, descubrió lo que llamo “una identidad matemática formal” entre la mecánica ondulatoria y la mecánica de matrices.  Desde un planteamiento estrictamente formal, Schrödinger probó  que la mecánica ondulatoria implicaba los aspectos básicos de la mecánica de matrices en los casos simples de espectro discreto. Estas ideas fueron marcando el derrotero hacia la teoría de transformaciones de Dirac y Jordan primero, y luego la posterior unificación de Von Neumann. Al mismo tiempo, sirvieron para decantar el desarrollo conceptual moderno de la Mecánica cuántica.           

¿Por qué tanto empeño en elaborar descripciones espacio-temporales de los sistemas? “Una respuesta probable y tal vez generalmente aceptada es que era un realista científico, de los que creen que la tarea de la ciencia es describir la fábrica real del mundo” ”(Arana 2000:17). Como lo expresa él mismo, “las observaciones, y los resultados de las mediciones particulares, son la respuesta de la naturaleza a nuestra indagación. Así, de manera esencial, no sólo sean una ocasión del objeto, sino, antes bien una ocasión de la relación intercambiante sujeto-objeto” (Schrödinger 1975:37). Un modelo matemático más realista es la asociación de movimiento de la partícula con  la superposición de un número infinito de ondas planas. En este acercamiento, el movimiento de una partícula libre puede representarse por un paquete de ondas. Esto explica la relación entre la partícula y movimiento de la onda de  manera lógica y consistente.  

Frente al debate del realismo, no niega la existencia de una realidad independiente, sólo  brinda restricciones sobre aquello que puede considerarse real. La ‘realidad’ no debería ser un concepto presupuesto o un prejuicio utilizado para observar y relacionar datos empíricos, sino más bien un concepto a desarrollar y transformar. La mecánica cuántica es un modelo matemático, una interpretación de la realidad, pero no la realidad misma. Un modelo sólo puede dar cuenta sobre la naturaleza de realidad si se asume que representa la parte seleccionada o aspecto del mundo que se investiga.  Es evidente que los modelos científicos son una abstracción mental, una interpretación de la naturaleza. Dotados generalmente de una estructura lógico-matemática, se utilizan para poder explicar algunos fenómenos relacionados y para reconstruir por aproximación los rasgos del objeto considerado en la investigación. El modelo será mejor cuanto más se aproxime al comportamiento real del objeto. No es imprescindible que esas interpretaciones sean ciertas, sino que sea útil y eficaz para el fin que se persigue. Por ejemplo, no importa demasiado saber si los electrones se mueven en orbitales alrededor del núcleo, sino su comportamiento, como si lo hiciera. 

Lejos de las pretensiones de este trabajo estarían las controversias entre las interpretaciones de Copenhague y la causal que ha condicionado el desarrollo experimental y teórico de la mecánica cuántica.   Es importante señalar que solo unos pocos  aspectos no son fundamentales en la solución de las controversias y los debates.  La comunidad científica propone alternativas para ayudar a esclarecerlas, así el  experimento EPR, las variables ocultas y la desigualdad de Bell se constituyen en pilares fundamentales, que conllevan a problemas relevantes como las probabilidades en la medición, el principio de localidad entre otros.   Frente a los principios tanto de superposición lineal de estados, y de incertidumbre (dualidad onda-partícula)  que conforman la mecánica cuántica –la mecánica ondulatoria (formulación de Schrödinger) y la mecánica matricial (formulación de Heisenberg)-. El principio de  superposición de estados  implica, entre otras  cosas, la posibilidad  de la coexistencia simultánea de  distintos  estados (algún notable)  para un mismo sistema, como lo expresa la famosa paradoja del gato de Schrödinger (1935). El principio de incertidumbre presupone la idea de que existe una imposibilidad intrínseca del mundo microscópico para la realización simultánea de determinadas mediciones y que esta imposibilidad no es resultado de una limitación de los dispositivos de medida o de la falta de información sobre variables del sistema.  

La dualidad onda-partícula -directamente conectada al principio de incertidumbre- implica aceptar que los objetos cuánticos evidencian a veces propiedades de partículas clásicas y, en otras situaciones, características de ondas, pero que en ningún caso pueden identificarse con unas o con otras. Como ha sido indicado, de estos principios resulta que la mecánica cuántica es una teoría inherentemente probabilística; el resultado de cada medida no puede ser previsto con la precisión deseada, si es conocido el estado inicial del sistema, la mecánica cuántica ofrece apenas predicciones probabilísticas. Frente a la naturaleza de esas probabilidades,   la función de onda (vector de estado) contiene toda la información acerca del estado de un sistema, y además las densidades de probabilidades presentan términos de interferencia, resultantes del módulo al cuadrado de la suma de las amplitudes. 

A manera de resumen se presenta un cuadro donde se compara los métodos, ingredientes y dispositivos representativos que hacen que una propuesta se imponga frente a la otra.

           

 

Schrödinger

Heisenberg

Formulación Matemática

Diferencial

Matricial

Modelos

Espacio-temporales

Probabilísticas

Símbolos de la teoría

Ondas piloto

Cantidades dinámicas

Dispositivos representativos

Función de onda

cantidades físicas notables

Enfoque

Estados

Operacional

 

La interpretación de Schrödinger de los fenómenos atómicos a través de “paquetes de onda” concebía a los fenómenos observados (cuantización, existencia de niveles discretos de energía) con relación a frecuencias y fenómenos de interferencia, sin postular los “saltos cuánticos” y aportando elementos a  las concepciones más clásicas de una realidad continua. 

La interpretación del formalismo dada por Heisenberg y Böhr exigía un cambio radical en las concepciones habitualmente aceptadas de la realidad física. El formalismo de la “Mecánica de matrices” de Heisenberg no permitía las descripciones usuales espacio-temporales y las conexiones causales de los fenómenos físicos.  Pero, las descripciones y nociones intuitivas de la Física clásica se habían aplicado indiscriminadamente a la Mecánica cuántica. Esta disparidad entre el formalismo y las concepciones intuitivas tenían forzosamente que originar serias dificultades. Las concepciones de la Física  están ligadas a las descripciones espacio-temporales, Heisenberg lo sabía y propuso otra alternativa para salvar estas dificultades, formulando el Principio de Incertidumbre con el fin de  mantener las nociones clásicas intuitivas, pero restringiendo su aplicabilidad. 

La Mecánica de Matrices y la Mecánica Ondulatoria buscan  la  explicación  del mismo tipo de fenómenos y obtienen resultados análogos. Aunque, ambas son radicalmente diferentes, tanto en su formalismo matemático como en su interpretación física, pues Heisenberg utilizó un enfoque  algebraico, postulando la existencia de operaciones no conmutativas y reglas de cálculo novedosas frente   a las conocidas en el formalismo matemático de la época. Físicamente, su concepción básica es el corpúsculo y enfatiza en la discontinuidad en el microcosmos. Por el contrario, Schrödinger utilizó un enfoque analítico, utilizando las técnicas usuales de ecuaciones diferenciales de la mecánica clásica de fluidos. Físicamente, su concepción básica es la onda y la continuidad en el mundo subatómico.  

Ambos formalismos matemáticos  parten  de  la física clásica (ya sea de la dinámica newtoniana o de la mecánica de fluidos), planteando en algún momento el calculo una hipótesis innovadora. Posiblemente, esta puede ser el origen de la discordia: el querer expresar conceptos clásicos como “posición”, “trayectoria” “velocidad” o “paquete de ondas” en términos del nuevo formalismo. Heisenberg, dispuesto a defender  la potencia del formalismo matemático, defendía, la posibilidad de realizar experimentos que sirvieran   de test directo de las predicciones de la teoría, como lo hacía,  Einstein que “la teoría es la que decide lo que podemos observar”. Si la teoría rechaza la observabilidad de la trayectoria de una partícula, y esta aparece en la cámara de Wilson como una sucesión discreta de puntos borrosos, la conclusión, según Heisenberg, es que “carece de sentido hablar de la posición de una partícula con una velocidad definida”. Esta línea de pensamiento, junto a su convencimiento de que el formalismo matemático es lo que permite establecer y predecir nuevos resultados, es lo que llevó a Heisenberg a enunciar su principio de incertidumbre. El uso de palabras como “ondas” o “partículas” para la descripción de lo que realmente sucede, es irrelevante. Böhr aceptó las conclusiones de Heisenberg, pero no su interpretación, señalando que la causa ultima del principio de incertidumbre residía en la dualidad onda-partícula y en la imposibilidad de usar ambas descripciones simultáneamente, a pesar de que las dos son necesarias para obtener una descripción completa del fenómeno físico. 

En primera instancia se podría pensar que la tradición matemática juega un papel importante en las controversias pero, es importante analizar los medios representacionales y su comunicación, pues estos se constituyen en factores determinantes de la actividad científica. Si se toma el caso de la clasificación de los elementos químicos,  Mendeliev, utilizó un sistema periódico para clasificar todos los elementos, según el orden de progresión del peso atómico. Estudia los elementos con propiedades bien definidas, que podrán servir como modelo, como “patrones” para ordenar el resto. Esto lo consigue no buscando semejanzas y diferencias sino  contrastes y  discrepancias entre los elementos,  propuso la tabla periódica y no una espiral, pues la discontinuidad en los valores del peso atómico  no permitía una estructura continua que permitiera ofrecer el máximo de información  y de claridad con un número  mínimo de postulados. Qué ventajas ofrecía la  tabla frente a la espira.  La elección  de una tabla como medio representacional  permite dilucidar una forma sencilla de comunicar los resultados de las investigaciones. Una de las tareas era sistematizar y organizar los conocimientos acerca de los elementos que se encontraba dispersos hacia 1879, y la tabla periódica permitió no sólo esto sino también constituir  el concepto de elemento como organizador.  Todos los elementos  con raras excepciones, se sucedían uno al otro en líneas horizontales, siguiendo el orden creciente de sus pesos atómicos. Los elementos semejantes quedaban encuadrados en varias columnas verticales. El permitir dejar espacios en blanco, permitió predecir la existencia de muchos otros que no habían sido descubiertos. Este medio de representación permite el auge de una química centrada en los elementos.  

La estructura de la molécula de ADN fue logrado por cuatro científicos:  Maurice Wilkins, James Watson y Francis Crick, y por Rosalind Franklin.  El modelo propuesto por estos científicos semeja una escalera de caracol que recibe el nombre de ‘doble hélice’. Esta escalera está compuesta por peldaños compuestos por cuatro piezas (adenina, guanina, timina y citosina), que se integran por pares atendiendo a las siguientes reglas: Adenina (A) siempre forma un par con timina (T), Guanina (G) siempre debe unirse con citosina (C).  Ha diferencia de una espiral,  una hélice no se va ampliando a partir del punto de origen, sino que se alarga siempre de manera monótona con el mismo diámetro. Ellos prefirieron esta forma de representación, la hélice alfa que había sido propuesta por Pauling en 1951, pues permite la relación entre dos objetos asimétricos, pero equivalentes en el espacio, si se repite esta operación, se obtiene una gran cantidad de objetos equivalentes que forman una hélice.  

Estos dos medios representacionales nos pueden dar un ejemplo de cómo frente a situaciones propuestas uno resulta favorable frente al otro de acuerdo a lo que se quiera comunicar.  La búsqueda de conexiones coherentes de   los modelos entre el modo en que podrían funcionar y cómo podrían ser las cosas están mediadas por la intencionalidad del agente pues hay varias formas de aproximarse  y finalmente quién decide es el investigador de acuerdo a sus pretensiones. 

Los científicos han estado de acuerdo en que la comunicación de los resultados de las investigaciones se den a través de eventos (congresos, encuentros, foros, etc,), artículos en revistas especializadas y en libros. La comunicación científica es el juego mutuo mediante el cuál se logran evidencias, se pone en duda, se logra nuevas comprobaciones y se pone en evidencias formas de representación, ya sea través de los diversos medios representacionales o las inferencias que se hagan de los modelos, sin  desconocer  el juego económico que subyace en las comunidades científicas con los desarrollos científicos y tecnológicos.   Un ejemplo de esto,  fue a los finales de los años cuarenta cuando el esfuerzo de los físicos teóricos, y especialmente de Freeman Dyson, Richard Feynman, Julian Schwinger y Sinitiro Tomonaga, hicieron ver los frutos de su trabajo. En ese entonces, fue cuando hizo su presentación en la sociedad científica un ejemplo práctico de una teoría relativista del campo cuántico «renormalizada» que expresaba las interacciones de dos partículas cuánticas, el electrón y el fotón; se denominó electrodinámica cuántica. Los teóricos centraron sus esfuerzos en la electrodinámica cuántica no sólo porque había datos experimentales desconcertantes de las interacciones de fotones y electrones que exigían explicación, sino porque fotones y electrones, eran por sí solos, bastante aproximadamente, un pequeño subsisterna de todas las partículas cuánticas. En consecuencia, podían ignorarse sus interacciones con otras partículas cuánticas, lográndose así una gran simplificación. Si el procedimiento de renormalización tenía alguna validez, debería demostrarse en este caso. Esto no solo lleva a considerar la conveniencia de adecuación de un modelo sino de su comunicación  a la comunidad científica.           

            Los modelos no pueden reducirse solamente a la designación de sistemas externos, donde su valor epistémico está dado por la cognición,  sino que debe darse un giro considerándolos desde su productividad, donde su valor epistémico están en la laboriosidad y la experimentación, que permiten abordar sus métodos y dispositivos representacionales.

   

Consideraciones Finales

             Las propuestas semánticas plantean que las relaciones de los modelos con la realidad pueden ser isomórficos, de similitud, de analogía, de inferencia causal que pretenden concebir los modelos como mediadores entre la teoría y el mundo, lo cual conlleva necesariamente a algún tipo de representación. En este trabajo se ha mostrado la intención de los diferentes autores de abordar las representaciones científicas a través de los análisis de las relaciones, que buscan rendimientos epistemológicos de cada una de sus propuestas, que sirvan como base para contrastar las teorías científicas. La búsqueda de un ejemplo que permitiera dar razón de los medios representacionales, de información  y la manera de comunicación lleva necesariamente a la intencionalidad del agente como principal responsable del éxito de la representación. 

            ¿Cuál es el modelo adecuado? Frente a esta pregunta no hay una respuesta clara, pues también hay discrepancias entre los filósofos que plantean que dependen del ajuste con la realidad, que solo ofrece algunos aspectos del fenómeno, pues nunca un modelo sirve de manera óptima para todos lo fenómenos; solo aquellas hipótesis verdaderas acerca de aspectos observables del mundo o de la negociación de los agentes que dan cuenta de su carácter representacional. En física podemos encontrar referencias a modelos como el modelo estándar, el modelo estelar estándar, el modelo del Big Bang,  El primero, fue propuesto en el Congreso de Tokio en 1978, clasifica todas las subpartículas del universo en tres familias, cada una de las cuales  consta de un par de leptones y un par de quarks. El segundo, proporciona una relación simple entre la masa, el radio y la luminosidad de una estrella, fue propuesto por Sir Eddintong en 1926. El tercero sobre el cual giran las investigaciones de los premios Nobel de 2006,  La teoría de un Universo que se expande fue propuesta primero por Friedmann (1922) y Lemaître (1927). Un gran trabajo alrededor de este modelo es dada por Steven Weinberg laureado al Nobel en1993.  

Alrededor de 1960, se discutían dos modelos  para el Universo ¿Estaba el  universo expandiéndose   según el modelo del big bang, o estaba en un estado estacionario? Ambos modelos tenían sus partidarios y entre los científicos que defienden el último era Hannes Alfvén (premio de Nobel en físicas 1970), Fred Hoyle y Dennis Sciama. Si el modelo del big bang fuera el correcto, la radiación del universo primitivo todavía debe existir, y varios grupos estaban buscándolo. Esta radiación debe ser térmica e isotrópica, por ejemplo, en  forma de radiación de cuerpo negro.  

El descubrimiento de  microondas provenientes del fondo del cósmico por Penzias y Wilson en 1964,  premio de Nobel en física 1978, se constituyó en  una completa sorpresa  mientras intentaban  entender la inesperada fuente de ruido en su radio-receptor. Unos 16 años atrás, Gamow (1946) y Herman -Alpher 1(949) habían predicho  un campo de radiación  que penetra el Universo. Tolman  había mostrado en 1934  que la radiación del fondo cósmico en un Universo que se expande  es parecida a la de un cuerpo negro. En 1964, sin embargo, Doroshkevich y Novikov, publicaron un artículo donde se mostraba una búsqueda explícita para la radiación que se  enfoca en las características de un cuerpo negro. En  1964, el descubrimiento de la radiación  de microondas del fondo cósmico, era contundente, esto permitió la aceptación del modelo del big bang pero no todos  los defensores del modelo estático se rindieron.  

            La historia de la física  nos muestra un amplio abanico de ejemplos que permite dilucidar las problemáticas alrededor de que son los modelos científicos y como estos nos dan cuenta del conocimiento, pues son entidades que se materializan en los medios comunicacionales. La pretensión de este trabajo consiste en mostrar que es posible tener modelos diferentes para el mismo dominio de fenómenos, pero es importante en las controversias que se generan analizar aspectos como los métodos comunicacionales y los medios representativos que afirmar que el modelo representa, refleja o simula la realidad.  Un medio representacional puede ser  un  sistema de formas simbólicas (el lenguaje natural o el lenguaje lógico de programación), las matemáticas y la geometría, las imágenes, diagramas, planos, códigos, instrumentos, artefactos, dejando de lado como único medio de representación el lingüístico, que es el permitido por excelencia en la concepción semántica. 

 La concepción de modelos como mediadores nos indican que los medios representacionales son tan variados, que no suponen un medio universal, la obtención de la información  es tan compleja que en ocasiones se requiere de varios medios representacionales, por eso el acercamiento que se da  en la concepción pragmática de los modelos, está orientado hacia una zona de acercamiento entre la realidad y las leyes de la naturaleza, ha través de los modelos, esto permite actuar recíprocamente con el mundo, más que representarlo.  

La representación puede aproximarse a  los dos  maneras presentadas en  esta investigación ya sea considerándolo a través  del uso  ó los puntos de vista de la producción. Los análisis filosóficos de la representación científica se han concentrado hasta ahora  unilateralmente en el uso de  los modelos. La propuesta de investigación,  es centrarse en los modelos como artefactos epistémicos, considerándolo como  un artefacto histórico, materialmente construido.  Los modelos son considerados  mediadores entre la teoría y las leyes fenomenológicas construidas  a través del  conocimiento del mundo. Uno de los medios representacionales son los instrumentos científicos, estudiar su  significado e implicaciones para la filosofía de la ciencia,  desde una epistemología de los instrumentos,  sería un camino para abordar la tesis doctoral.

 

           
 

Referencias Bibliográficas

 

Amann, Klaus and Karin Knorr Cetina (1990), “The Fixation of (Visual) Evidence”,in

Michael Lynch and Steve Woolgar (eds.), Representation in Scientific Practice

MIT Press:85-122.

Arana, Juan (2000). “En Física cuántica y realidad”, Madrid: Universidad Complutense

Bombal, Fernando (2002),  “Los Modelos Matemáticos de la Mecánica Cuántica”

www. ochoa.mat.ucm.es

Broncano, Fernando (2003). “Saber en condiciones”, Madrid:Antonio Machado libros.

Biswas, Tarum (1999),“Quantum mechanics,Concepts and applications”: Physics  

            Deparment State University New York.

Cartwright, Nancy (2004), “Causation: One World, Many Things”, Philosophy of science, 71: 805- 819

Collins, H.M. and Robert Evans (2002), “The Third Wave of Science Studies:Studies of

Expertise and Experience”, Social Studies of Science 32(2): 235-296

_________ (1996). El gólem. Lo que todos deberíamos saber acerca de la ciencia”.

Madrid :Ed. Drakontos.

De Gennes, Pierre-Gilles (1991),

­http://nobelprize.org/nobel_prizes/physics/laureates/1991/gennes-lecture.html.      

De Lorenzo, Javier (2005). Filosofías de la Matemática: de fundamentaciones y

construcciones”, Enciclopedia Iberoamericana de Filosofía, Madrid: Editorial Trotta.

Diegüez, Antonio (1998), “Realismo científico”, Málaga :Universidad de Málaga.

Giere, Ronald (2004), How models are used to represent reality”, Philosophy of

science,71: 742- 752

_________ (1992),“La explicación de la ciencia. Un acercamiento cognoscitivo”

México:Consejo Nacional de Ciencia y Tecnología.

Hacking, Ian, (1992), “Representar e Intervenir”, México : Consejo Nacional de Ciencia

y Tecnología.

Hameka, Hendrik F. (2004), “Quantum Mechanics: A Conceptual Approach”, John

Wiley & Sons, Inc.

Hanson, Norwood (1977). Patrones de descubrimiento. Observación y explicación,

Madrid:Alianza Universidad .

Hughes, Rig (1997), Models and representation” ,Philosophy of science, 64: 325-  336

Ibarra,  &  Mormann  (2000), “Variedades de la representación en la ciencia y la

filosofía”,  Barcelona: Ariel

__________ (2001), “Una teoría combinatoria de las representaciones 

científicas”, Crítica, XXXII, 95

__________(1997), “ Representaciones en la ciencia”.Madrid: Ediciones Bronce.

Iranzo, Valeriano (2000). “Manipulabilidad y entidades inobservables”, Teoría-

Segunda época, 15/1: 131-153

Judson, Orase Freeland (1984). La búsqueda de respuestas”. México:Fondo educativo

Interamericano.

Knuuttila Tarja(2005). “Representation and Realism in Economics: From the

Assumptions Issue to the Epistemology of Modelling”. Helsinki: University of Helsinki

______ (2005), “Models, Representation, and Mediation”, Philosophy of science 72:

1261-1271

Lamo de Espinosa y otros (1994). “La sociología del conocimiento y la ciencia”.

Madrid:Editorial Alianza.

Latour, Bruno and Steve Woolgar (1986), “La vida en el laboratorio: Construcción

de los hechos científicos”. Princeton: Princeton University Press.

León, Olivé (1995), “Racionalidad Epistémica”. Enciclopedia Iberoamericana de Filosofía de la ciencia, Madrid: Editorial Trotta

Lynch, Michael (1985), “Discipline and the Material Form of Image: An Analysis of

Scientific Visibility”, Social Studies of Science 15: 37-66

Martínez , Sergio (2001), “Historia y combinatoria de las representaciones científicas

comentarios a la propuesta de Ibarra y Mormann”,  Crítica, Revista Hispanoamericana de Filosofía, 33, 99 : 75–95

Morgan  & Morrison (2004), “Imagination and Imaging in Model Building”,

Philosophy of science,  71: 753- 766

Prigogine, Ilya  (1997). “El fin de las certidumbres, Madrid: Editorial  Tuarus.

Rorty, Richard (1980), “Philosophy and the Mirror of Nature”. Oxford: Basil Blackwell.

Schrödinger, E( 1975  ). “Qué es una ley de la naturaleza?”,  Mexico: Fondo de cultura

economica

Súarez, Mauricio, (2004), “An inferential Conception of Scientific Representation”,

Philosophy of science,  71: 767-779

___________, (2003), Scientific representation: Against similarity and isomorphism”,        

International Studies in the Philosophy of Science, 17, 3: 225-244.

___________, (2003), “Hacking Kuhn”, Revista de Filosofía, 28, 2: 261-284

Wessel, linda (1990). “Schrödinger y la tradición descriptiva”, ensayo en Resortes de la

creatividad científica, Mexico: Fondo de cultura Económica.

Woolgar, Steve (1991), “ Ciencia: Abriendo la Caja Negra”, Barcelona:Anthropos.

Zamora, Jesús (2005), “Cuestión de protocolo”, Madrid: Editorial Tecnos

 

 

 


 

[1]  Esta clasificación es debida a  Knuuttila, (2.005), para quien  la  pregunta por la  representación ha sido un asunto de preocupación epistemológica constante, pero plantea que no hay acuerdos claros sobre el significado de  la representación por eso se han hecho  varios frentes para estudiarla, no solo  en la  filosofía sino en otros campos de  estudio.

[2] El criterio de manipulabilidad es fundamental pues la experimentación con una entidad no asegura su existencia, no es lo mismo experimentar sobre la entidad que experimentar con la entidad.

[3] En la literatura de la filosofía de la ciencia se encuentran varias propuestas acerca de la controversia realista-antirrealista, en este caso se considera la planteada por Diegüez (1998), quien propone cinco maneras de ver esta polémica.  En relación con las entidades teóricas el realismo ontológico da por sentado su existencia. Frente a las teorías científicas se pueden encontrar tres posiciones del realismo, para algunos estas proporcionan un conocimiento de la realidad independiente de procesos cognitivos (realismo epistemológico), para otros estas son susceptibles de verdad o falsedad (realismo teórico) y el tercer grupo, para los cuales los criterios de verdad ó falsedad estén en correspondencia  con la realidad (realismo semántico). El carácter progresista de la ciencia la orienta hacia la verdad como meta, denominado realismo progresivo. El antirrealismo se contrapone a las propuestas realistas, en relación con las entidades teóricas el instrumentalismo sobre entidades  asegura que estas  son recursos predictivos y el constructivismo social  considera son construidas socialmente. El fenomenismo y el idealismo epistemológico respectivamente nos dan una visión de que las teorías científicas tratan solo de teorías observables y que discuten sobre una realidad construida por la mente. El pragmatismo , el coherentismo  y el relativismo  nos dejan ver su visión acerca del criterio de verdad o falsedad de las teorías  y el antirrealismo sobre el progreso lleva a la idea que el progreso de la ciencia no puede ser establecido como un criterio de acercamiento  a la verdad.

[4] Iranzo ( 2000), expresa  que  se debe  dar un reconocimiento a Hacking porque logra la valoración de la práctica científica , sacándola del rincón y colocándola en el debate filosófico. 

[5] Las dificultades del realismo experimental,  según Iranzo (2000),  se centran en el acceso a las entidades observables sin mediación teórica  y  la fuerza de convicción del científico experimental frente a los resultados. Dar sentido a la práctica científica  no tiene porque asegurar la existencia de las entidades inobservables, estas surgen de los presupuestos de la práctica experimental.  El término manipulación es equívoco cuando se aplica al contexto experimental de la física moderna, pues por definición solo se manipula lo que existe físicamente, de este modo las entidades terminan siendo solo herramientas y esto da por hecho lo que se quiere demostrar. Solo la inferencia a la mejor explicación, permite rentabilizar  la eficacia manipulativa desde una perspectiva realista, pues proporciona  los elementos necesarios para dar razón de la existencia de las entidades inobservables y del valor de verdad de la teoría.

7El nuevo experimentalismo,  considera que el  conocimiento científico tiene una estructura de tres niveles, ubicando la teoría y los datos observacionales en los extremos y una larga y compleja serie de modelos de los fenómenos actuando como “mediadores” entre teorías y datos (Súarez 2003b).

 

[7] Latour (2001)  expresa que normalmente se ha considerado  a la ciencia como una pintura realista, pensando que se dedica a hacer una copia exacta del mundo, las ciencias hacen algo completamente diferente, a través de etapas sucesivas, nos vinculan a un mundo alineado, transformado y construido. La filosofía se ha equivocado al querer ver en los fenómenos el punto de intersección  entre las cosas- en si- y las categorías del entendimiento humano. Los fenómenos son aquellos que transitan habitualmente a través de la cascada de las transformaciones.

 

[8] Súarez ( 2003b: 261-284) expresa “En literatura castellana el modelo de tres niveles ha sido descrito por Ibarra y Mormann (1998), aunque con un propósito ajeno o incluso contrario al new experimentalism, puesto que para estos autores los tres niveles constituyen los componentes de las teorías científicas, mientras que, de acuerdo con los new experimentalists, los dos niveles más concretos (datos y fenómenos) no son en absoluto componentes de teoría alguna. Más bien al contrario, tanto los datos como los fenómenos se definen en parte por hallarse en la clase de contraste opuesta a la de las teorías científicas. En este trabajo adopto escrupulosamente la concepción del new experimentalism: teorías, fenómenos y datos son tres categorías diferenciadas del conocimiento científico, cuya intersección es el conjunto vacío”.

 

[9] Giere (1992) ha sido objeto de criticas en cuanto a la naturaleza de las teorías, pues las presenta como mapas cognitivos pero las acompaña de hipótesis de aplicabilidad, “Cabe preguntarse por la naturaleza sicológica de esta hipótesis: ¿es ella misma un mapa cognitivo?, ¿o acaso las afirmaciones con contenido proposicional no son ellas mismas representaciones posibles de la realidad? (Zamora 2005:109), este es un problema no claro en las propuestas denominadas naturalista.

 

[10] Palabras del discurso pronunciado por  De Gennes en Estocolmo en Diciembre de 1991  cuando recibió el premio Nobel de Física por el  Desarrollo de métodos para estudiar fenómenos de orden complejo  traducidos a sistemas simples  y como estos pueden generalizarse a las formas más complejas de materia, en particular a los cristales líquidos y polímeros,

 

[11] Los procesos de  matematización no consisten en la traducción  a un lenguaje preciso  de un  modelo preexistente. Es  a través de ellos que se permite la  producción de modelos, siendo las matemáticas una de las formas intencionales de las actividades humanas.

[12] Las matemáticas como medio representacional ha tenido una larga tradición filosófica, en la llamada filosofía de la matemáticas. De Lorenzo(2005: 28), expresa que se pueden distinguir tres momentos de fundamentación de la matemáticas; el logicismo que se fundamenta en la lógica, la que se apoya en la epistemología y la teoría causal del conocimiento, donde se incluye el logicismo renovado, el estructuralismo logicista, el modalismo y el nominalismo, y por último el que busca fundamentar el quehacer matemático de una significación numérica.

[13]  Hilbert,  considera que a matemática tiene dos partes, una parte real, apoyada en el signo y en los razonamientos finitos sin manejo de cuantificadores. El signo, se constituye en la idea filosófica mínima, para fundamentar, comprender y comunicar todo pensamiento. Una parte ideal, que debe ser primero axiomatizada y luego formalizada , entre ellos se encuentran los números complejos, los elementos de  la geometría proyectiva, y la noción de infinito actual, (De Lorenzo 2005:22).

[14] Iranzo (2003:363) hace una clasificación de los medios representacionales, denominándolos naturales  y artificiales, un medio natural es el lenguaje, el lenguaje artificial puede ser un diagrama de flujo. Los dos medios representacionales son complementarios o suplementarios según el caso.

[15] La denominación cantidad notable hace referencia a las cantidades físicas que pueden ser  medidas con instrumentos.

[16] Pareciera que el factor psicológico influyera de manera primordial sobre la racionalidad de los agentes.

[17] Lo que cuenta a favor no es tanto lo que pueda explicar, sino lo que  es capaz de hacer con ellos.

 

 __________________________________________________________________________________

 © Rosa Nidia Tuay Sigua

UNIVERSIDAD NACIONAL DE EDUCACIÓN A DISTANCIA.

FACULTAD DE FILOSOFÍA

DOCTORADO EN LÓGICA, HISTORIA Y FILOSOFÍA DE LA CIENCIA

Madrid, Mayo de 2007

 

 

 © Revista Lindaraja,  nº 11, julio 2007. Foro de Realidad y ficción.

 

Edición de la página

 

 

 
   
   

 

    

 

 

 

 

 

 

 

 
 

 

 

 

 

Edición del sitio web:

© Mercedes Laguna González

Foro Realidad y ficción

18800 Baza (Granada)

 

Escríbenos