30 de septiembre del 2002 Vol.3 No.3

Tomando Medidas a los Instrumentos de Medición Científica: Paradigma de Simplificación para Constreñir la Polisemia Significativa de la Realidad

Lic. González Ramos Ana María.

 

Palabras Clave: Variable métodos multivariantes, ciencia avalorismo, labor científica, cualitativo cuantitativo, medición lenguaje matemático, ciencias físico-naturales, ciencias sociales variable multivariante.:

Resumen
Universidad de Cádiz. Tomar medida a los instrumentos de medición científica supone analizar los paradigmas subyacentes a la elaboración científica. El presente trabajo establece un somero análisis de las diferentes aportaciones que los clásicos más influyentes realizaron para construir el actual estatus de la Ciencia. Se establece una aproximación a ciertos aspectos centrales para la elaboración científica, como el concepto de variable; la distinción entre metodologías cuantitativas y cualitativas, y, finalmente, un intento de clasificación de los métodos multivariantes estadísticos.

Estas tres vertientes ponen de manifiesto en nuestro discurso, el precario equilibrio existente entre la objetividad científica y la pluralidad de perspectivas para "aprehender" la Realidad. La inclusión de ruidos en la segura actividad científica es un hecho, demostrado "científicamente" por diversos autores y en distintos contextos. Queda así demostrado que los métodos matemáticos tampoco quedan exentos de la incertidumbre propia de nuestra compleja forma de percibir.

[English]

Artículo

Ejercicio Científico y Lenguaje Matemático

Medir Constantes en Base a Variables. Tomemos como punto de partida una reflexión introductoria sobre la naturaleza del trabajo científico. Me refiero a la utilización de variables como elementos estables, a pesar de que un examen etimológico de esa palabra indica todo lo contrario: instrumento para medir la variabilidad presente en la realidad. Variable es algo que varía, que es modificable o que puede adquirir diferentes modos. Ésta es precisamente la idea implícita en la definición clásica de este instrumento de medida (Linton Freeman, 1971:18):[Llamamos variables a aquellas] características observables de algo que es susceptible de adoptar distintos valores o de ser expresadas en varias categorías.

En la investigación tratamos de establecer cuáles son las pautas de regularidad de los fenómenos, tomarles el pulso sobre un instante en un espacio concreto de la realidad, para luego prescribir cómo van a modificarse o cómo van a ser afectados por la variable tiempo. El trabajo de un científico se mueve en la intersección de estas dos dimensiones: 1. La evidencia de que los fenómenos estudiados son diacrónicos. Todo y todos estamos afectados por el cambio. Nada es estable y, sin embargo,2. La dimensión sincrónica de los fenómenos es indispensable para fijar nuestra percepción y no divagar por los diversos aspectos del objeto de estudio.

El científico sabe, como sabemos todos, desde que el paradigma científico propuesto por Galileo fue aceptado por la comunidad científica, que nuestro planeta está en constante movimiento, pero la percepción humana no es consciente de ello, a no ser que ponga una atención especial para descubrirla. Esta actividad bien podría ser, al menos, protocientífica. Para ser riguroso y metódico, el investigador debe fijar su atención en un núcleo central del problema y considerarlo constante, obviando su transformación casi inapreciable pero continua ("todo fluye" como decía Heráclito). El objeto de estudio se estima inmutable al menos durante el proceso de descubrimiento, pues, de otro modo, su estudio sería impracticable.
Sin embargo, es innegable que los resortes que lo definen están siendo permanentemente renovados y que también cada vez se consideran valores diferentes que desechan a otros, los que el avance científico habrá evidenciado como inadecuados para la comprensibilidad del fenómeno. Por lo general aceptamos que las variables sean constantes y que las podamos medir. De lo contrario, si las variables son diferentes cada vez que hacemos una medición (tal y como son de hecho en la realidad sensible), no podríamos aceptar un principio imprescindible de la metodología científica positivista: la fiabilidad del objeto de estudio, es decir, que todo investigador tenga igual comprensión y sentido del mismo objeto de estudio.

Reducción de la Polisemia

Como dice Jesús Ibáñez (1991: 54), todo se acopla a un paradigma de simplificación. Simplificar es una de las bases epistemológicas de la ciencia. Está presente de distintas maneras en cada operación. Se apela a ella bajo diferentes denominaciones y con distintos objetivos. Mediante el supuesto de la navaja de Okham, se considera que la forma más correcta de elaborar una hipótesis consiste en describir, de la forma más simple posible, la relación entre los elementos que atraen nuestro interés de estudio. En el mismo sentido podemos evocar el principio de parsimonia usado en las aplicaciones informáticas de la ciencia estadística, según la cual los fenómenos deben explicarse con el menor número posible de elementos.

En conclusión, el trabajo analítico responde al principio de que una buena solución es la más sencilla y de fácil interpretación. En el descubrimiento, el científico debe hacer la declaración de haber encontrado una serie de factores que intervienen: un conjunto de hechos libres de valores, evidentes, claros y válidos para todos los observadores, es decir, la determinación de los factores explicativos más simples. La polisemia, por tanto, podría definirse retóricamente como la operación de desnudar la complejidad del fenómeno o describir cada una de las piezas del rompecabezas, con la intención de dar una imagen sencilla de él.

Este es el artificio de que se vale el científico para dar legitimidad a su interpretación de la realidad. A todo ello se llega mediante la racionalidad y el pensamiento lógico, mucho más creíbles parar el resto de la opinión pública si se tiene una prueba matemática y unos datos numéricos con qué avalarlos. ¿Pero por qué están los números libres de toda duda y, por el contrario, las letras y las palabras son consideradas siempre engañosas y contaminadas por el pensamiento subjetivo de quien las pronuncia? Como sostienen algunos autores, sólo a través de una metodología empírica los resultados obtenidos van a considerarse social y científicamente relevantes.

Esa tarea requiere la abstracción de los contenidos particulares antes de llegar a su síntesis global (Casas Aznar, 1989: 187). Para medir, actividad científica por excelencia, es necesario borrar las singularidades, es decir, convertir lo que observamos en algo aplicable a un grupo de cosas similares. Incluso, aunque tengan identidades independientes, hay que reunirlas y considerarlas comunes entre sí. A través de este procedimiento, a todos los elementos englobados bajo un mismo conjunto, les asignamos las propiedades observadas en alguno de ellos: decimos que nuestros conocimientos sobre un factor son generalizables a todos los de su misma especie. Este es el funcionamiento habitual en los estudios muestrales o en los diseños experimentales. Está en el sustrato de cualquier procedimiento inferencial.

La cualidad de las matemáticas consiste en aportar a las distintas ciencias técnicas, un lenguaje formal de abstracción que extrae la especificidad de los elementos de la realidad. Ésta, como hemos dicho, es variable y compleja, pues normalmente se nos presenta a los sentidos en todas sus modalidades, en influencia mutua. Con las matemáticas todos los detalles se separan, cada elemento se diferencia, y se los convierte en un conjunto común si pueden asimilarse a una propiedad concreta, si es posible que tengan un mismo sentido.

Matematización de las Ciencias

A pesar de que la mayoría de las veces la distinción entre las ciencias sociales y las ciencias físicas o naturales se enfoca desde una perspectiva de oposición, ésta no se debe a una auténtica dicotomía, sino a su origen epistemológico, descrito por los historiadores de las matemáticas y las ciencias modernas. La polémica, generalmente enunciada como de oposición entre la exactitud de las ciencias físicas y la imprecisión de las ciencias sociales, no es real, tal y como pasamos a demostrarlo. Para esto debemos retrotraernos a la génesis del paradigma que define la materia científica o, dicho de otro modo, hasta el momento en que se delimita en qué consiste y cómo debe ser elaborado el conocimiento científico, lo cual nos remite al modelo propuesto por Newton.

El modelo de matematización de la naturaleza se produjo en el contexto de un fuerte debate entre dos modalidades de trabajo. Por una parte, el mecanicismo de la naturaleza de Newton la hace estrictamente cuantitativa, extensiva, "descualitativizada", global y universal, puramente identificable dentro del espacio "euclídeo" homogéneo e isótropo. Leibniz, por el contrario, trata de respetar la vitalidad y la diversidad de la naturaleza. La considera llena y no vacía. En el Sensorium Dei ofrece una imagen de carácter local y no global, como el espacio euclídeo. Esta idea "leibnizniana" ha sido recuperada en la ciencia contemporánea por autores como Prigogine y Stengers, pero, de hecho, el triunfo sigue siendo para Newton, pues es el paradigma unánimemente aceptado por la comunidad científica.

El buen hacer científico se construye mediante métodos que reducen la polisemia de la naturaleza y la sociedad, para garantizar la univocidad y la simplicidad de los hechos reales, no el que muestra la variabilidad de significados presentes en cada elemento natural. Estas ideas de simplificación pueden leerse en "el primer manual del científico": El Discurso del Método, donde Descartes definía de este modo la tercera regla a seguir por todo metodólogo (Descartes, 1988: 51): conducir por orden mis pensamientos comenzando por los objetos más simples y más fáciles de conocer, para ascender poco a poco, como por grados, hasta el conocimiento de los más complejos; y suponiendo incluso un orden entre los que no se preceden naturalmente unos a otros.

Y esto se consigue de la mejor forma posible a través del álgebra y la geometría (Descartes, 1988: 52-53):Pero por eso tuve el propósito de intentar aprender todas esas ciencias particulares que comúnmente se denominan matemáticas; viendo que, esas ciencias, todas coinciden en no considerar otra cosa más que las diversas relaciones o proporciones que en ellos se hallan. Siguiendo la aritmética y la geometría, según Descartes, hasta un niño conseguiría encontrar el mismo resultado que cualquier otro "espíritu humano", al investigar la misma cosa. De este modo, es evidente la naturaleza especial de esta disciplina. Las matemáticas se erigen como un lenguaje esencial y una herramienta imprescindible para dotar de soluciones únicas, claras y evidentes a cualquier fenómeno estudiado.

La Inclusión de la Ambigüedad en los Principios Científicos

Siempre me he preguntado cuál es el mecanismo por el que un joven con aspecto descuidado, mal vestido y mal afeitado, compra el billete del tren, mientras que una señora de clase media pasa desapercibida entre los que intentan viajar sin pagar, favorecida por el descuido del interventor. Si por casualidad el joven A no llevara su billete, se llevaría una buena regañina del señor interventor; sin embargo, si la mujer B no llevase su billete, probablemente él mismo emitiría uno sin hacer ningún comentario, convencido del despiste de la señora.

Si en vez de ocupar el papel de actor en esta historia, adopto el papel de investigadora, me encontraría con una dicotomía a la hora de planificar el diseño de la investigación. Podría manejar dos explicaciones diferentes siguiendo perspectivas totalmente distintas, que me conducirían a enfoques diferentes e igualmente correctos para describir (o explicar) la misma situación.

Matemáticamente, tanto el joven A, como la joven B, son elementos contables y tienen las mismas características y propiedades. Por lo tanto, ambos están obligados del mismo modo a pagar el billete y seguir las normas con criterio de igualdad. Significativamente, sin embargo, el problema no es contable, al menos para el interventor, a quien es útil esta investigación. Para acaparar esta segunda situación, tendremos que introducir elementos difusos en la investigación, si entendemos por esto que nos veremos obligados a realizar otras operaciones distintas al recuento de unidades. Sólo así tendremos una visión acertada de cómo funcionan los mecanismos de percepción del interventor, que hacen diferente al joven A de la señora B, aunque sean unidades con las mismas características y propiedades contables.

Los dos enfoques explican la realidad desde espectros diferentes. El primero es un problema algebraico y métrico, que trata las unidades como elementos semejantes cuando son dos personas distintas; sin embargo, el segundo valora en forma diferente dos personas con idénticas características en cuanto a la pertinencia de nuestro objeto de estudio, es decir, son pasajeros que utilizan el mismo servicio.
Tradicionalmente se considera esencial, para tomar parte en la tarea científica, evitar los ruidos, lo subjetivo y la ambigüedad. Es preciso partir del vacío (el espacio euclidiano) para definir la univocidad y la unidimensionalidad de los conceptos, que permitan desarrollar la ciencia positiva según el paradigma científico dominante. Pero nadie niega hoy que el paradigma ha sufrido serios reveses en el mantenimiento de su estado puro y, además, es imposible que no se introduzcan ruidos, de una u otra manera, a lo largo de todo proceso de investigación (entendamos la investigación como una labor continuada, fruto del trabajo de todos los científicos, sobre una sola materia).

La primera brecha se debe a la inclusión del principio de incertidumbre de Heisenberg y la segunda, a la conceptualización de la relatividad de Einstein (Ibáñez 1994: 6-7), que transforman las relaciones entre el sujeto y el objeto científicos. Dichas cesuras determinan que cualquier medición hecha sobre un elemento de la realidad, transforma el objeto medido. Por lo tanto, el objeto medido depende del sujeto que lo mide, de lo cual se desprende la existencia de más de un centro de coordenadas en cualquier explicación objetiva y científica de la realidad.

La introducción de estas nuevas perspectivas en la labor investigadora, cuestiona la pertinencia del proceso reductor de los fenómenos sensibles a dimensiones unívocas y unidimensionales, pues considera la naturaleza polisémica de los fenómenos. Nos obliga a considerar más de una forma de encarar el problema, e incluso a utilizar esas dos metodologías supuestamente opuestas, de forma complementaria: la unidimensionalidad lógica matemática y la pluralidad significativa cualitativa, tal y como se ha mostrado en el ejemplo anterior. Además, contrariamente a lo que se aduce en las discusiones metodológicas clásicas, estas dos perspectivas no corresponden únicamente con el enfoque realizado con una metodología u otra, ya sea cuantitativa (matemática o estadística) o cualitativa (propia de las ciencias sociales).

A estas dos formas de acceder al problema también se puede llegar desde las matemáticas. Poniendo un ejemplo referido al análisis factorial, Harman prescribe (1980: 48-49, el subrayado es nuestro):En cualquier campo científico los fenómenos observados pueden describirse de muchas maneras, que son todas ellas consistentes. La elección de una interpretación particular debe entonces depender de su utilidad (...). Del mismo modo, el problema factorial está indeterminado en el sentido de que, dadas las correlaciones entre las variables, los coeficientes del patrón factorial no quedan unívocamente determinados; se pueden elegir sistemas de factores ortogonales o incorrelados, consistentes con las correlaciones observadas, de una infinidad de maneras. Esta aplicación estadística multivariante nos sirve para demostrar la no univocidad de las soluciones.

Por el contrario evidencia la pluralidad de significados-interpretaciones diferentes que pueden adquirir unos mismos datos, empleando las mismas estructuras algebraicas y espaciales matemáticas. En este caso, esta herramienta matemática utiliza una solución leibnizniana: el problema no tendría una solución única, sino varias, según el método a seguir, igualmente válidas, aunque con resultados numéricos diferentes. En otro sentido, pero aún relacionado con la multiplicidad del lenguaje lógico formal, Lizcaino (1993: 39-64) demuestra que el pensamiento de que existe una única historia de las matemáticas es un error: no hay una, sino muchas matemáticas. La ciencia matemática, como la concebimos en la actualidad, ha sido forjada por cada sociedad cultural, que no pudo crear otra, sino la accesible a su forma de ver la realidad.

Las matemáticas son, no otra cosa, más que un reflejo de la explicación parcial, de la visión particular, de ver el mundo (Lizcaino, 1993: 42):Lo observaremos, por ejemplo, en la disposición lineal de las ecuaciones algebraicas, que reproduce la linealidad de la estructura discursiva del "algebra retórica" de herencia griega, frente a la disposición matricial de las ecuaciones chinas, donde el significado de cada palabra/símbolo depende de su posición en la frase/columna en la que se inscribe y de la posición de ésta respecto de las restantes. El tipo de "número negativo" o de "cero" que cada una de estas álgebras/sintaxis permite -o impide- aflorar será sustancialmente diferente.

¿Qué nos queda de la aseveración sobre las matemáticas como disciplina de exactitud y paradigma de objetividad, si tampoco de ellas podemos excluir la "ambigüedad"? ¿Cómo podemos aún sostener la validez del lenguaje formalizado, generalizador de las propiedades distintas de la realidad, que las mantiene constantes incluso a pesar del cambio y del paso del tiempo?

Medir los Instrumentos de Medida Utilizados en los Procedimientos de Análisis Multivariantes: El Problema de Simplificar hasta la Clasificación

Para definir los distintos métodos y técnicas multivariantes, debe tenerse en cuenta el número y la naturaleza de las variables que intervienen en el proceso explicativo de las mismas. Señalar la naturaleza de los elementos intervinientes en el análisis estadístico, no sólo es considerar si las variables explicativas son categóricas o continuas, sino también qué finalidad se propone el investigador al ponerlas en relación: si desea clasificarlas; establecer una conexión causal entre ellas; si utilizará un criterio de dependencia, o si pretende reducirlas a factores más simples.

La labor de clasificación de los diferentes métodos multivariantes de análisis estadístico no es sencilla, pues hay que decidir qué reglas son las más adecuadas. Cada autor incide sobre un aspecto diferente, generando diferentes tipologías. Los criterios utilizados para clasificar los procedimientos multivariantes operan simultáneamente, superponiéndose entre sí (Lozares y López, 1991: 15). Bisquerra (1989: 14) afirma que las técnicas multivariantes no son mutuamente excluyentes. Las clasificaciones no reflejan suficientemente las relaciones complejas que existen entre los diversos tipos de análisis. Por ejemplo, algunos métodos son un caso particular (por ejemplo, la T2 de Hotelling respecto a la varianza) o una generalización de otros (la correlación canónica de la regresión múltiple).

El resultado es una tipología confusa, en la que los autores definen un mismo método en forma contradictoria. Por ejemplo Bisquerra clasifica el análisis factorial como un modelo explicativo-causal, mientras que Ezequiel Uriel establece que el objetivo de este método es simplemente reducir los factores a ciertas dimensiones. Otro ejemplo es la disparidad de criterios a la hora de establecer qué tipo de variables deben intervenir en un modelo de regresión: las variables independientes deben ser continuas, según Lozares y López (1991), o continuas y categóricas, según Uriel (1995).Ensayar otras Medidas de Clasificación.

Tomarles medida a los instrumentos de medición no puede quedarse en una mera descripción de los criterios establecidos a lo largo del tiempo por los distintos autores, máxime cuando esta "tipologización" se muestra tan ambigua y poco determinante. La dificultad de establecer una medición no debe desanimarnos para encontrar otros recursos más idóneos de clasificación (Bunge, 1999: 145), quizá intentando buscar un sentido más profundo, subyacente a la globalidad del problema. La finalidad es ayudar al investigador a encontrar el mejor método para planificar su trabajo de análisis, orientando sus acciones en pro de la rigurosidad científica.

Stevens establece una clasificación de los instrumentos de medida en cuatro niveles de evaluación: La medida nominal, que distribuye en órdenes, establece clases entre los objetos. Por eso dice que los nombra, los nomina. La medida ordinal clasifica esas categorías en grados. De ellas se puede extraer un cálculo lógico, pero no matemático. En cambio las medidas de intervalo y de razón permiten tomar una medición métrica intensiva y extensiva, respectivamente, de acuerdo a sus relaciones comunes. Sólo con este tipo de medición es posible proceder verdaderamente con operaciones matemáticas, pues sólo en estos dos últimos niveles se opera con números racionales.

Puede ocurrir que las dimensiones de alguna de estas formas no sean medibles a priori, pero en cualquier caso podrá realizarse una medición derivada de ellas, tal como ocurre algunas veces en las ciencias físicas (Ibáñez, 1985a: 92-93): Por ejemplo, la densidad y la temperatura son propiedades intensivas no medibles métricamente. Pero la densidad llega a ser medible de forma derivada si descubrimos que la relación peso/volumen es constante (d=p/v); la temperatura llega a ser medible de forma derivada si descubrimos que por dilación, es proporcional a la longitud (de ahí el termómetro de mercurio). La relación V=l2 (superficie del cuadrado en función del lado) permite medir un espacio extensivo.

De forma similar, nosotros trataremos de buscar un punto de conexión entre la clasificación de las escalas de medida univariantes y los procedimientos de análisis multivariantes, utilizando, como fieles positivistas, un mecanismo de simplicidad de los criterios. Partiremos del sentido prioritario de cada técnica multivariante. Hay algunas que pretenden exclusivamente explorar cuál es la fuente de variación, determinando la existencia de relación entre las variables, mientras que otras clasifican los diferentes atributos de sus valores, y otras más establecen el determinante causal de su variación, estableciendo el peso específico del efecto que se ejercen mutuamente. Igualmente, habría un tipo de análisis multivariante que nos remitiría a un nivel de análisis nominal.

Se pretenderían clasificar los factores en un sentido ordinal y, por fin, otros métodos simularían un tipo de medición de intervalo o de razón entre las variables consideradas métricas. Así, los distintos tipos de análisis multidimensionales corresponderían con los distintos niveles de clasificación y la finalidad práctica perseguida por el investigador. Siguiendo estos nuevos criterios, se obtiene el siguiente modelo teórico sobre la especificidad de los análisis multivariados. El análisis factorial busca la reducción de n variables en un número menor m de factores. Por ello resulta un método de escalación nominal, puesto que lo que se busca en este procedimiento es encontrar la interdependencia sistemática producida entre un grupo de variables observables, debida a una variable o factor fundamental que origina dicho conjunto de caracteres.

En el escalamiento multidimensional utilizado para proceder cuantitativamente en el análisis de contenido, se trata de explorar o establecer relaciones nominales en un conjunto de elementos, reduciéndolos a un número más pequeño de dimensiones o factores. Este procedimiento produce una clasificación extensiva no métrica de los términos analizados (Fernando Conde, en Delgado y Gutiérrez, 1995: 96-119). Otro procedimiento de clasificación lo proporciona el análisis de cluster, al que también sería aplicable lo dicho para las escalas multidimensionales. Al nivel ordinal del análisis multivariado corresponden aquellos métodos analíticos que clasifican o buscan una distribución espacial de los valores y las variables.

Este nivel es explicativamente superior, puesto que no sólo busca una denotación de los términos, sino que además intenta establecer la interdependencia que puede producirse entre distintas variables explicativas. En el análisis de correspondencias, por ejemplo, se representa la distribución y la localización de las variables ya obtenidas (Fernando Conde, en Delgado y Gutiérrez, 1995: 96-119). Un buen ejemplo de este tipo de análisis es el realizado por Pierre Bourdieu en La distinción.

Aunque la intención del análisis discriminante es determinar si los factores obtenidos son los mejores "predictores" del análisis, el procedimiento básico implica la clasificación de los individuos. Puede definirse como una técnica de asignación de individuos a grupos, a partir del conocimiento de sus características. Por ello es una técnica de extensión ordinal. A las medidas escalares de intervalo o razón corresponden aquellos procedimientos en que se establecen dependencias entre las variables o que proporcionan explicaciones causales entre los elementos analizados. Esta es la mayor pretensión de todo investigador, puesto que su trabajo completaría las cuatro misiones esenciales de la ciencia: describir, explicar, predecir, y, en consecuencia, actuar.

Este sistema explicativo ofrece un mecanismo suficientemente abstracto y general, como para aportar soluciones reales a problemas concretos expresados en incógnitas. Se incluyen en esta categoría los métodos de regresión múltiple, análisis de varianza, modelos log-lineales, correlación canónica y análisis de caminos.

Elasticidad de los Principios Normativos

La investigación es un proceso de reproducción de la realidad, así como de creación de significados sobre los fenómenos sociales o físicos que se ocultan a nuestro entendimiento. Nadie negará a estas alturas que es complejo cualquier concepto de la realidad, sea de la naturaleza que sea, físico o humano. El primer paso para simplificar la realidad a través del lenguaje lógico-matemático, es inscribir todas las dimensiones del fenómeno en un espacio euclídeo, mediante su estabilización en un espacio topológico. De esta forma se obtiene una estructura significativa, en base a la clasificación ordenada y jerarquizada de los elementos que componen el objeto de estudio.

Sólo a partir de la definición de un espacio local, homogéneo y unidimensional, pueden tomarse medidas estables del objeto de estudio; establecerse generalizaciones sobre la variabilidad de sus elementos, y componer categorías globales y uniformes para todo ese conjunto. Todo ello es imposible sin la consabida reducción de las dimensiones del problema, que permite la delimitación de los vectores explicativos del fenómeno que inmediatamente se incorporan a la medida, como ha sido demostrado por el principio de incertidumbre (Fernando Conde, en Delgado y Gutiérrez, 1995: 96-119).Para tal efecto, es decir, conseguir esa globalización o generalización de los resultados y sus contenidos significativos, los datos, los vectores y las mediciones responsables, deben sufrir una transformación de homogeneización.

Esto tendrá, incuestionablemente, el rechazo, por falta de homogeneidad, de algunos factores que no comparten semejanzas mutuas o no corresponden a los criterios normativos impuestos por el lenguaje matemático. En este sentido, Guttman (1979: 120) afirma que el rechazo de items que no "se ajustan" a la unidimensionalidad, es como rechazar la evidencia de que el mundo es redondo. La construcción de instrumentos de medida, como el caso de las escalas de actitudes, pretende hallar distribuciones multivariantes unidimensionales, consiguiendo, por el contrario, un universo de ítems para medir la población observada, que es multidimensional.

Por eso Guttman sostiene que el investigador suele forzar la escalabilidad de los fenómenos sociales. El hecho de que los fenómenos puedan traducirse al lenguaje de las cifras e inscribirse en el espacio euclídeo en forma de vectores, no significa que cualquier elemento pueda medirse con cualquier tipo de medida. No todas las medidas son absolutas, ni conllevan la precisión a las que se les hace corresponder, al hacerlas coincidir con las medidas adoptadas en el espacio euclídeo. Los análisis factoriales, por ejemplo, son, según Conde e Ibáñez, excesivamente metrificadoras. La reducción dimensional nos lleva a buscar unas estructuras latentes que permitan su linealización: las variaciones cualitativas se descomponen en variaciones de intensidad según las dimensiones principales.

Si se consigue por ejemplo la ecuación y=a1x1 donde x es la unidad de cada variable y a es un coeficiente de intensidad, los números no son necesarios para la linealización. No es necesario que los operandos, y menos los objetos, sean números, puesto que una estructura con esas propiedades es ya un espacio vectorial, y la realidad queda definida únicamente a través de una abstracción (Ibáñez, 1994: 53-54). Louis Guttman (1979:125) señala también que el análisis de escalas multidimensionales no métricas, no escala dimensiones; todo lo más, escala distancias. El término "escalabilidad multidimensional" se utilizó originalmente para escalar dimensiones, esto es, hallar una serie de coordenadas significativas que entre sí contuvieran la menor dimensionalidad, reproducida por los coeficientes de distancia observados entre los elementos.

La escala se usa para una variable unidimensional, puesto que la distancia es siempre unidimensional, incluso cuando se inscribe dentro de un espacio multidimensional, por lo que la escalabilidad multidimensional puede convertirse en un término contradictorio. MacKenzie (Delgado y Gutiérrez, 1995) analiza el trabajo de Pearson, en relación al establecimiento de una medida métrica para un nivel de medición nominal. Los coeficientes de correlación se habían establecido para variables escalares, sin embargo, la mayoría de las variables operativas con las que se contaba, eran variables nominales.

Por lo tanto, no alcanzaban el nivel de medida escalar. Para resolver este problema, Pearson forzó el análisis de correlación. Recurrió a la hipótesis de que las variables nominales no eran más que la expresión superficial de unas variables de intervalo más profundas. A pesar de que tanto Pearson como el resto de los matemáticos eran conscientes de que esto era un error, pues la idea era totalmente incorrecta, la medida se adoptó mayoritariamente, pues los supuestos prácticos eran más fuertes que los matemáticos. También las metodologías cualitativas, aquellas usadas tradicionalmente por antropólogos, lingüistas y sociólogos para buscar sentido en las palabras y en los discursos, son cada vez más susceptibles de un enfoque numérico para apoyar sus resultados.

Los investigadores cualitativos parecen percibir la necesidad de certificar sus descubrimientos a través del lenguaje formal matemático, que infunde legitimidad al ejercicio científico.Se aplicaron, por ejemplo, técnicas multivariantes al análisis de los calificativos aportados por una muestra de niños y niñas, quienes respondieron a una encuesta sobre la calidad percibida en el entorno de su ciudad, a través de adjetivos positivos y negativos. De los resultados se deduce que un 65% de los niños de Murcia, entre 5 y 9 años, afirma que lo más divertido de su ciudad es el TOYS'R'S (March, J.C. et al: 1994).

¿Dónde llevan los padres a los niños los sábados por la tarde? ¿Dónde se quedan mientras sus padres, ocupados durante toda la semana con sus trabajos, hacen la compra semanal en una gran superficie comercial? Los detractores de "este abuso estadístico" de las ciencias se preguntan si no es excesivo poner medidas numéricas a lo que ya se desprende de los datos por su propio sentido. ¿No está claro que los niños piensan que es más divertido jugar con consolas y videojuegos, sobre todo si anteriormente nos han contado que son feos los parques y sucio el río de su ciudad? En ese caso el afán "cuantitativista" es excesivo. Sólo sirve para justificar lo que ya sabemos, lo que podemos ver si nos acercamos al río o visitamos los parques desiertos de niños.


Cuadro 1

En cualquier caso ¿qué pasaría si los más avanzados métodos estadísticos no dieran unos resultados satisfactoriamente significativos y tuviéramos que rechazar la evidencia empírica? La pregunta crucial sigue siendo la misma ¿debemos flexibilizar los criterios normativos del lenguaje formal científico o simplemente nos confundimos al ponerles nombres a las cosas?: La escala nominal, de intervalo y de ratios no son escalas. Una escala nominal está desordenada por definición, por lo que no es una parte esencial de la noción de una escala (...). Existe un folklore ampliamente difundido acerca de "reglas" estadísticas míticas, que prohíben o permiten cálculos que incluyen "escalas", siendo tales reglas independientes del contexto.

Quizás los psicofísicos podrían sugerir una palabra mejor. (Guttman, 1979: 124).A lo mejor es que aunque el input inicial no sea completamente numérico, al convertirlos en datos numéricos para permitir su análisis multidimensional, el output ya queda convertido en un espacio métrico. A menudo, en un espacio euclidiano, un análisis de datos no métricos es generalmente en sus resultados, métrico. O quizás es que nos valemos de un razonamiento parecido al siguiente. Trabajamos con una variable de medida nominal, cuyos valores son duales y, por tanto, excluyentes y exhaustivos de la categoría que queremos expresar.
Podemos transformarla en una escala derivada, numérica y métrica, una variable dummy, donde, por ejemplo, 1 es hombre y 2 mujer. Es una transformación convencional, en cierto sentido. También los números son una expresión convencional de una sociedad, de un espíritu mental, de un estado o desarrollo científico de la humanidad que los genera (Lizcaino Fernández, 1993: 29).Un ejemplo más: si medimos hábitos de vida en las ciudades y queremos conocer dónde prefieren los ciudadanos pasar sus vacaciones de Navidad, los valores para expresarlos serían: "estar en casa" y "salir de vacaciones".

El total que representa la respuesta a este ítem es el 100% de la realidad, pues cada encuestado contestará a una de esas dos opciones. Una excluye a la otra, es decir, el contenido de la respuesta queda completamente definido con esos dos valores. Entonces podemos convertirlas en un número racional e incluso en una medida métrica. Alguien puede objetar que no han quedado definidas las respuestas inválidas y el "NS/NC", así como las mentiras de los encuestados y, de todas formas, la multiplicidad de la realidad. Pero no, incluso el silencio o el engaño de los encuestados, estarían expresados totalmente en la suma de estas dos variaciones de la respuesta: irse o quedarse, estar fuera o dentro del hogar.

Post-ScriptumQuiero señalar el carácter plenamente positivo de la crítica. Estos intrincados problemas de la ciencia son presentados aquí con la intención de que detengamos nuestra atención en ellos, con el objeto de buscar soluciones y obtener un mayor rigor en nuestro trabajo científico. Se intenta evitar la crítica fácil y negativa, manifestando la imposibilidad del tratamiento cuantitativo o cualitativo. La posición adoptada en este ensayo es de defensa a la actividad científica, pues, como ocurre en el campo de la medicina, el hecho de no haber vencido el simple y común resfriado no nos permite declararnos escépticos sobre el progreso médico.

Así ocurre también con la investigación en cualquiera de sus vertientes, física o social. La existencia de problemas hasta ahora sin solución no debe impedirnos el desarrollo continuo de la labor de clarificación, pues ésta permitirá, gracias a los esfuerzos de muchos investigadores, ir dando respuesta a los problemas.

Alaminos, A. (2000) Introducción a la sociología matemática. Técnicas de investigación social. Alicante: Editorial Club Universitario.

Bisquerra, R. (1989) Introducción conceptual al análisis multivariante. Un enfoque informático. Barcelona: PPU.

Bourdieu, P. (1988) La distinción. Madrid: Taurus.Bourdieu, P., Chamberon, J.C. y Passeron, J.C. (1973) El oficio de sociólogo. Madrid: Siglo XXI.

Bunge, M. (1999) La relación entre la sociología y la filosofía. Madrid: EDAF.

Casas Aznar, F. (1989) Técnicas de investigación social: los indicadores sociales y psicosociales. Teoría y práctica. Barcelona: PPU.

Cea D'Ancona, M. A. (1996) Metodología cuantitativa. Estrategia y técnicas de investigación social. Madrid: Síntesis.

Delgado, J.M. y Gutiérrez, J. (1995) Métodos y técnicas cualitativas de investigación en ciencias sociales. Madrid: Síntesis.

Descartes, R. (1988) El discurso del método. Madrid: Alhambra.

Freeman, L. (1971) Elementos de estadística aplicada. Madrid: Euramérica.

García Ferrando, M. (1985) Socioestadística. Madrid: Alianza Universidad.

Guttman, L. (1979) What is not what in Statistics. REIS, Madrid (6): 101-127.

Harman, H. H. (1980) Análisis factorial moderno. Madrid: Saltés.Ibáñez, J. L. (1985a) Las medidas de la sociedad. REIS, Madrid (29): 85-127.

Ibáñez, J.L. (1985b) Del algoritmo al sujeto. Perspectivas de la investigación social. Madrid: Siglo XXI.

Ibáñez, J. L. (1991) El grupo de discusión: fundamento metodológico y legitimación epistemológica. En: Latiesa, Margarita (coord.) El pluralismo metodológico en la investigación social. Sevilla: Servicio de Publicaciones de la Universidad de Granada, pp. 53-82.

Ibáñez, J. L. (1994) El regreso del sujeto. La investigación social de segundo orden. Madrid: Siglo XXI.

Kuhn, T. S. (1970) La estructura de las revoluciones científicas. México: FCE.

Latiesa, M. (1991) Análisis multivariable de tablas de contingencia: sistemas de ecuaciones y grafos.
Papers, Barcelona (37): 77-96.

Lefebvre, J. (1976) Introduction aux analyses statistiques multidimensionnelles. París: Masson.

Lizcaíno Fernández, E. (1993) Algebra e imaginario colectivo. Elementos para una sociología de las matemáticas. REIS, Madrid (Córdoba) (4): 39-64.

Lozares, C. y López, P. (1991) El análisis multivariado: definición, criterios y clasificación. Papers, Barcelona (37): 9-29.

Mac Kenzie, D. (1990) Comment faire une sociologie de la statistique. En: Callon, M. y Latour, B. La Science telle qu'elle se fait. Anthologie de la sociologie des sciences de langue anglaise. París: La Decouverte.

March, J.C., González, A. M. et al. (1994) Los escolares y la salud de la ciudad: un análisis de sus opiniones, en IX Jornadas de Salud Pública y Administración Sanitaria.

Sánchez Carrión, J.J. (2000) La bondad de la encuesta: el caso de la no respuesta. Madrid: Alianza.

Uriel, E. (1995) Análisis de datos. Series temporales y análisis multivariante. Madrid: AC.


[ Ejemplar Actual ]



Dirección General de Servicios de Cómputo Académico-UNAM
Ciudad Universitaria, M
éxico D.F.

>