Vol. 19, núm. 2 marzo-abril 2018

Cultura graffitera brasileña

Marco Tulio Pedroza Amarillas Cita

Resumen

En este artículo se describe la vivencia de internarse en la cultura graffitera brasileña a través de un recorrido por Rio de Janeiro, Curitiba, Feira de Santana, Salvador y Recife, cinco ciudades en donde nos encontramos por primera vez con tan imponente cultura. Mediante la investigación de campo, conversamos a profundidad con los sujetos que la conforman y comprendimos que la cultura graffitera brasileña se integra por dos culturas diversas entre si: la pixação y el graffiti de escritores. Una de las características más importantes de la cultura graffitera brasileña es que está constituida por las dos culturas mencionadas, y que simultáneamente en cada estado, en cada ciudad, en cada barrio, ambas culturas se diversifican aún más a través de las particularidades de cada uno de los sujetos que la practican.
Palabras clave: Brasil, graffiti, pixação.

Brazilian graffiti culture

Abstract

This article describes the experience of entering the Brazilian graffiti culture through a tour of Rio de Janeiro, Curitiba, Feira de Santana, Salvador and Recife, five cities where we find ourselves for the first time with such an impressive culture. Through field research, we talked in depth with the subjects that comprise it and we understood that the Brazilian graffiti culture is integrated by two different cultures: the pixação and the graffiti of writers. One of the most important characteristics of the Brazilian graffiti culture is that it is constituted by the two cultures mentioned, and that simultaneously in each state, in each city, in each neighborhood, both cultures are further diversified through the particularities of each one of the subjects that practice it.
Keywords: Brazil, graffiti, pixação.

Entre graffiti de escritores y pixação

Nuestro interés por el graffiti surge con el inicio del siglo XXI, un análisis del graffiti de escritores en la Ciudad de México junto con las identidades que genera fue el resultado de nuestra primera investigación (Pedroza, 2010). Dando continuidad a este tema, en una segunda investigación (Pedroza, 2012) definimos las características visuales de este tipo de graffiti en la misma ciudad. A partir del año 2014 tuvimos la oportunidad de investigar la cultura del graffiti de escritores y la pixação en distintas ciudades brasileñas. Como resultado de esta tercera investigación (Pedroza, 2016), realizamos un análisis comparativo entre las culturas del graffiti de escritores en México y Brasil. El artículo que el lector tiene entre sus manos presenta parcialmente los resultados de esta última investigación.

En 2014 realizamos nuestras primeras visitas a Brasil a través de las cuales percibimos dos culturas urbanas alternativas que se articulan: 1) la pixação y 2) el graffiti de escritores. Ambas se unen entre ellas, y simultáneamente a la cultura planetaria del graffiti de escritores. Para el año 2015 realizamos un período de dos meses de trabajo de campo durante el cual asistimos a importantes festivales dentro del calendario anual del graffiti brasileño. En este período convivimos con una cantidad significativa de escritores de graffiti y de pixadores originarios tanto de las cinco ciudades que visitamos (Rio de Janeiro, Curitiba, Feira de Santana, Salvador y Recife) como del resto de Brasil.

En nuestro planeta existen diversas identidades derivadas de la utilización de tags por parte de los sujetos para diferenciarse. A partir del surgimiento del tagging y del bombing neoyorquino en la década de 1960, la caligrafía urbana ha sido concebida como un estilo de vida para distintas culturas urbanas alternativas. Como es sabido, la escritura urbana se ha realizado a lo largo de la historia de la humanidad; sin embargo, sólo actualmente, es vivida como una identidad practicada en todo el planeta. El caso de Brasil es interesante pues la caligrafía urbana ha generado distintas identidades entre las que destacan la de los pixadores y la de los escritores de graffiti.

Los estilos que utilizan los escritores de graffiti en Brasil, son los utilizados actualmente por los graffiteros de todo el planeta. Algunos de los más utilizados en orden de aparición e importancia son: tag (o firma), escurrido (o drip), bomba (o bubble-letter), throw-ups (o vomitados), pieza (o piece), carácter (o character), 3-D (o three-D), wild-style (o estilo salvaje), top-to-bottom (o de arriba abajo), y producciones. Un tag es la firma de un escritor de graffiti, realizada de manera muy estilizada, veloz y por lo regular con un solo color de tinta o pintura. De este estilo de escritura de graffiti fueron derivando los otros que hemos mencionado.



Imagen 1. Graffiti de escritores, Curitiba, 11/09/14.
Producción realizada en Curitiba con caracteres (personajes) por los escritores de graffiti (de izquierda a derecha) AUMA originario de Curitiba, COF originario de Argentina, JAPEM originario de Curitiba, ACRA originario de Argentina y STEEP originario de Colombia, empleando pinturas en aerosol sobre muro con recubrimiento de concreto. Fuente: Pedroza Amarillas, Marco Tulio (2014).

Pixação es un estilo de graffiti exclusivo de Brasil, una cultura de escritura urbana alternativa basada en la ejecución de firmas sobre la ciudad entera y más allá. Los pixadores asocian la pixação a firmar, marcar, manchar, pero principalmente a la protesta y a la trasgresión. La pixação trasgrede la imagen visual de la mayoría de los espacios públicos de las ciudades por todo Brasil. Su estética trasgrede la estética hegemónica, dicha trasgresión implica firmar excesivamente todo lo que los pixadores encuentran a su paso, razón por la que está criminalizada.

La pixação puede ser definida casi en los mismos términos que el tagging, pues se realiza exclusivamente en condiciones ilegales de producción. Al igual que sucede entre los escritores de graffiti, los pixadores utilizan un tag en forma de apodo, alias o pseudónimo, y mantienen con él la relación que se tiene con un nombre propio. Este tag, deviene en un mecanismo que otorga al pixador una identidad pública, que le garantiza el anonimato hacia el exterior de su cultura y simultáneamente gana el reconocimiento de sus trabajos hacia el interior, esto puede ser expresado en distintos casos como: fama, prestigio, admiración o respeto.

En otro artículo (Pedroza, 2016) hemos realizado una tipología de los estilos de la pixação, la cual se originó en distintas ciudades brasileñas en la década de 1960 y se ha seguido desdoblando hasta la actualidad. Algunos de los estilos más utilizados en orden de aparición en la cultura de los pixadores son: pixo o pixação, tag recto, eternos, grapixo o pixo contorneado. Xarpi es una palabra utilizada exclusivamente entre los pixadores para referirse a la pixação, xarpi es pixar pronunciado al revés.

Rio de Janeiro

La ciudad de Rio de Janeiro, como cualquier entorno urbano, alberga una diversidad de culturas, y como entorno urbano brasileño alberga necesariamente las culturas urbanas alternativas de la pixação y el graffiti de escritores. Comenzamos dimensionar la diversidad en la pixação y el graffiti brasileño a través de las charlas que tuvimos Gustavo Coelho quien en 2011 dirigió el video documental Luz, Câmera, Pichação. Coelho explica que existen diferencias entre la pixação de las ciudades de Rio de Janeiro y São Paulo, esas diferencias se refieren principalmente a las características de las tipografías utilizadas por los pixadores de cada ciudad. En São Paulo las caligrafías son rectilíneas y de grandes dimensiones, en Rio de Janeiro las caligrafías son curvilíneas y con dimensiones menores.

BOBI fue el primer graffitero que conocimos personalmente en Brasil durante nuestra primera visita a la ciudad de Rio Janeiro en septiembre de 2014, él nos presentó a otros escritores de graffiti de la ciudad: KAJAMAN y NEXT2. Estos tres graffiteros forman parte de la organización de uno de los festivales mas importantes de esta ciudad, ellos lo definen como el mayor evento de graffiti voluntario del mundo: Meeting of Favela (MOF). MOF surge como contraposición al festival internacional nacido en Alemania llamado Meeting of Styles (MOS) en el que la única manera de participar es mediante carta de invitación. Volvimos a Rio de Janeiro en noviembre de 2014 a presenciar la novena edición del MOF en Villa Operaria, en Duque de Caxias, Rio de Janeiro, en ella pudimos apreciar el diálogo y la interacción cultural que graffiteros de todo Brasil y de otros países tienen con esta ciudad.

Imagen 2. Pixação, Curitiba, 10/09/14.
Tags rectos realizados por pixadores desconocidos utilizando
pintura látex y rodillo sobre muro con recubrimiento de concreto.
Fuente: Pedroza Amarillas, Marco Tulio (2014).

Curitiba

Curitiba fue la segunda ciudad brasileña que conocimos en 2014, como en los otros escenarios urbanos investigados, la pixação y el graffiti de escritores se articulan con todas las culturas que conforman la ciudad. AUMA fue el primer graffitero brasileño que contactamos desde México, pudimos hacerlo gracias a EKER quien es el ejecutivo de ventas de la marca mexicana de pinturas en aerosol Ilegal Skuad. Posteriormente, EKER, nos puso en contacto con José Ángelo da Silva y Ana Luisa Fayet Sallas. Una pareja de sociólogos quienes también investigan la cultura de los escritores de graffiti en México, ambos imparten cátedra en la Universidad Federal do Paraná y en el Colegio de México.

Gracias AUMA tuvimos la oportunidad de documentar las prácticas y las narrativas de: TOM 14, graffitero curitibano quien vivió en la ciudad de Guadalajara, México; de CAFE, otro graffitero curitibano que gusta de imprimir en sus trabajos la temática de la cultura africana; de los pixadores GRYPE, LINGÜIÇA y BIDU, quienes paradójicamente practican indiscriminadamente la pixação y en algunas ocasiones el graffiti de escritores.

A través de AUMA conocimos a CIMPLES, uno de los pixadores más antiguos de la ciudad quien abandonó la práctica de la pixação por la de las Artes Visuales. CIMPLES definió la pixação de Rio de Janeiro por su pequeño tamaño y letras curveadas; la de São Paulo por su tamaño grande, y sus letras rectas y anguladas; y la de Curitiba por sus letras mas rectas y grandes que en São Paulo.

DAVIS, otro de los graffiteros curitibanos que conocimos mediante AUMA, comenzó practicando la pixação para posteriormente dedicarse a la práctica del graffiti de escritores exclusivamente. Es la cabeza de la organización del festival de graffiti curitibano Street of Styles y dueño de Capsula graffiti Shop. En 2015 volvimos a Curitiba para presenciar el festival, que al igual que el MOF también se opone al MOS.

Feira de Santana y Salvador, Bahia

En nuestro primer acercamiento a las culturas de la pixação y del graffiti brasileños, es decir, en 2014, tuvimos la oportunidad de asistir al 2º Encontro de graffiti de Feira de Santana, Bahia. Conocimos este encuentro gracias a BOBI, quien también nos presentó a graffiteros como KAJAMAN, NEXT2 y Heitor Corrêa de Rio de Janeiro; BIGOD, NOTEM, VIDAL, FUMAX, KBÇA, PIPIPNO, FTX y Julio Costa de Salvador, Bahía; MAO de São Paulo, CHERMIE de Amazonas, DEZA de Recife; y CAMELO y DNIELLE de Teresina, Piauí.

Después del encuentro conocimos el centro de Salvador y la Ladeira da Preguiça, donde los graffiteros locales realizan intervenciones constantemente. En esa ocasión se realizó una producción entre varios graffiteros que participaron días antes en el encuentro de Feira de Santana. En este lugar, conocimos a SINS un graffitero nacido en Australia quien fue el primero en establecer en Salvador, Bahia, una tienda especializada en graffiti.

A nuestro regreso en 2015 pudimos documentar la creación del festival de graffitiBahia de Todas as Cores” (BTC), el cual articuló la celebración de una reunión nacional de escritores de graffiti con un amplio programa de actividades y eventos de interés cultural-artístico que tuvieron lugar en diversos espacios públicos en la ciudad de Salvador, Bahia y más tarde en otros municipios. La primera edición del BTC, con sede en Salvador, se celebró los días 12 al 15 de marzo de 2015, este festival ya está considerado dentro del calendario anual de festivales de graffiti en Brasil.

Imagen 3. Pixação, Curitiba, 10/09/14.
Grapixo o pixo contorneado realizado por POBRES Crew, pixadores originarios de la
ciudad de Curitiba, utilizando pintura látex y rodillo sobre muro recubierto de concreto.
Fuente: Pedroza Amarillas, Marco Tulio (2014).

Recife

La última ciudad de Brasil que conocimos durante el trabajo de campo en marzo de 2015 fue Recife, acudimos a presenciar la 7ª edición del festival denominado Recifussion (RF7). Fuimos invitados a este festival por Nika Dias, integrante de la 33 Crew responsable de la realización de Recifussion. En el festival internacional de graffiti RF7 conocimos a otros destacados integrantes de la 33 crew como JOHNY C y AREM. Además de asistir al festival, simultáneamente pudimos conocer el barrio de Pina y el trabajo que realizan algunos pixadores locales para luchar contra el consumo de drogas y para fomentar la interacción de la comunidad.

En este importante acercamiento conocimos a los pixadores SHELLDER, STILO, MENOR, BOLADO, TAB e INSANO, quienes paradójicamente también son escritores de graffiti. Estos pixadores-escritores de graffiti pertenecientes a las Crews OSMO (Os Mais Odiados), ADP (Anarquistas Detonadores da pixação), 100 Parar (Sem Parar) y VQ (Varias Queixas), realizan un servicio social llevando graffiti a las comunidades menos favorecidas de esta ciudad. Dichas comunidades se encuentran en la periferia de la Favela de Bode y se componen de construcciones a las que denominan palafitas, las cuales son edificadas con madera y materiales reciclados a las márgenes del río. A esta acción de realizar graffiti de escritores en las comunidades constituidas por palafitas la han denominado Palaffiti.

Consideraciones finales

Como mencionamos al inicio, este artículo muestra parcialmente los resultados de nuestra tercera investigación (Pedroza, 2016) acerca del tema. Para realizarla utilizamos la propuesta epistemológica de Haidar (2006), de la cual utilizamos como ejes teóricos: la Epistemología de la Complejidad (Morin) y la Semiótica de la Cultura (Lotman). A partir de los ejes mencionados analizamos la cultura urbana alternativa de los graffiteros como una cultura planetaria. Consideramos que la cultura del graffiti de escritores comenzó a consolidarse en Brasil en la década de 1990, la cultura de la pixação se consolidó aproximadamente dos décadas antes, lo que le aseguró la existencia hasta la actualidad.

Planteamos que la cultura graffitera brasileña se compone por dos culturas complejas que se articulan con la cultura del graffiti planetario; nos referimos a la cultura urbana alternativa de la pixação y a la cultura urbana alternativa del graffiti de escritores. La primera posee un carácter marcadamente nacional mientras que la segunda posee un carácter planetario: en la primera los resultados de las prácticas son exclusivamente firmas o tags, mientras que en la segunda la tipología de estilos abarca tags, bombas, piezas, wildstyle, caracteres, producciones, etc.

Referencias

Vol. 19, núm. 2 marzo-abril 2018

La memoria en tiempos de la complejidad

Oscar Ochoa Flores Cita

Resumen

Ésta es una breve reflexión sobre la memoria colectiva a partir de algunos principios básicos de la complejidad y la transdisciplina, por ejemplo, la recursividad, la dialogicidad y los niveles de realidad, expuestos en términos tan sencillos como el tema lo permite. El primer apartado desarrolla los principios en términos de un pensamiento abierto a otras formas de conocer y se centra en varios niveles de la realidad, frente a un pensamiento lineal y mecanicista como el heredado del siglo XIX con respecto al tema de la memoria.
El segundo apartado se enfoca en describir la memoria como resultado de proceso evolutivo a partir de una estrategia de cooperación que facilitó a los seres vivos sobrevivir, lo que se expresa de tal forma en el trabajo grupal de neuronas, personas y especies.
En el tercer y último apartado se observa la parte emocional de la memoria, necesaria para fijar un recuerdo en el contexto social y cómo puede movilizar palabras o acciones para darle sentido a las sociedades cuando éstas se hallan en situaciones de extremas en las cuales es necesario recurrir a la memoria para reafirmar el origen y defender su presente.
Palabras clave: memoria, complejidad, transdisciplina, vida, sociedad..

Memory in times of complexity

Abstract

This is a brief reflection on the collective memory based on some basic principles of complexity and transdisciplinarity, for example recursion, dialogicity and levels of reality, exposed in terms as simple as the subject allows. The first section develops the principles in terms of a thought open to other ways of knowing and focuses on several levels of reality, as opposed to a linear and mechanistic thought as inherited from the nineteenth century with respect to the subject of memory.
The second section focuses on describing memory as the result of an evolutionary process based on a cooperation strategy that facilitated living beings to survive, which is expressed in such a way in the group work of neurons, people and species.
In the third and last section we observe the emotional part of the memory, necessary to fix a memory in the social context and how it can mobilize words or actions to give meaning to societies when they are in extreme situations in which it is necessary recourse to memory to reaffirm the origin and defend its present.
Keywords: memory, complexity, transdiscipline, life, society.

Ideas complejas para la actualidad

Todavía son escasos los esfuerzos por generar conocimiento más allá de la ciencia desarrollada en occidente, mediante la búsqueda del diálogo con otras formas de sabiduría como la que nos han legado los pueblos ancestrales; y todavía son más raros aquellos que lo hacen desde la complejidad, que en palabras de su principal exponente la define como “la incertidumbre en el seno de los sistemas ricamente organizados. Tiene que ver con los sistemas semi-aleatorios cuyo orden es inseparable de los azares que incluyen. La complejidad está así ligada a una cierta mezcla de orden y desorden…” (Morin, 2001: 35) cuyos principios rebasan el pensamiento lineal con el cual hemos sido educados toda la vida. La complejidad nos llevaría a pensar en la comunicación permanente entre los distintos niveles de la realidad, a considerar la relación recíproca entre causas y efectos, opuestos y complementarios, etcétera; pero debemos aceptar también que esto resulta muy difícil para muchos e incluso imposible para otros.

Hablar desde la complejidad y la transdisciplina significa, en sí, un riesgo que no muchos deciden correr, pues de un proyecto que involucre estas características se pueden obtener cuatro o cinco proyectos más. Debemos reconocer que, si ya es complicado lidiar con proyectos que dependen de una sola disciplina o de varias disciplinas o de la convergencia entre éstas, un proyecto transdisciplinario nos obliga a salir de los límites del conocimiento propio y pensar de forma distinta para buscar aquellas ideas que nos permitan elaborar conceptos o formas de investigar adecuadas, tal es el caso de un tema tan complejo como el que nos ocupa: la memoria colectiva.

En términos generales, la memoria se define como “la capacidad que tienen los organismos de mantener una respuesta a un estímulo sensorial después de que éste ha cesado […] opera a través de tres pasos básicos: codificación, almacenamiento y recuperación” (Consuegra, 2011: 181); y cualquier falla en alguno de estos pasos es donde se produce el olvido, como contraparte necesaria de la memoria.

Pero esta definición, que surge desde la psicología, deja fuera otros tipos de memoria, como la genética, la biocultural o la ecológica, por lo que una definición de más alcance nos ayudaría a comprender este fenómeno como un proceso que se recrea a sí mismo y tiene una función organizadora para cada organismo; una definición que abarque todo tipo de información, donde “las nociones de memoria, saber, información, programa sólo adquieren sentido en el seno de un aparato que resucite la memoria, que organice el saber, que transforme la información en programa, que decida la acción” (Morin, 2002: 151). Esto significa que la memoria se realiza en plenitud cuando se ejecuta en aquellos sistemas biológicos, psicológicos, sociales, culturales o ecológicos y forma parte de un sistema mayor; lo que puede observarse a nivel celular, psicológico, del lenguaje humano, en la vida social, en los símbolos compartidos por una cultura particular, y también en las relaciones que se dan entre distintas especies que forman un ecosistema.

En todos estos “instrumentos” la memoria se compone de: a) una clasificación de la información en distintos códigos; b) un almacenaje de la misma en “bancos de datos” como el ADN, los recuerdos, la palabra escrita, las instituciones, los signos y la riqueza biológica del suelo de un territorio, y c) la regeneración de la información que se manifiesta en la herencia genética de los seres vivos, en la organización de los saberes de cada sociedad y de las relaciones entre los organismos que participan de un ecosistema.

Cuando hablamos de las influencias recíprocas que hay entre los distintos niveles de realidad nos referimos a la comunicación permanente que atraviesa a éstos, generando la llamada dialógica, y entendiendo por niveles de realidad al conjunto de sistemas invariantes a la acción de ciertas leyes generales, donde esta comunicación permanente ligada a cada nivel, debido a la repercusión que hay en los tres niveles generales propuestos por Nicolescu: a) el nivel de la microfísica, b) el de la biología y los fenómenos psíquicos y c) el de lo social, las experiencias filosóficas y religiosas (1996).

De acuerdo con algunos estudiosos, el ser humano, que es parte del universo, nace de la unión de por lo menos tres tipos de memoria: genética, lingüística y cognitiva, como lo propone el mismo Víctor Manuel Toledo (2008), donde la memoria se presenta como una constante de la vida. Lo anterior significa que la memoria genética influye en la forma en que podemos hablar y conocer; así como la memoria lingüística afecta en la genética y el conocimiento a partir de la evolución que las lenguas han tenido a lo largo de la humanidad, modificando las zonas especializadas para el habla en el cerebro y la laringe. La memoria cognitiva ha influido en la memoria genética y la memoria lingüística a partir del conocimiento que la humanidad ha desarrollado sobre la genética y el lenguaje, lo que ha hecho posible revertir ciertas enfermedades desde el nacimiento, o crear terapias para resolver problemas del lenguaje y aprender más de éste como un sistema de comunicación innato de nuestra especie.

Aun cuando la distancia que hay entre cada nivel de la memoria humana es abismal (genética, lingüística y cognitiva), la influencia recíproca entre estos es evidente, pues mientras lo genético trabaja a nivel molecular y se expresa en los rasgos biológicos de nuestra especie, equipada con un cerebro de aproximadamente 100 mil millones de neuronas; lo lingüístico trabaja a nivel mental, materializándose en las distintas lenguas de la humanidad que recrean el mundo en cada palabra; y en el plano de los conocimientos se expresa en palabras y actividades grupales que atesoran el conocimiento de pueblos que por siglos han sabido mantener el entorno en el que viven y lo preservan para sus descendientes y para el resto del mundo.



La memoria, expresión de la vida

El cuerpo humano es consecuencia de la diversidad que ha evolucionado por millones de años para alcanzar un orden tan complejo que apenas comenzamos a entender en algunos de sus procesos, donde orden y diversidad han crecido uno a la par del otro; Víctor Toledo afirma que “desde una perspectiva termodinámica, el orden, que es la complejidad que existe en el universo, aumenta proporcionalmente con la diversidad […] Por esta razón, la evolución cósmica postula que la variedad aumenta a medida que aumenta el orden” (2008: 16). De esta forma el trabajo colectivo que ejercen las células que forman los tejidos de cada órgano en todo ser vivo se remonta a las primeras épocas de la vida, cuando los organismos unicelulares aprendieron que la supervivencia dependía de su capacidad para colaborar en tareas específicas para perpetuarse, dicha estrategia se propagó a los siguientes niveles de la vida.

Desde los trabajos iniciales de Charles Darwin, Alfred Russel Wallace y otros, el concepto de cooperación ha sido de gran importancia, pues “el paso de la evolución biológica a la evolución cultural, que comenzó con el homo sapiens, también fue posible gracias a la incorporación de modelos de cooperación en el cerebro humano, lo que permitió a los humanos evolucionar como especie” (Hoebeke, 2014), y que se contrapone a la idea general que la competencia entre los individuos de una especie, y de las especies entre sí, son la base de la evolución; esto posee una carga ideológica más que científica debido a la perspectiva que algunos pensadores hicieron sobre las poblaciones, como el economista Thomas Robert Malthus y su postura competitiva de la vida.

Así, desde los primeros organismos simples, que existieron desde que nació la vida, hasta los órganos más sofisticados como el cerebro humano, la cooperación ha sido la base de la supervivencia y la evolución de los seres vivos, perpetuando estos modelos cooperativos a nivel de las células de los individuos, de las especies y de los sistemas ecológicos, donde la comunicación tiene una función de vital importancia, pues la vida necesita transmitir energía, materia e información en estos niveles para continuar como proyecto de diversidad y orden.

La cooperación entre las células cerebrales para evocar recuerdos requiere de conexiones al azar, en lo que se conoce como plasticidad cerebral; ésta es la respuesta al refuerzo de una actividad o experiencia que se ha tenido. La memoria y el aprendizaje se generan a partir de las conexiones que se producen en las terminaciones neuronales llamadas dendritas, así como de la creación de éstas, las cuales activan grupos numerosos de neuronas para esta actividad, lo que representa un cambio estructural en el cerebro durante la formación de la memoria (Balderas y Bermúdez, 2007), por lo que la actividad de las neuronas no sólo representa un flujo continuo de energía eléctrica, sino la transformación constante del tejido cerebral a partir de la formación de la memoria.




Pero la incorporación de los procesos cooperativos del entorno en el cerebro representa algo más que adaptarse a los cambios del exterior; también adopta las formas de organización autónoma del entorno que permiten su recuperación a partir de sucesos perturbadores o destructores del mismo. Se ha demostrado que los ecosistemas poseen la capacidad de regenerarse y cicatrizar su espacio a partir de microorganismos y especies propias del suelo y, por lo mismo, la salud del suelo en un ecosistema opera como la base de su memoria ecológica (Montenegro, 2004). Lo anterior permite recuperar las especies nativas, así como las relaciones vitales entre éstas, además de reconstruir la dinámica de un ecosistema.

Esto nos permitiría hablar de una semejanza entre la organización del entorno natural con la organización del cerebro a nivel neuronal y equilibrar las relaciones entre sus componentes. Los flujos de materia y energía que los mantienen, posibilitan la recuperación de las perturbaciones que los propios sistemas propician, o de algunas externas que no atenten contra la base de su vida.



Sólo el recuerdo queda

A pesar de su alto grado de organización y diversidad, la vida tiende al agotamiento y a la desaparición, todo ser vivo muere; los cuerpos interactúan en el espacio y crean la dimensión temporal, además del desgaste y la transformación continua que los hará esfumarse. La frase que Marx escribiera en su Manifiesto Comunista encierra un grado de nostalgia y orfandad cuando expresa que “todo lo sólido se desvanece en el aire” para referirse a la pérdida de valor que tiene la vida cuando nos quedamos solos frente a nuestras condiciones reales de existencia en términos sociales; en este nivel también trabaja la cooperación entre los sujetos, para reconstruir algo tan escurridizo y necesario como la memoria.

Como ya se dijo, echar a andar la memoria significa poner a trabajar grandes grupos de seres vivos que, sin importar la escala (células, individuos, especies o ecosistemas), se relacionan entre sí para reconstruir la información ante una necesidad o ambiente que requiere de tal ejercicio. La recuperación del pasado es una forma de afirmar el presente y proyectarse en el futuro; por lo tanto, recordar en colectivo es una actividad social y política de los sujetos para ejercitar de manera abierta su palabra y acciones.

Los sujetos, como productos y productores de la sociedad, crean rasgos colectivos que les permiten diferenciarse de otros al tiempo que crean recuerdos en común y los atesoran en la tradición oral o en registros de todo tipo, pues la memoria de un colectivo tiende a corromperse y los recuerdos se modifican o se pierden, ya que “en el primer plano de la memoria de un grupo se descomponen los recuerdos de los acontecimientos y experiencias que se refieren a la mayoría de sus miembros, y que resultan de la propia vida…” (Hallbwachs, 2004: 45). Aun cuando estos recuerdos no garantizan la veracidad de lo ocurrido, son clave en la construcción de la identidad para estos grupos porque les permite negociar con la realidad, resaltando, modificando o eliminando hechos del pasado.

Además de su faceta relacionada con el conocimiento, la memoria tiene otra parte que es emotiva, pues no hay evocación que no se vea impregnada de emoción, ya que la palabra recuerdo, en su raíz latina significa re (volver hacia atrás) cordis (corazón), volver a algo mediante el corazón; y esto nos hace ver que la emoción es parte fundamental de la memoria, pues ahora sabemos que la capacidad de retener sucesos, lugares o personas en la mente implican la emoción. No importa la naturaleza de las emociones, la mente las utiliza como ancla de la memoria. De tal forma que hay recuerdos placenteros que se evocan una y otra vez, y otros que por su violencia podrán ser eliminados de la memoria de un grupo de manera inconsciente o selectiva, pero siempre con la finalidad de conservar la identidad y estabilidad del grupo social.

Existe otra forma de olvido social que ocurre cuando se manipulan o destruyen las bases materiales en las cuales se deposita la memoria de un grupo, “olvido que puede encumbrarse omitiendo, relegando o destruyendo memorias. Memorias que pueden desdibujarse demoliendo los materiales con que se crean.” (Mendoza, 20015: 130), lo que de inmediato nos lleva a pensar en la destrucción de templos y códices por parte de los españoles al momento de su llegada, por lo que recordar para muchos grupos es una forma de resistencia frente al invasor y al poderoso que busca borrar la memoria de los oprimidos.



A partir del amarre emocional y de la dimensión política entendemos que la memoria no sólo se encuentra funcionando en lo microscópico y de manera silenciosa, ejecutando en cada célula de nuestro cuerpo el programa genético que heredó de nuestros antepasados; también nace de lo individual como una muestra de la memoria colectiva que se forma con la participación de todos los que vivieron en el pasado y que viven en el presente de una comunidad, utilizando el lenguaje como un marco general para transmitirla y reconstruirla; y se manifiesta más allá de los grupos humanos, en las relaciones que establecen comunidades de especies nativas de un ecosistema para reconstruir el entorno en el que viven cuando su hábitat ha sido perturbado.

Conclusiones

La complejidad y la transdisciplina todavía tienen mucho que aportar al mundo contemporáneo, sobre todo ante la necesidad de enfrentar problemas que nacen de las condiciones sociales, económicas, políticas, culturales y ecológicas actuales, que exigen formas novedosas e incluyentes para abordar los problemas. El tema de la memoria es un ejemplo de cómo se pueden tender puentes hacia terrenos poco visibles desde un pensamiento lineal y mecánico. Vemos cómo un nivel puede influir en otro, desde la genética hasta el conocimiento, la memoria aparece como hilo conductor de la especie humana.

También se ha observado cómo la memoria es resultado de una estrategia más amplia que han desarrollado los seres vivos en su evolución para sobrevivir exitosamente. La memoria no sólo es un mecanismo de conocimiento que trabaja en lo individual, sino un patrimonio colectivo que alcanza su mayor punto cuando los sujetos comparten esos conocimientos y refuerzan el saber grupal, fortaleciendo a la sociedad a la que pertenecen. La colaboración permite que sobreviva el más apto debido a que coopera con su comunidad y aporta trabajo, saberes, recuerdos, imágenes y formas de convivencia entre sus semejantes.

La fortaleza del grupo se expresa muchas veces en situaciones de riesgo, cuando se enfrenta condiciones o grupos adversos que atentan contra su integridad, y la memoria colectiva recupera sucesos, lugares, personajes que activan el sentido de origen, los cuales se cubren de símbolos para mover a la emoción e impulsan otros tipos de memoria, siendo la emoción un componente básico de la memoria que involucra lo genético, al liberar hormonas que preparan al cuerpo para situaciones críticas o favorables; lo lingüístico, en las lenguas que atesoran una forma de recrear el mundo; y lo cognitivo al representar conocimientos que han sido transmitidos por generaciones en un entorno cada vez más hostil para las culturas ancestrales frente a los riesgos que representa el mudo actual para muchas sociedades que resisten una globalización que violenta su forma de ser, pues en última instancia la memoria es una forma de conservar la identidad y la vida en sociedad.

Referencias

  • Balderas, M. I. y Bermúdez, F. (2007). Modificaciones estructurales del cerebro durante la formación de la memoria, en Ojeda Martínez, Rosa y Mercadillo Caballero, Roberto, De las neuronas a la cultura. Ensayos multidisciplinarios sobre cognición, (pp. 103-114). México, INAH-ENAH.
  • Consuegra, N. (2010). Diccionario de psicología, Bogotá, Ecoe Ediciones.
  • Halbwachs, M. (2004). La memoria colectiva. Zaragoza, Prensas Universitarias de Zaragoza.
  • Hoebeke, J. (2014). Breve historia del concepto de la cooperación en la evolución. Recuperado de http://www.jaimelago.org.
  • Mendoza García, J. (2015). Sobre memoria colectiva. Marcos sociales, artefactos e historia, México, UPN.
  • Montenegro, R., et. al. (2004). Biología evolutiva humana, Córdoba, Editorial Brujas.
  • Morin, E. (1986). El Método. El conocimiento del conocimiento, Madrid, Cátedra.
  • Morin, E. (2001). Introducción al pensamiento complejo. Gedisa, Barcelona.
  • Morin, E. (2002). El método. La vida de la vida. Madrid, Cátedra.
  • Nicolescu, B. (1996). La Transdisciplinariedad. Manifiesto. Mónaco: Ediciones Du Rocher.
  • Toledo, V. y Bassols, N. (2008). Memoria biocultural. La importancia ecológica de las sabidurías tradicionales. Barcelona, Icaria Editorial.

Vol. 19, núm. 3 mayo-junio 2018

La naturaleza de la luz

Luis de la Peña Cita

Resumen

En este artículo se da una introducción a la naturaleza de la luz a través primero de una breve revista a la larga batalla del hombre por alumbrarse de noche. Se examinan a continuación las dos respuestas básicas que se dieron históricamente a la pregunta sobre la naturaleza de la luz. La última parte trata sobre la influencia profunda de la física del siglo XX (la relatividad y mecánica cuántica) en nuestra concepción de la luz, para terminar, comentando sobre algunos temas relativos a nuestra percepción del color.
Palabras clave: partícula, onda, onda electromagnética, fotón, espectro.

The nature of light

Abstract

This article starts with a brief introduction to the nature of light through a short review of the long battle of human beings to produce some light at night. We then examine the two basic answers given historically to the question about the nature of light. In the last section we recall the influence that the physics of the 20th Century (relativity and quantum mechanics) has had on our conception of light, to conclude with some comments about our perception of color.
Keywords: particle, wave, electromagnetic wave, photon, spectrum.

La naturaleza de la luz

Tenemos la luz tan a la mano, tan cercana, que podríamos decir que la conocemos como a nuestra madre o a nuestro hermano. Pero en realidad, si analizamos con cuidado, veremos que empezamos a entender qué es la luz hace cosa de doscientos años, lo cual es relativamente poco si lo comparamos con la historia de la humanidad. Y si no sabíamos qué es la luz, tampoco podíamos explicar qué son y por qué se dan los colores. ¿Qué es la luz? ¿De dónde surgen los colores? Y en la luz blanca, ¿de qué manera se nos ocultan los matices que la componen?

La luz a nuestro alcance
Imagen 1. La luz a nuestro alcance.

No nos extrañaría que un niño de seis o siete años nos hiciera alguna de estas preguntas. Sorprendido, habría descubierto que no puede sujetar un poco de luz entre sus dedos, aunque siente el calor que ésta le dispensa. La realidad, sin embargo, es que la mayor parte de la gente no sabría contestar preguntas como éstas.

Mucho antes de interesarse en la naturaleza de la luz, a nuestros antepasados les preocupó aprender a producir luz, por razones que no es difícil comprender. En la Tierra, hace cuatro mil millones de años, sólo brillaban el Sol, la Luna y las estrellas. Desde entonces y hasta ahora el Sol es la fuente más importante de energía en nuestro planeta. Toda forma de vida en la Tierra depende de su presencia, directa o indirectamente. El Sol nos calienta e ilumina, hace que las plantas produzcan el oxígeno que respiramos y fabriquen nuestros alimentos y el de los animales.

Para vencer el frío y la oscuridad nuestros antepasados crearon fuentes de luz y calor. Durante cientos de miles de años el hombre de las cavernas sólo contó con fogatas y más tarde con antorchas para calentarse, iluminarse y alejar los peligros de la noche.

El Homo heidelbergensis
Imagen 2. El Homo heidelbergensis comenzó a utilizar el fuego desde hace 1,4 millones de años.

Hace apenas 13 000 años aparecieron las más primitivas lámparas de aceite de llama abierta, en conchas y recipientes similares. El progreso resultó lentísimo: apenas 500 años antes de la era común se inventaron en Roma las lámparas de aceite con recipiente de reserva –de barro, piedra o metal, simples o elegantes–. Algunas de ellas continúan en uso en lugares apartados, lo que significa más de 13 000 años de servicio. Además del cuchillo o la flecha, ningún otro dispositivo iguala este éxito. Poco tiempo después apareció la vela de cera de abeja, la cual iluminó los grandes salones de baile de los palacios reales. Van ya 2 500 años de fabricar velas de cera. El día de hoy se emplean en la decoración y ambientación, o para espantar olores o insectos. Su uso como fuentes de luz es ya muy menor y circunstancial.

Transcurrieron siglos antes de que ocurriese otro acontecimiento importante en este terreno, pero ya no milenios. Fue así como en el siglo XVI Leonardo da Vinci dotó a la lámpara de aceite de una chimenea para aumentar su brillo y estabilidad. Hacia 1800 Humphrey Davy inventó en Inglaterra la lámpara de arco, en la que arden dos barras de carbón entre las que salta un arco eléctrico continuo. Fue la primera lámpara eléctrica, sólo que alimentada con las ineficientes baterías de la época, que se agotaban al cabo de unos minutos. Poco después, en 1814, apareció la lámpara de gas, que continuó iluminando las calles por casi un siglo, y en 1853 comenzaron a emplearse también lámparas de keroseno. Para entonces los faros de los puertos ya habían adoptado la lente de Fresnel (una lente convergente plana y ligera), lo que fue un paso importante para la seguridad de los barcos: un faro dotado con una lente de Fresnel señalaba con una luz más intensa los lugares de riesgo para la navegación. En todo ese tiempo las casas, los castillos y los palacios continuaron calentándose con leña producida con energía proveniente del sol.


Imágenes 3, 4 y 5. Ejemplos de lámparas de aceite a lo largo del tiempo. Fuente: rootsimple.com, iStock.

Fue en 1879 cuando Thomas Edison (en Estados Unidos) y Joseph Swan (en Inglaterra) llegaron independientemente a un invento que transformó nuestra vida: la lámpara eléctrica incandescente, la que nosotros conocemos como foco, y que de inmediato comenzó a alumbrar casas y calles. A partir de ese momento la técnica de la iluminación artificial avanza a otro ritmo. Casi cada diez años se da un paso importante en la conquista de la luz para alumbrarnos. A finales del siglo XIX llegó la luz de neón y de otros gases (y otros colores), producida al ionizarse el gas con la ayuda de una corriente eléctrica. Poco después se eleva la eficiencia de la lámpara incandescente por un factor de tres al llenarla con un gas inerte. En la década siguiente, la lámpara de sodio de baja presión, en la que la fuente de luz es vapor de sodio, se convirtió en indispensable para la seguridad en las carreteras. Diez años después se generalizó la lámpara fluorescente de mercurio por su alta eficiencia.

A mediados del siglo llegó la fibra óptica, eficaz transmisora y guía de la luz. La fibra óptica es para la luz lo que los cables de cobre han sido para la electricidad. Para 1960, el láser se convirtió en una realidad y hoy invade todos los laboratorios ópticos y nuestros hogares y bolsillos con los CD y DVD, los lectores de códigos de barras, etcétera. Las ciudades mejoraron su iluminación poco después por medio de la lámpara de sodio de alta presión, que resulta mucho más eficiente y económica que sus antecesoras. No tarda sino una década en aparecer la lámpara fluorescente pequeña, que pronto sustituye a las lámparas incandescentes usuales por resultar tres veces más eficiente, pues no derrocha energía en generar calor. Ésta, a su vez, fue rebasada a finales del siglo xx por la lámpara led (siglas en inglés de “diodo fotoemisor”), que resulta diez veces más económica que la incandescente (además de ser fría) y tres veces más que la fluorescente. Y están por venir las lámparas láser domésticas…

Con todo este progreso, el Sol sigue siendo el rey: la iluminación artificial no sólo resulta incomparablemente más pobre y localizada, sino que se alimenta de energía que proviene… del Sol.

Con el paso de los siglos, mejoraron las formas de sustituir parcialmente al Sol. Al mismo tiempo, lo fuimos conociendo mejor a él y a la luz que nos regala. Por un lado, la astrofísica desentrañó el misterio de la fuente de energía que le da vida, descubriendo que se trata de una forma de energía nuclear que se libera al fusionarse núcleos de hidrógeno para producir núcleos de helio y convertirse, una parte ínfima de la masa nuclear, en radiación. El Sol nos alumbra comiéndose a sí mismo, como lo hace cualquier otra estrella viva. Hoy sabemos que nuestra estrella va a la mitad de su vida, así que le quedan aún cosa de seis mil millones de años para seguir iluminándonos.

Simultáneamente fuimos entendiendo el alma de la luz. Durante miles de siglos (la antigüedad del género Homo del que somos parte se estima en 2.5 millones de años) no supimos (quizá ni nos interesó saber) de que está hecha la luz. Sabemos desde hace poco más de 200 años la fórmula H2O del agua; así como la composición de esa mezcla principalmente de oxígeno y nitrógeno que es el aire. Y la luz, ¿de qué está hecha la luz? La respuesta que recibió esta pregunta en la antigüedad fue inocente: de luz. Se supuso, cuando finalmente surgió la pregunta, que la luz estaba compuesta de ínfimas particulitas de luz. Se requirió que transcurrieran siglos para que, cuando el siglo XVIII daba paso al XIX, el médico y científico inglés Thomas Young demostrara con un experimento definitivo que la luz no es una sustancia de naturaleza atómica como todo lo que vemos con ayuda de la luz –y aun lo que no vemos, como el aire—, sino una onda. El experimento consistió en demostrar que al superponer apropiadamente dos haces de luz se obtienen zonas iluminadas y oscuras alternadas (es decir, regiones con luz y regiones sin luz). Esto es propio de las ondas (es el fenómeno de interferencia de ondas), imposible de obtener con partículas: nunca sucedería con canicas, por ejemplo, porque encimando canicas es imposible obtener regiones sin canicas. La idea de la posibilidad ondulatoria giraba ya en la mente de algunos investigadores, pero Young la transformó en un hecho comprobado mediante su experimento. Esta innovadora propuesta entraba en contraposición con la idea que se había heredado de Isaac Newton, quien con sus avanzados estudios sobre la luz había reforzado la conclusión de que está constituida por pequeñísimos corpúsculos luminosos que la materia atrae y puede desviar. La propuesta de Young, apoyada como estaba en un experimento definitivo, en poco tiempo se transformó en la teoría dominante, liberándose, no sin sus trabas, del enorme peso de la figura de Newton.

Surgió entonces la pregunta natural: ¿ondas de qué?, ¿qué es lo que ondula si el espacio entre la Tierra y el sol está vacío? Poco a poco se fue conformando una respuesta, al retomar una vieja idea presocrática que consideraba que el espacio no está vacío, sino lleno de un elemento muy fino, el elemento del que están hechos los cielos. Se le llamaba éter y se le tomaba como la quinta esencia, pues había que sumarlo a los cuatro elementos que se creía que constituyen el mundo material (aire, agua, tierra y fuego). Los físicos del siglo XIX —los filósofos naturales— adoptaron este mismo nombre para el supuesto elemento extraordinariamente ligero y elástico que proponían llena el espacio y sirve de soporte a las vibraciones luminosas.

Durante ese mismo siglo XIX se hizo la luz sobre la naturaleza de la luz y sus vibraciones. El gran físico escocés James Clerk Maxwell, estudiando los fenómenos electromagnéticos, llegó a una conclusión inesperada, lo que representó una de las más brillantes síntesis de la física: la luz es de naturaleza electromagnética, es una onda constituida por vibraciones eléctricas y magnéticas engarzadas entre sí de una manera muy específica. Las ondas electromagnéticas pueden tener cualquier frecuencia de vibración, y dependiendo del valor de ésta, constituyen ondas de radio, o microondas, o infrarrojas, o visibles, o ultravioletas, o rayos X, o incluso rayos gamma (en orden creciente de frecuencia). El reducido intervalo de frecuencias que corresponde al espectro visible queda perdido entre el resto de bandas electromagnéticas, al centro de la lista, como se muestra en la figura 1; si no fuera por la enorme —inmensísima— importancia que tiene para nosotros, permanecería perdido, ya que sólo ocupa una región pequeñísima del espectro, apenas entre 400 y 750 nanómetros (1 nanómetros = 10−9 metros, o sea la millonésima parte de un milímetro). Esto representa una octava. En cambio, el oído humano registra 8-9 octavas sonoras.


Figura 1. Espectro electromagnético y espectro visible (muy ampliado). Fuente: wikipedia.org.

El éter se entendió como el medio en que se propagan las ondas electromagnéticas en general, no sólo la luz. El espacio volvió a llenarse de éter, ahora aún más diluido y más elástico que en la antigüedad para ser capaz de soportar ondas transversales (vibraciones perpendiculares a la dirección de propagación) como son las electromagnéticas, sin ser arrastrado por el movimiento de la Tierra.

A partir de los trabajos de Maxwell y de otro gran científico británico, Michael Faraday, la teoría electromagnética y sus aplicaciones se desarrollaron con notable ímpetu. Este proceso dio lugar al surgimiento de la industria eléctrica y de comunicaciones, lo que vino a transformar de manera significativa y favorable nuestra forma de vida. En particular, al lado de la electricidad doméstica, urbana e industrial, apareció el radio, que representó en su momento el uso más importante y útil de las ondas electromagnéticas. El éter, que si existiera se nos deslizaría de las manos tan ligeramente como la luz, seguía siendo considerado el soporte de la radiación electromagnética, se tratara ahora de luz visible o invisible (radiofrecuencia u otra frecuencia).

Así entramos al siglo XX, en el que se construyen las dos grandes teorías físicas que lo caracterizan: la teoría de la relatividad y la teoría cuántica. Ambas teorías tuvieron mucho que decir sobre la luz. La naturaleza electromagnética de ésta no se alteró, pero adquirió un rostro diferente del que nos pintara la física clásica heredada del siglo XIX. Por un lado, la teoría de la relatividad niega el éter, simplemente por no ser necesario, pues lo que vibra son precisamente las componentes eléctrica y magnética de la onda. Las ondas electromagnéticas son una forma de materia, aunque no se trata de materia atómica, como explicamos a continuación. El punto está en que las ondas electromagnéticas portan energía (energía electromagnética) y esta energía E equivale a una masa m dada por la más famosa fórmula de la física, E=mc2 (c representa la velocidad de la luz en el vacío). Algo análogo sucede con la masa de la materia común (la materia atómica), pero la masa electromagnética no está constituida por átomos, sino por energía pura, radiante. Así, la luz propagándose representa energía que viaja por el espacio libre. No requiere éter para ello.

Lo que acabamos de decir es parte de una de las más ricas ideas que produjo la física del siglo XIX, debida precisamente a Faraday y Maxwell: los fenómenos eléctricos o magnéticos que se dan en el espacio representan un fenómeno físico y energético real. Esto significa que hay algo físico en ese espacio. A ese algo eléctrico o magnético (o gravitacional, podemos agregar) distribuido en el espacio se le llama campo eléctrico o magnético o electromagnético (o gravitacional), según sea el caso. Estos campos son algo real, tan real como la materia atómica, pero de naturaleza enteramente diferente. Por ejemplo, el campo electromagnético es tan real que podemos ver o sentir una porción de él, cuando se trata de luz visible que alcanza nuestros ojos, o de radiación infrarroja que calienta (o quema) nuestra piel. Concluimos que el tejido del mundo está compuesto de materia (atómica) y de campos; descubrir esto y elaborarlo fue otra de las grandes contribuciones a nuestra comprensión de la naturaleza del mundo, y de la luz en particular. Debemos agregar a esto que en la actualidad está en discusión la naturaleza de inmensas regiones cósmicas (se estima que el 96% del universo) que se consideran ocupadas por materia oscura y energía oscura. En este caso, con el calificativo oscuro se reconoce nuestra total ignorancia de su naturaleza: si se trata de algo conocido o novedoso es asunto del futuro.

La luz, pues, se propaga en el vacío. Resuelto esto, pasamos a la teoría cuántica, la que tuvo tantas cosas y tan radicales que decir sobre la luz, que conviene antes de entrar al tema aclarar a qué se refiere la mecánica cuántica. En breve (y de manera un tanto excluyente) podemos decir que la mecánica cuántica es la teoría física que debe aplicarse a los átomos y moléculas. Resulta ser una teoría muy rica, pero a la vez muy diferente de la física clásica. Por ejemplo, difiere de manera esencial de la mecánica (clásica) que conocemos por nuestra experiencia cotidiana. Una propiedad muy significativa de los sistemas cuánticos (electrones, protones, átomos, moléculas, etcétera) es que, al lado de sus propiedades como corpúsculos, poseen propiedades ondulatorias. Sucede en este caso lo opuesto a lo que sucedió a lo largo de los siglos con la luz: a ella se le consideró primero como corpuscular, y terminó siendo ondulatoria. A los átomos los consideramos (¡desde los griegos!) como corpúsculos, pero ahora debemos agregar que pueden comportarse (en ciertas condiciones) como una onda. La coexistencia de onda y corpúsculo es una peculiaridad universal de la mecánica cuántica. Desde esta perspectiva se nos podría ocurrir que el que ambas nociones hayan sido significativas para nuestra comprensión de la naturaleza de la luz no debe ser tan extraordinario, si acaso la teoría cuántica tiene algo que ver con la luz. Y sí, en efecto, así resultó: tiene mucho que ver y decir al respecto.

Es notable que el primer descubrimiento (en 1900) de un comportamiento cuántico se dio precisamente con la luz: la luz se reveló como un fenómeno con propiedades cuánticas. El calificativo cuántico se refiere aquí (y más en general) a que el intercambio de energía entre un campo electromagnético encerrado en una cavidad, y la cavidad que lo contiene (un horno, por ejemplo), se da por cantidades discretas. Esto es precisamente la idea que sugiere el término latino quantum, cantidad. La analogía más simple que viene a la mente es la del comercio contemporáneo: los productos molidos o granulados nos los venden en el supermercado en paquetes de uno, dos, cinco… kilos; y si se trata de líquidos, de uno, dos, cinco… litros; no podemos comprar siete gramos o 2.3 mililitros. A una conclusión similar llegó el físico alemán Max Planck después de insistentes esfuerzos por evitarla, pues la idea de “paquetes” (quanta) de luz de energía (fijada por su frecuencia) parecía descabellada. Pero los resultados experimentales lo obligaron a aceptarla, y pronto esta idea se convirtió en base para el estudio, primero de la luz, poco después de las propiedades cuánticas de la materia y, más tarde, de los campos en general. A estos paquetes de luz intercambiados se les conoce con el nombre de fotones.

Algunos años después (de 1905 a 1909) el joven Albert Einstein dio una interpretación más radical al fenómeno cuántico detectado en la luz (o sea en la radiación electromagnética, sea o no visible). Para Einstein, el comportamiento cuántico de la radiación se debe a que el propio campo electromagnético está organizado en cuantos de energía, o sea en paquetes independientes, fotones, cada uno con energía bien definida. Decir esto equivale a dotar al campo electromagnético (hasta entonces el paradigma de la continuidad) de una estructura corpuscular, discreta. Por su radicalidad, esta idea, aun proviniendo de Einstein (joven aún), tardó varios años en ser aceptada. Hoy en día, no sólo el campo electromagnético se concibe como compuesto por quanta, sino que a cualquier otro campo se le atribuyen también propiedades discretas. La visión heurística que sugiere esta descripción es simple: mientras se trata de un campo –digamos electromagnético para fijar ideas— de muy baja densidad, tal que dominan los procesos de interacción entre un fotón y un átomo, se requiere describir a este campo en términos discretos, es decir, cuánticos. Cuando, por lo contrario, se trata de un campo de alta densidad, donde interviene un enorme número de fotones, el fenómeno se nos manifiesta como un continuo, y debemos describirlo en los términos clásicos iniciales. La analogía con agua es inmediata: a escala molecular, el agua se manifiesta como una estructura discreta; a escala macroscópica (un vaso de agua, por ejemplo) se nos presenta como un continuo.

Parece conveniente insistir en la idea central: el lenguaje de los fotones es hoy universal; la luz nos llega a los ojos en torrentes que percibimos como clásicos. Pero en cantidades minúsculas es posible detectar los procesos discretos debidos a fotones individuales. La luz que vemos es concebida hoy, en conclusión, como formada por una plenitud de fotones; la cantidad mínima de luz que interacciona con un átomo aislado está formada, sin embargo, por un simple fotón, un paquetito de energía electromagnética que manifiesta su individualidad.

Terminemos regresando al principio, con la luz como un continuo. Quedó en el aire una pregunta: ¿y los colores?, ¿de dónde proceden? Fue siempre claro que el asunto de los colores atañe a la luz. Un recipiente de vidrio transparente azul pinta de azul su sombra, o de rojo si es rojo. Es claro: el color es luz. La primera clave firme de esto se debe a Newton, quien en su juventud estudió la luz, incluso escribió el más avanzado tratado sobre la luz hasta su época. Descubrió, entre tantas otras propiedades, que la luz blanca se descompone en un arcoíris al pasar por un prisma transparente. Y que, si al arcoíris así obtenido se le hace cruzar un segundo prisma transparente alineado con el primero, sale luz blanca nuevamente. Newton mostró con esto que la luz blanca está compuesta por luces de colores y la recombinación de ellos produce luz blanca.

newton
Imágenes 6 y 7. El experimento de Newton, según un artista y el disco de Newton se ve blanco al girar con rapidez.
Fuente: Smyth Academy

Surge entonces la pregunta ¿cómo percibimos los colores? Los colores, como tales, no existen en la naturaleza; son una percepción construida por el cerebro a partir de la información que recibe de los ojos. Algo similar ocurre con los sonidos: lo que existe en la naturaleza son vibraciones (del aire o de los cuerpos); cuando tales vibraciones llegan a nuestros oídos producen impulsos nerviosos que el cerebro transforma, interpreta, como sonidos: a diferente frecuencia de vibración corresponde diferente tono. En el caso de la luz, a diferente frecuencia de la luz que incide en nuestros ojos, diferente color nos ofrece el cerebro. Así, tanto los sonidos como los colores son obra (¡obra maestra!) de nuestro cerebro. Nuestro cerebro enriquece a la naturaleza.

Los millones de conos (células que reaccionan a la luz) que posee una región de la retina humana están especializados en distinguir con mayor eficiencia los colores rojo, verde o azul, que corresponden, respectivamente a las frecuencias menores, intermedias y mayores (o mayores, intermedias y menores longitudes de onda). A partir de estos tres colores el cerebro construye todos los colores que percibimos. Fue el mismo Thomas Young, descubridor del infrarrojo y que para ese entonces se había convertido en fisiólogo, quien propuso esta teoría de los tres colores. Antes de él la situación se percibía como sumamente compleja, pues se suponía que el cerebro respondía por separado a cada uno de los colores que percibimos, idea que da lugar a un galimatías.

El color que vemos de un objeto es el de la luz que refleja, no es una propiedad intrínseca del objeto. Los objetos no tienen color: se ven de color. Por esta razón, iluminando un objeto con luz de diversos colores, lo vemos de diverso color. La televisión aprovecha al máximo la suficiencia de tres colores para generar su variado colorido. Basta observar con una lente de aumento la pantalla del televisor para distinguir que cada uno de sus puntos luminosos está integrado por tres pequeñas fuentes de color. Normalmente se utiliza la combinación rojo, verde y azul, pero una impresora puede seguir otra regla. La prensa cotidiana y la imprenta a colores (y las impresoras caseras) aprovechan este fenómeno para generar la diversidad de colores, sólo que en la impresión la superposición de tintas es sustractiva (impide el reflejo): en este caso las tintas rojo, verde y azul mezcladas producen el color negro, es decir, el no color, que corresponde a la falta total de luz. Todo esto y mucho más se puede ver de manera atractiva en el Museo de la Luz de la UNAM.

¿Podemos decir hoy que ya conocemos a cabalidad la luz? Ni tratándose de la luz ni de ningún otro asunto podemos decir que ya sabemos todo. Mucho hemos aprendido con el desarrollo de la ciencia y del conocimiento en general, lo que nos ha permitido aprender a hacer multitud de cosas, aparatos e instrumentos de toda índole. El Homo sapiens ha dejado muy atrás a sus lejanos antepasados con la ayuda de sus manos y su cerebro. Pero seguramente ignoramos mucho más de lo que sabemos. Esto incluye a la luz, naturalmente. Por ejemplo, uno de los más importantes problemas que se plantea la física actual es el de estructurar una nueva y avanzada teoría que combine exitosamente a las teorías de la relatividad y la cuántica. Pese al enorme esfuerzo invertido en este asunto, se trata de una tarea aún pendiente. Seguramente el esfuerzo que se realiza en torno al problema algún día dará el fruto buscado. Algo novedoso tendrá que decir la teoría resultante sobre muchas cosas, en particular respecto a la luz. Hoy no sabemos aún qué y cómo lo dirá. Pero de una cosa sí podemos estar seguros: tenemos todavía mucho que aprender; y esto vale tanto en el terreno de lo social como en el de lo natural.

Referencias

Vol. 19, núm. 3 mayo-junio 2018

Diseño de iluminación: desarrollo, práctica y educación

Víctor Manuel Palacio Pastrana Cita

Resumen

El diseño de Iluminación es una profesión de reciente creación que congrega a diversos participantes, todos ellos con un alto interés por la luz y sus aplicaciones, así como especialistas que ponen en práctica un conjunto de conocimientos sistematizado para iluminar el espacio arquitectónico y educadores con capacidad auto formativa y vocación para transmitir lo aprendido de forma teórica y experimental.
En este artículo se comparten datos sobre los orígenes del diseño de iluminación, su evolución y constitución como una profesión formal.
Palabras clave: luz, iluminación, diseño, espacio, arquitectura, Richard Kelly.

Lighting design: development, practice and education

Abstract

Lighting design is a newly created profession that gathers diverse participants, all of them with a high interest in light and its applications, as well as specialists who put into practice a set of systematized knowledge to illuminate the architectural space and educators with the ability to formative self and vocation to transmit what has been learned in a theoretical and experimental way.
In this article we share data about the origins of lighting design, its evolution and constitution as a formal profession.
Keywords: light, lighting, design, space, architecture, Richard Kelly.

Comencemos con algunas definiciones…

Luz
Técnicamente se define como la banda del espectro electromagnético que es visible por el ojo humano, es decir, se trata de energía radiante que tiene la capacidad de estimular nuestra visión. Más allá de esta definición, la luz tiene diversos sentidos tanto en el mundo físico como en el intelectual, emocional y espiritual. La luz representa el conocimiento, la verdad, la claridad, la presencia de lo divino y una guía en la oscuridad. Todas estas ideas, desarrolladas por el ser humano e incorporadas en diversas expresiones culturales, hablan de la relevancia de la luz como fenómeno físico y a la vez como símbolo universal a lo largo del tiempo.

Luz
Imagen 1. Luz.


Iluminación
Con referencia a este artículo, la iluminación se entiende como la aplicación de la luz para contribuir al desempeño visual de las personas en sus diversas actividades. Las asociaciones profesionales dedicadas a este campo de estudio se refieren a la iluminación como el arte y ciencia de la aplicación de la luz.

Iluminación
Imagen 2. Iluminación.

Diseño de iluminación

Es la especialidad dentro del campo del diseño cuyo objetivo consiste en desarrollar soluciones de iluminación que contribuyan a crear la experiencia visual de los espacios en beneficio de las personas.

El diseño de iluminación, particularmente el enfocado a integrar la luz artificial en los espacios arquitectónicos, urbanos y de paisaje, se ha desarrollado a partir de conocimientos técnicos provenientes de la ingeniería en iluminación aunados a una visión estética que tiene raíces en la iluminación teatral y escénica, así como en otras ramas del diseño.

Imagen 3. Diseño de iluminación
Imagen 3. Diseño de iluminación.



Lámpara

En la industria de la iluminación, una lámpara es una fuente luminosa. Las lámparas pueden ser de muy diversos tipos dependiendo del principio que utilizan para producir la luz. Por ejemplo, lámparas incandescentes son aquellas que generan energía luminosa bajo el principio de la incandescencia consistente en elevar la temperatura de un material hasta el punto en que emite luz. Otro caso son las lámparas fluorescentes que utilizan la capacidad del fósforo para transformar radiación ultravioleta en luz visible como sucede con los tubos de luz por fluorescencia. Coloquialmente, una lámpara sería llamada “foco” en México o “bombilla” en otros países de habla hispana.

Lámpara
Imagen 4. Lámpara.






Luminario

Nuevamente, en la industria de la iluminación, un luminario es un equipo que integra una lámpara productora de luz, un sistema óptico como pueden ser reflectores o difusores, un cuerpo o carcaza y los componentes eléctricos necesarios para el funcionamiento de la fuente de luz. En el lenguaje común, el luminario es conocido como “lámpara” por ejemplo cuando nos referimos a un gabinete que contiene tubos fluorescentes utilizado en la iluminación de oficinas o bien, el equipo en la punta de un poste que sirve para el alumbrado público.

Luminario
Imagen 5. Luminario.

“La luz nos permite ver, nos estimula, informa y emociona. No existe la forma visual sin luz. Ella condiciona la forma en que percibimos el mundo y el cómo nos sentimos.” (1)

Major et al., 2005: 1.

Un poco de historia

El diseño de iluminación nace de forma casi espontánea como una especialización profesional. Entre sus antecedentes se encuentran la ingeniería en iluminación y el diseño de iluminación teatral, ambas profesiones resultado del uso práctico de la luz desde finales del siglo XIX.

El desarrollo de fuentes de luz eléctrica y su uso generalizado cambiaron la faz de las ciudades y la dinámica social preexistente. En 1906, Louis B. Marks impulsó la creación de la Sociedad de Ingeniería de Iluminación de América del Norte (Illuminating Engineering Society of North America, IESNA) en la ciudad de Nueva York. Marks era un ingeniero eléctrico y uno de los primeros profesionales que trabajaron como consultores en iluminación; en una carta dirigida a diversos colegas de la naciente industria, propuso la formación de la sociedad para “aquellos que estén especialmente interesados en las cuestiones de la luz y su distribución” (DiLaura, 2006: 10).

Nueva York
Imagen 6. La ciudad de Nueva York en 1951.

La ingeniería en iluminación nació y, a partir de ese momento, la IESNA se avocó al estudio de la luz y de su aplicación. De forma muy acertada, los fundadores decidieron crear comités especializados de expertos en diversos temas lumínicos para desarrollar conocimientos y difundirlos al público en general.

Al paso de los años, la IESNA se convirtió en la principal referencia técnica para los profesionales de la iluminación en Norteamérica y gran parte del mundo. Su manual (The Lighting Handbook) es conocido como la biblia de la iluminación y en su 10a edición recopila gran parte de los conocimientos actuales sobre la física y óptica de la energía radiante, el diseño de la iluminación y las mejores prácticas de acuerdo con sus aplicaciones. En dicha edición se “ha tomado conocimiento de diversos asuntos que impactan el diseño hoy en día: límites en el uso de la energía, los efectos espectrales en la percepción y el desempeño visual y la necesidad de ser flexibles en el proceso de determinar la iluminación que considera la edad del observador, la reflectancia de la tarea visual y su importancia” (DiLaura et al., 2011: prefacio).

A partir de las aportaciones técnicas de la IESNA, diversos profesionales adoptaron la ingeniería en iluminación como su actividad principal y comenzaron a optimizar la aplicación de la luz, desde su generación por diversas fuentes luminosas hasta su uso en tareas de alto desempeño.

La relevancia de esta asociación consiste en su capacidad para desarrollar y divulgar conocimiento de manera abierta a toda la comunidad de la industria lumínica y de campos de estudio afines.

Pero no fue sino hasta la década de 1950 que un arquitecto comenzó de manera formal y consistente a aplicar los principios del diseño a la iluminación. Richard Kelly “entendió la capacidad de la luz para dar forma al espacio y crear una sensación de conciencia visual que pudiera evocar un rango de emociones humanas” (Donoff, 2006: 5).

Richard Kelly
Imagen 7. Richard Kelly

Creando las bases del diseño de iluminación

En 1952, durante una reunión conjunta del Instituto Americano de Arquitectos (American Institute of Architects, AIA), la Sociedad de Diseñadores Industriales (Society of Industrial Designers, SID) y la Sociedad de Ingeniería en Iluminación de Norteamérica ya mencionada previamente; Kelly compartió sus ideas en un ensayo titulado “Lighting as an Integral Part of Architecture” (La iluminación como una parte integral de la arquitectura) (1952: 24-26).

Los principios establecidos por Kelly con respecto al diseño de iluminación, incluidos en dicho ensayo, describen los tres componentes básicos de una escena visual, a saber:

  • Focal glow. De difícil traducción, el término se refiere a una sensación de brillo que atrae nuestra atención como la luz que ilumina el escenario en un teatro, el baño de luz que recibimos cuando leemos bajo una lámpara en nuestro sillón favorito o la fogata en el campo que captura no sólo nuestra visión sino toda nuestra atención para socializar en torno a ella.

    Kelly menciona en su ensayo que el focal glow une partes diversas, vende mercancía, crea jerarquía y ayuda a la gente a ver lo importante.

    Focal glow
    Imagen 8. Focal glow. Fuente: ERCO.
  • Ambient luminescence. Es la luz del ambiente, la envolvente lumínica en nuestro campo visual es suave y uniforme, parece venir de las superficies propias y no de una fuente externa. Kelly se refiere a este factor como la luz ininterrumpida de una mañana nevada en el campo, la luz de la niebla en el mar y la bruma en un ancho río donde la rivera, el agua y el cielo se vuelven indistinguibles.

    Para Kelly, la luz ambiental produce imágenes planas, sin sombras en las cuales la forma desaparece, pero a la vez evoca la libertad del espacio y sugiere infinidad. En las personas produce quietud y tranquilidad.

    Ambient luminescence
    Imagen 9. Ambient luminescence. Fuente: ERCO.
  • Play of brilliants. El juego de la luz, de los puntos brillantes como las marquesinas de los viejos cines, los candiles de cristal en los salones de fiestas y la flama de una vela. También se trata del brillo del sol sobre el espejo de agua en una fuente o un vitral luminoso en una catedral.

    Aquí, el autor habla de un efecto luminoso que estimula el nervio óptico y después de él el cuerpo y el espíritu, haciendo alusión al efecto que la percepción de la luz tiene en nuestras emociones y su impacto en nuestras sensaciones.

    Play of brilliants
    Imagen 10. Play of brilliants. Fuente: ERCO.

La enunciación de estos tres principios marcó sin duda el punto de partida y la formalización de una nueva especialidad que hace uso de los recursos técnicos para generar emociones y sensaciones al integrar la luz en un espacio arquitectónico. Por primera vez, un arquitecto define principios que relacionan el valor de la iluminación con el espacio y las personas que lo habitan. Anteriormente, el enfoque predominante en la iluminación era exclusivamente el técnico que tiene por objetivo optimizar los recursos lumínicos en función del desempeño visual. La aportación de Richard Kelly desde el punto de vista teórico, pero también mediante los proyectos que realizó, marca un giro definitivo en la iluminación integrando la percepción visual, la relevancia del espacio y el impacto en las personas.

Y la obra de Kelly corresponde muy bien con el título de este artículo ya que fue arquitecto por educación profesional, diseñador de iluminación por elección de práctica profesional y educador por vocación, capaz de sintetizar ideas obtenidas en la experiencia para transformarlas en principios transmisibles a sus colegas y las generaciones posteriores.

El caso de Kelly no es único. De una forma un tanto orgánica, la evolución del diseño de iluminación y la incorporación de los practicantes ha seguido una ruta similar, como lo comenta Francois Chaslin en su introducción al libro La Conception Lumière (El diseño de iluminación). Chaslin hace un recuento desde finales del siglo XIX y de la forma en que las farolas de aceite en las calles de París cambiaron a fuentes eléctricas. De manera casi poética, describe cómo la luz artificial cambió la vida de la sociedad, afirmando que hemos matado a la noche. Y se refiere a los diseñadores de iluminación diciendo: “la nueva profesión del diseño de iluminación apareció, de estos ’iluminadores’, algunos habían sido ‘iluministas’ en el sentido técnico, otros ingenieros de diversas áreas, otros venían del cine o la fotografía, unos más eran artistas, decoradores, escenógrafos, arquitectos o diseñadores […] a falta de espacios educativos de formación y de estatus profesional, se han agremiado y, después de algunos años, elaborado una cultura común” (Chaslin, 2017).

El relato de Chaslin corresponde a sus observaciones de las actividades de los especialistas de la iluminación en Francia, pero sin duda es representativo de lo que ha ocurrido en otros países, incluido México.

París
Imagen 11. Las luces de París.

Crecimiento profesional y educativo en México

Los primeros diseñadores de iluminación en nuestro país comenzaron a hacer notar su presencia en la década de 1980, combinando profesionales provenientes de campos de la ingeniería, principalmente la eléctrica, con arquitectos, diseñadores industriales e inclusive profesionales de otros campos cuyo interés por la luz creció de manera notable.

Es de destacar por su liderazgo en esta materia al Arq. Gustavo Avilés, quien desde sus inicios como diseñador de iluminación logró atraer mucha atención sobre el potencial de la luz para transformar espacios, crear impacto visual y llevar la aplicación de la luz a una dimensión superior.

El Diseño de Iluminación como una especialidad con raíces en diversas disciplinas se desarrolla y evoluciona en la praxis para luego ser analizada, valorada y sistematizada por sus propios ejecutantes y convertida en disciplina académica.

Este proceso no es ajeno al de otras disciplinas, sin embargo, visto en el tiempo pareciera que actividades como la ingeniería, arquitectura, ciencias de la salud, ciencias sociales, etcétera, hubieran tenido su origen en la academia para, luego de haber instruido grupos de aspirantes, nutrir el campo profesional con nuevos practicantes.

¿Cómo se define una profesión?, ¿de qué manera se identifica una actividad humana como práctica profesional?

Evidentemente, aquellas especialidades que cuentan con una formación académica universitaria son reconocidas precisamente como profesiones y se acreditan mediante el título otorgado por la institución. En el mundo profesional es indispensable identificar el programa académico que se ha cursado, la institución que lo respalda y el título que se ha obtenido para poder afirmar que se es médico, historiador, diseñador industrial, administrador, etcétera.

Hablando del caso de México, durante la ya citada década de 1980, la Universidad Nacional Autónoma de México (UNAM) impartió algunos de los primeros cursos formales sobre la luz y sus aplicaciones a través de la Dirección de Educación Continua de la Facultad de Ingeniería. Los incipientes diseñadores de iluminación, entre los cuales se encuentra el autor de este artículo, asistieron con gran interés a estos cursos preparados y presentados por colegas que habían logrado sistematizar los conocimientos teóricos y prácticos de sus propias actividades para compartirlos en un ambiente académico.

Son de hacer notar las aportaciones del Ing. Sergio García Anaya como responsable de las materias de tecnología y fotometría, así como del Arq. Enrique Quintero a cargo del diseño de iluminación. Ambos iniciaron sus actividades profesionales en empresas especializadas, una fabricante de lámparas y la otra de luminarios respectivamente, tomando cursos impartidos de forma privada por las casas matrices en Estados Unidos y complementando con la información proveniente de la IESNA. No es casual que los tres profesionales mencionados sean en la actualidad los coordinadores de la especialidad en iluminación de la Facultad de Arquitectura de la UNAM.

Ejemplos similares se pueden encontrar en otros países de los cuales es notable el caso de David DiLaura, un ingeniero eléctrico especializado en iluminación que impartió cursos sobre la materia por más de 25 años en la Universidad de Colorado, creando un auténtico semillero de especialistas con impacto continental. Las aportaciones de DiLaura incluyen el desarrollo de los algoritmos empleados en los programas informáticos de cálculos de iluminación (sus alumnos son en la actualidad los principales desarrolladores de estos programas), innumerables ponencias y artículos técnicos, además de ser el editor general de la 10a edición del manual de la IES (en años recientes, el acrónimo se simplificó retirando las iniciales correspondientes a Norteamérica). Algunos mexicanos destacados en la industria como el Ing. Antonio Garza son egresados de la especialidad de la Universidad de Colorado y se han convertido posteriormente en profesores de materias de iluminación en múltiples instituciones académicas.

La teoría y práctica del diseño de iluminación, y por lo tanto los programas académicos desarrollados sobre la materia, incluyen conocimientos científicos proveniente de la física de la luz, desarrollos tecnológicos de la industria a nivel eléctrico y electrónico además de aportaciones de las ciencias médicas, particularmente en lo relativo a la fisiología de la visión humana que investiga los efectos visuales y no visuales de la luz. En la actualidad, las ciencias biológicas y ambientales aportan también datos relevantes a la aplicación de la luz y su impacto en los seres vivos y el medio ambiente.

Como disciplina creativa y de diseño, la transferencia de metodología y perspectiva propias de la Arquitectura y actividades afines como las artes escénicas, el diseño de interiores, el paisajismo, el Urbanismo e incluso el diseño de espacios comerciales o de exposición museográfica, conforman la visión de una especialidad que integra campos de conocimiento múltiples y se desarrolla como una actividad única.

El reconocimiento de la profesión

Los profesionistas y practicantes de una especialidad que no está acreditada por un programa académico establecido enfrentan retos para obtener el reconocimiento a sus capacidades y competencias. Los diseñadores de iluminación han entendido la necesidad de poner en valor esta especialidad y lo han logrado mediante diversas acciones.

En primer término, el diseño de iluminación ha conjuntado conocimientos de manera consistente y los ha sistematizado. Resultado de ello son los cursos de especialización ya mencionados, además de algunos muy relevantes a nivel internacional como los del Instituto Real de Tecnología de Suecia (KTH), la Universidad Politécnica de Madrid o la Universidad de Wismar, todos ellos en Europa y de los cuales hay un buen número de mexicanos egresados.

Caso especial es el de la Escuela de Diseño Parsons (Parsons School of Design) cuya maestría en Bellas Artes y Diseño de Iluminación es cada año fuente principal de nuevos profesionistas para la industria de la iluminación; de sus filas han egresado importantes profesionales mexicanos, algunos de los cuales forman parte de destacadas firmas de diseño en México y el extranjero.

Los practicantes del diseño de iluminación cuentan con asociaciones profesionales acreditadas que los agremian. De ellas cabe destacar la Asociación Internacional de Diseñadores de Iluminación (International Association of Lighting Designers, IALD) cuya labor en favor del reconocimiento de la profesión es fundamental en la actualidad a nivel internacional. Por mencionar un ejemplo, la IALD ha logrado posicionarse como un consultor para la Comisión Europea, parte de los órganos de gobierno de la Unión Europea, en temas relacionados a la iluminación. Tradicionalmente, han sido los fabricantes quienes tienen peso en la toma de decisiones y definición de normas, pero hoy en día las asociaciones de profesionales elevan la voz de sus miembros buscando tener una influencia positiva en el ámbito social y político.

Cabe destacar que en nuestro país la sección México de la IES y la región México de la IALD son activas y promueven de manera continua la cultura de la iluminación, el mejoramiento de la práctica profesional y la difusión del conocimiento de esta especialidad. Ejemplos de ello son el Seminario IES que cada año se celebra en la Ciudad de México y que permite difundir conocimiento actualizado a nivel nacional e internacional sobre la luz y la iluminación. En este seminario, la región México de la IALD colabora desarrollando actividades que ponen a los estudiantes en contacto directo con especialistas técnicos y de diseño a nivel internacional. Otras actividades son los cursos de iluminación básica y avanzada, las mesas redondas en exposiciones de la industria eléctrica y de iluminación, así como las ponencias de miembros de ambas asociaciones en foros muy diversos. Para información sobre estas actividades se pueden consultar los siguientes sitios web: www.iesmexico.org y www.iald.org en la sección de regiones.

La influencia de la comunidad profesional mexicana ha sido relevante a nivel de Latinoamérica, Norteamérica e incluso en Europa por la constante participación y logros de connacionales en eventos, proyectos y colaboraciones gremiales. Inclusive, la promoción del diseño de iluminación a nivel de medios ha fomentado el desarrollo de un programa de reconocimientos a proyectos de iluminación iberoamericanos por parte de medios electrónicos. De igual forma, la participación de mexicanos ha sido constante y relevante en el evento Encuentro Iberoamericano de Lighting Design organizado por un grupo de profesionales voluntarios sin fines de lucro que inició en Valparaíso, Chile en 2010 y ha pasado por Querétaro, México; Medellín, Colombia y Ouro Preto, Brasil. El próximo Encuentro tendrá lugar a partir del 21 de marzo en la ciudad de Colonia de Sacramento, Uruguay con la participación de más de 200 profesionales de la iluminación de toda Iberoamérica. Más detalles se pueden consultar en el sitio web: www.eild.org.

Una forma adicional de lograr reconocimiento y validación para una profesión es el desarrollo de certificaciones. A este respecto, el programa de Certificación de Diseñadores de Iluminación (Certified Lighting Designer, CLD) fue iniciado internacionalmente hace dos años y se encuentra en fase de crecimiento; hoy en día, hay 40 diseñadores reconocidos internacionalmente como CLD de los cuales dos se encuentran en México.

Luz y sociedad

El fin altruista de toda profesión está relacionado con su impacto en el ser humano, la sociedad y el medio ambiente. El diseño de iluminación tiene efectos en el desempeño visual de las personas, por ejemplo, en espacios de trabajo, pero también en actividades cotidianas en cualquier ámbito. Gracias a una correcta iluminación, las personas disfrutan sus alimentos sentados a la mesa de un restaurante, se desplazan de forma segura por las calles de una ciudad, aprecian una muestra de arte en una galería, conviven con sus amigos en la sala de estar de su casa bajo un ambiente cálido y acogedor, revisan con detalle las propiedades de la mercancía que compran en una tienda o admiran la belleza de un monumento histórico en el paisaje nocturno de su comunidad.

La iluminación crea atmósferas que impactan nuestro estado de ánimo y propician determinadas actividades. La percepción de un espacio cambia radicalmente cuando se utilizan fuentes de luz frías a diferencia de las cálidas. La luz uniforme nos comunica sensaciones distintas a la luz de acento. La dirección de la luz crea sensaciones, por ejemplo, cuando es ascendente crea sombras dramáticas y llama definitivamente nuestra atención. Las atmósferas son versiones distintas de un mismo espacio modificadas por la luz, la cual muestra su potencial transformador y su efecto en la vida del ser humano.

Finalmente, la luz tiene significados que interpretamos de manera intuitiva en ocasiones y consciente en otras. Mediante la iluminación, un espacio de culto adquiere carácter, invoca sensaciones y nos dispone a la introspección. La luz nos guía, atrae, captura y mueve, nos indica el camino y sin duda la utilizamos en nuestro favor. En el espacio público, la luz nocturna nos permite reunirnos y socializar, es la iluminación el factor que habilita la vida de la ciudad y sus habitantes cuando el sol se ha ocultado, y es la luz la que también nos relaciona con la oscuridad y nuestro reloj biológico, sin ella nuestro sistema nervioso no podría ponernos en alerta, disponernos a la actividad ni bajara el ritmo para enviarnos a descansar cuando el sol se oculta.

Citando a Mark Major y Jonathan Speirs de su libro Made of Light, “Para todo aquello que hacemos en la vida, la luz tiene un papel. La luz es un instrumento de comunicación; es energía y es magia. La luz es vida. Nuestro mundo está hecho de Luz” (2005: 1).

Referencias

  • CLD Commission (2015). Manual del Candidato. Para diseñadores de iluminación arquitectónica en ejercicio. Chicago: Certified Lighting Designer, CLD. Recuperado de http://cld.global/CLD/media/media/CLD-Handbook-Edits-June-17_ES-ES.pdf.
  • DiLaura, D. (2006). A History of Light and Lighting. EE. UU.: Illuminating Engineering Society.
  • DiLaura, D., Houser, K., Mistrick, R. y Steffy, G. (2011). The Lighting Handbook. 10th Edition. Nueva York, EE. UU.: Illuminating Engineering Society.
  • Donoff, E. (2006). Richard Kelly’s Three Tenets of Lighting Design. Architectural Lighting, AL 30th Anniversary.
  • James, P. (2018). Editorial. Mondo ARC. ILDS, 18.
  • Kelly, R. (1952). College Art Journal. EE. UU.: College Art Association.
  • LIB Chaslin, F. (2017). La Conception Lumière. París, Francia: Moniteur.
  • Major, M., Speirs, J. y Tischhauser, A. (2005). Made of Light. Basel, Switzerland: Birkhauser.

Vol. 19, núm. 3 mayo-junio 2018

El choque de estrellas de neutrones
y la alquimia del Universo

Miguel Alcubierre Moya Cita

Resumen

El origen de los elementos ha sido uno de los más grandes misterios de la ciencia desde hace siglos. Los descubrimientos de la primera mitad del siglo XX nos permitieron entender la estructura de los átomos y de los núcleos atómicos, y nos llevaron al descubrimiento de que los elementos pesados se forman en el interior de las estrellas a partir de la fusión de elementos ligeros como el hidrógeno y el helio. Sin embargo, elementos más pesados que el hierro sólo se pueden formar en procesos cataclísmicos, como la explosión de una supernova, o el choque de dos estrellas. La observación reciente del choque de dos estrellas de neutrones, proceso conocido como kilonova, tanto en ondas gravitacionales como en todo el espectro electromagnético, nos ha permitido comprobar que este tipo de eventos producen elementos pesados, en particular metales preciosos en cantidades abundantes y a la vez los dispersan por el Universo.
Palabras clave: relatividad, gravitación, ondas gravitacionales, estrellas de neutrones.

The collision of neutron stars and the alchemy of the Universe

Abstract

The origin of the elements has been one of the largest mysteries in science for centuries. The discoveries of the first half of the twentieth century allowed us to understand the structure of atoms and their nuclei, and led us to the discovery that the heavy elements can be formed inside stars from the fusion of lighter elements such as hydrogen and helium. However, elements heavier than iron can only be produced in cataclysmic processes, such as the explosion of a supernova, or the collision of two stars. The recent observation of the collision of two neutron stars, also known as a kilonova, both in gravitational waves and in the whole electromagnetic spectrum, has allowed us to verify that such events can produce heavy elements, and particularly precious metals in abundant quantities and at the same time help disperse them throughout the Universe.
Keywords: relativity, gravity, gravitational waves, neutron stars.

El origen de los elementos: la nucleosíntesis estelar

Desde hace siglos filósofos y científicos se preguntaron sobre el origen y la posible trasmutación de los distintos elementos. Pero hubo que esperar hasta la llegada de la teoría atómica moderna a principios del siglo XX para obtener las primeras respuestas.

Con el descubrimiento de los electrones en 1897 por parte de Joseph John Thomson, y del núcleo atómico en 1911 por parte de Ernest Rutherford, la estructura básica del átomo quedó establecida: un núcleo compacto y masivo con carga eléctrica positiva, rodeado de electrones mucho más ligeros y con carga eléctrica negativa en órbita alrededor del núcleo. Las propiedades de las órbitas de los electrones fueron establecidas poco después por Niels Bohr en 1913, dando así inicio a la teoría cuántica moderna. En años posteriores, Rutherford mostró que el núcleo del átomo de hidrógeno, el más ligero de todos, estaba presente en el interior de los núcleos de los otros elementos, y en 1920 se le bautizó como “protón”: una partícula de carga eléctrica positiva igual en magnitud a la del electrón, pero aproximadamente 2 000 veces más masiva.

Para 1920, Arthur Eddington utilizó las ideas recientes sobre el modelo atómico, junto con la teoría de la relatividad de Albert Einstein, para intentar entender el origen de la energía del Sol y las estrellas. En esa época, la teoría prevaleciente, debida a Lord Kelvin entre otros, era que el Sol brillaba debido a la liberación de energía gravitacional al contraerse poco a poco durante millones de años. Sin embargo, cálculos detallados mostraban que dicho proceso no podía permitir al Sol brillar por más de unas pocas decenas de millones de años, en contradicción directa con las conclusiones de geólogos y biólogos tales como Charles Lyell y Charles Darwin, que habían mostrado que para explicar la estructura de la Tierra y la diversidad de las especies era necesario que el Sol hubiera brillado de manera más o menos constante por cientos o quizá miles de millones de años. Eddington observó que el único proceso capaz de proveer al Sol de energía por tiempos suficientemente largos era la conversión directa de materia en energía, postulada por Einstein en 1905 en su famosa ecuación E=mc2.



Eddington sabía también que unos años antes se había mostrado que la masa de un átomo de helio era aproximadamente 1% menor que la masa de cuatro átomos de hidrógeno, y razonó que, si cuatro átomos de hidrógeno pudieran combinarse para formar un átomo de helio en el interior de Sol, la energía liberada en el proceso sería más que suficiente para explicar el brillo del Sol y las estrellas por miles de millones de años. Éste fue el origen de la idea de que en el interior de las estrellas elementos ligeros se “fusionan” para formar elementos más pesados, liberando enormes cantidades de energía.

Nuestra comprensión de la estructura del núcleo atómico tuvo que esperar hasta el descubrimiento de los neutrones en 1932 por parte de James Chadwick, partículas de masa muy similar a la del protón, pero sin carga eléctrica. El núcleo atómico no estaba formado solamente por protones de carga positiva, sino también por neutrones sin carga eléctrica. Para entonces quedaba claro que los distintos elementos diferían sólo en el número de protones en el núcleo, y que sus propiedades químicas estaban determinadas por los electrones que los orbitaban. Ese mismo año, Carl David Anderson realizó otro descubrimiento fundamental, el positrón o anti-electrón, una partícula idéntica al electrón, pero de carga eléctrica opuesta. Dicha partícula había sido predicha por Paul Dirac en 1928, y constituía la primera evidencia de la existencia de lo que sería llamado la anti-materia.

Hacia fines de la década de 1930, Lise Meitner y Otto Hahn habían logrado demostrar que era posible transmutar un elemento en otro bombardeando los núcleos atómicos con neutrones que ocasionaban que dichos núcleos se fragmentaran: se había descubierto la “fisión” nuclear.1 La fisión de núcleos pesados liberaba cantidades importantes de energía, hecho que quedó de manifiesto con la creación de los primeros reactores nucleares y las bombas atómicas pocos años después.
El descubrimiento del neutrón y el positrón permitía también explicar la fusión nuclear del hidrógeno en helio propuesta por Eddington. Al fusionarse cuatro núcleos de hidrógeno se debería tener un núcleo de carga positiva igual a cuatro, mientras que la carga del núcleo de helio es de sólo dos. Pero si en el proceso dos de los protones se transformaban en neutrones, liberando la carga eléctrica sobrante en forma de dos positrones, el resultado sería precisamente un núcleo de helio.


La idea original de Eddington quedó firmemente establecida en 1939, cuando Hans Bethe analizó en detalle las distintas reacciones nucleares que podían tener lugar en el interior de las estrellas para convertir hidrógeno en helio.2 La fusión de hidrógeno en helio era en efecto posible, y liberaba cantidades de energía mucho mayores que la fisión de núcleos pesados, como quedó dramáticamente demostrado con el desarrollo de las bombas de hidrógeno, devastadores soles en miniatura.
Bethe no consideró la formación de núcleos aún más pesados, pero en 1946 Fred Hoyle mostró cómo a muy altas temperaturas era posible fusionar átomos de helio para formar nitrógeno, carbono y oxígeno, y continuar así una cadena de fusiones nucleares hasta el hierro.

El hierro, sin embargo, es un callejón sin salida: mientras que la fusión de elementos ligeros con masas menores a las del hierro libera energía, la fusión del hierro y elementos más pesados absorbe energía. En otras palabras, es imposible generar elementos más pesados que el hierro en el interior de las estrellas.

Para la década de los setenta, la teoría básica de la formación de elementos en el interior de las estrellas, la llamada “nucleosíntesis estelar”, estaba completa. Las estrellas como el Sol, llamadas de secuencia principal, obtienen su energía de fusionar hidrógeno en helio en su interior. El helio se acumula lentamente en el centro hasta que la temperatura se eleva lo suficiente como para que el helio se fusione en elementos aún más pesados. A partir de ese momento el proceso se acelera, y se producen sucesivamente carbono, nitrógeno, oxígeno, neón y elementos cada vez más pesados hasta llegar al hierro. El hierro finalmente se acumula en el centro sin poder fusionarse y eventualmente la estrella se apaga y muere.

El origen de los elementos hasta el hierro quedaba entonces claro, pero existían aún dos incógnitas: ¿cómo se forman los elementos más pesados que el hierro?, y ¿cómo salen los elementos del interior de las estrellas para formar planetas, lunas y vida?

La respuesta a ambas preguntas tiene que ver con la forma en la que las estrellas mueren. Estrellas poco masivas como el Sol mueren cuando se acumula carbono en el centro, lo que ocasiona que se apaguen y se enfríen poco a poco ya que, por su baja masa, no alcanzaron temperaturas suficientemente altas para producir la fusión del carbono en elementos más pesados.

Pero estrellas masivas, de diez o más masas solares, sufren un fin mucho más espectacular. Al apagarse las reacciones nucleares en el centro, las capas externas de la estrella comienzan a caer sobre el núcleo de forma violenta, provocando un nuevo incremento catastrófico de la temperatura, que produce una explosión final que expulsa todas las capas externas al espacio exterior: una supernova.



La explosión de la supernova explica cómo escapan los elementos formados en el interior de las estrellas hacia el exterior. Pero también puede explicar la formación de elementos aún más pesados que el hierro, como sugirió el mismo Fred Hoyle en 1954. Durante la explosión se alcanzan temperaturas suficientemente elevadas como para fusionar núcleos de hierro y aún más allá, permitiendo la formación de elementos mucho más pesados que serán dispersados por el espacio. Sin embargo, aunque dicha explicación parece funcionar en principio, cálculos detallados muestran que no puede explicar las abundancias observadas de elementos pesados. Había algo que aún no quedaba claro.

Estrellas de neutrones y púlsares binarios

La historia del origen de los elementos debe ahora tomar otra dirección que nos lleva al estudio de objetos astrofísicos exóticos llamados estrellas de neutrones. La historia de estas estrellas se remonta a 1930, cuando el físico indio Subrahmanyan Chandrasekhar estudió la estructura de estrellas utilizando la teoría de la relatividad de Einstein y los principios de la mecánica cuántica.

Como mencionamos anteriormente, las estrellas como el Sol mueren cuando se acumula hierro en su centro y se apagan las reacciones nucleares, enfriándose y contrayéndose poco a poco hasta convertirse en enanas blancas. Pero si las enanas blancas están frías, ¿qué es lo que las sostiene y evita que se contraigan aún más?

Chandrasekhar concluyó que las enanas blancas se sostienen por un tipo de presión que tiene su origen en la mecánica cántica, y en particular en el principio de exclusión de Pauli, que dice que dos electrones no pueden estar en el mismo estado cuántico. En una enana blanca, la densidad es tal alta que los electrones están prácticamente tocándose unos a otros, y esto produce una presión debida al principio de Pauli que sostiene a la estrella aún si su temperatura es muy baja. Pero Chandrasekhar fue aún más lejos, y mostró que hay una masa máxima más allá de la cuál esta presión es insuficiente y la estrella no puede mantenerse en equilibrio. Esta masa máxima, conocida como el límite de Chandrasekhar, es de aproximadamente 1.4 veces la masa del Sol.3 En 1930 no se conocía ninguna manera de detener el colapso y se suponía que una enana blanca que rebasara esta masa se continuaría colapsando hasta concentrarse en un solo punto, creando lo que hoy en día conocemos como un agujero negro.


Pero el descubrimiento de los neutrones en 1932 cambió el panorama. En 1934 Walter Baade y Fritz Zwicky propusieron que, al colapsarse una enana blanca la alta presión forzaría a los electrones a fusionarse con los protones, produciendo neutrones. Se tendría entonces una estrella compacta formada exclusivamente por neutrones. Baade y Zwicky propusieron también que la formación violenta de un núcleo de neutrones durante la muerte de una estrella muy masiva liberaría suficiente energía como para producir una supernova, dejando como resultado una estrella de neutrones en su centro. El estudio teórico mostró qué de existir estos objetos, la conservación de la cantidad de movimiento rotacional o momento angular, los obligaría a girar a altas velocidades, decenas de veces por segundo.


Las estrellas de neutrones fueron finalmente descubiertas en 1967, cuando Jocelyn Bell y Antony Hewish descubrieron un objeto astronómico que producía pulsos de radio de manera regular, al que se denominó “pulsar”.4 Estudios posteriores permitieron identificar este pulsar, y los muchos que se han descubierto desde entonces, como estrellas de neutrones que giran a grandes velocidades y emiten chorros de radiación electromagnética por sus polos.

En 1974, Joseph Taylor y Russel Hulse descubrieron el primer “pulsar binario”, una pareja de estrellas de neutrones en órbita, una alrededor de la otra. Los pulsares binarios forman otra de las piezas clave en el estudio del origen de los elementos, como veremos más adelante.

Las estrellas de neutrones también tienen su propio límite de Chandrasekhar, la masa máxima más allá de la cual no pueden sostenerse. Pero a diferencia del caso de las enanas blancas donde la física se entiende en gran detalle, a la fecha no se conoce con precisión la masa máxima de una estrella de neutrones debido a la complejidad de estudiar la interacción de neutrones a altas presiones. Las estimaciones más recientes sitúan este límite entre dos y tres veces la masa del Sol.

¿Y más allá de las estrellas de neutrones? Hasta donde entendemos hoy en día, más allá de las estrellas de neutrones ya no existe ningún estado estable: una estrella de neutrones que supera su masa máxima colapsará inevitablemente hasta formar un agujero negro. Aunque existen propuestas especulativas sobre un último estado anterior al agujero negro llamado “estrella de quarks”, a la fecha no es claro si este tipo de objetos puede existir en realidad. Y aún en caso de que lo hiciera, la masa máxima para este tipo de objetos no sería mucho mayor, las estrellas muy masivas inevitablemente se convierten en un agujero negro al final de su vida.

Las ondas gravitacionales

En 1905 Albert Einstein revolucionó nuestros conceptos de espacio y tiempo al desarrollar la teoría especial de la relatividad. Entre sus muchas consecuencias se encontraba el hecho de que no sólo la velocidad de la luz resulta ser absoluta, sino que además representa un límite máximo en la velocidad de propagación de cualquier fenómeno físico. Nada, ningún objeto, ninguna señal, ni ninguna interacción física de ningún tipo puede moverse más rápido que la luz. Este hecho entraba en claro conflicto con la teoría de la gravitación universal de Newton, según la cual la gravedad actuaba de manera instantánea. Era claro que había llegado el momento de modificar la teoría de la gravedad, y Einstein dedicó los siguientes diez años a esta tarea. El resultado final de sus esfuerzos fue la teoría general de la relatividad de 1915, una nueva teoría de la gravitación totalmente compatible con los conceptos relativistas de espacio y tiempo. De acuerdo con la relatividad general la gravedad no se propaga de manera instantánea, sino que lo hace precisamente a la velocidad de la luz. Y, de la misma forma que el electromagnetismo predice la existencia de ondas electromagnéticas, la relatividad general predice la existencia de ondas gravitacionales, perturbaciones de la gravedad que se propagan a la velocidad de la luz.


Sin embargo, pese a haber sido predichas por Einstein en 1916, las ondas gravitacionales resultaron sumamente difíciles de detectar. La primera evidencia indirecta de su existencia llegó en 1974 con el descubrimiento del pulsar binario de Hulse y Taylor. De acuerdo con la teoría de Einstein, cuando se tiene un sistema de objetos compactos muy masivos en órbita uno alrededor de otro, el sistema debe emitir ondas gravitacionales y como consecuencia perder energía, por lo que los objetos se irán acercando poco a poco. El pulsar binario resultaba un sistema ideal para estudiar este fenómeno. Durante los veinte años siguientes a su descubrimiento, se estudió detalladamente la órbita de ambas estrellas y se notaron cambios en la velocidad orbital que correspondían precisamente con los que predecía la relatividad general como consecuencia de la emisión de ondas gravitacionales.5

La detección directa de las ondas gravitacionales debió esperar aún varias décadas. El problema principal es que la gravedad es una fuerza extremadamente débil. Cálculos teóricos muestran que la explosión de una supernova en nuestra galaxia, o el choque de dos estrellas de neutrones en una galaxia cercana, produciría ondas gravitacionales tales que al pasar por la Tierra causarían oscilaciones en los aparatos de medición de aproximadamente una parte en cien millones de billones (un uno seguido de veinte ceros). Es decir, un aparato de medición con una longitud equivalente al diámetro de la Tierra experimentaría una deformación equivalente al tamaño de un núcleo atómico. Medir algo tan pequeño suena tan manifiestamente absurdo que nadie lo intentó siquiera por varias décadas.

La primera persona que intentó detectar ondas gravitacionales fue Joseph Weber en la década de 1960. Para ello construyó dos barras de aluminio de varias toneladas de peso con la idea de medir las pequeñas oscilaciones producidas en ellas por el paso de una onda gravitacional. A mediados de 1969, Weber anunció que sus barras habían detectado ondas gravitacionales provenientes del centro de nuestra galaxia, y durante los siguientes años anunció aún más detecciones. El problema vino cuando grupos independientes de científicos intentaron reproducir las observaciones de Weber con sus propias barras y no pudieron detectar nada. Después de diez años en esta situación la comunidad internacional concluyó que Weber en realidad nunca había detectado ondas gravitacionales, aunque trágicamente Weber mismo continuó afirmándolo hasta su muerte.

Para principios de los años ochenta varios grupos experimentales llegaron a la conclusión de que, si bien Weber no había detectado en realidad ondas gravitacionales, la idea de lograr detectarlas no era tan descabellada, y debería buscarse un método diferente que tuviera mayores posibilidades de detección. Para ello se concentraron en la idea de un aparato conocido como interferómetro, donde rayos láser recorren caminos perpendiculares hasta espejos, para luego regresar y combinarse. Debido a que la luz es una onda, al recombinarse los rayos se produce interferencia, y ésta puede utilizarse para detectar con altísima precisión pequeños cambios en las posiciones de los espejos producidos ya sea por vibraciones del suelo, o por ondas gravitacionales provenientes del espacio.

En Estados Unidos se estableció a principios de los noventa el proyecto del “Observatorio Gravitacional por Interferometría Láser”, o LIGO por sus siglas en inglés, que consistía en dos interferómetros de cuatro kilómetros de largo cada uno, colocados a 3 000 kilómetros de distancia uno del otro. Un proyecto similar se creó en Italia, el proyecto VIRGO, y uno más pequeño en Alemania.

Después de más de quince años de construcción y pruebas, el proyecto LIGO dio frutos en septiembre de 2015 cuando ocurrió la primera detección confirmada de ondas gravitacionales, provenientes de la colisión de dos agujeros negros, con masas de aproximadamente 29 y 36 masas solares respectivamente, a una distancia de unos 1,300 millones de años luz de la Tierra. De entonces a la fecha se han detectado otros cuatro eventos correspondientes a la colisión de agujeros negros, el último de los cuales también fue detectado por el observatorio italiano VIRGO.




Modelo de equipo interferómetro de Virgo.

La detección directa de las ondas gravitacionales dio lugar a que el premio Nobel de física 2017 fuera otorgado a los proponentes iniciales de LIGO, Rainer Weiss y Kip Thorne, junto con Barry Barish, quien fuera el primer director del proyecto.

La kilonova GW170817

A partir de las detecciones de LIGO la realidad física de las ondas gravitacionales quedó firmemente establecida, y se dio inicio a una nueva rama de la astronomía, la astronomía de ondas gravitacionales.

Pero la detección más espectacular se dio el 17 de agosto de 2017, cuando por primera vez se detectó una señal en ondas gravitacionales en coincidencia con un destello de rayos gamma. La presencia de los rayos gamma indicaba que este evento ya no correspondía al choque de dos agujeros negros, sino al choque de dos estrellas de neutrones a una distancia de 130 millones de años luz de la Tierra. Dicho evento fue posteriormente observado en luz visible por un observatorio en Chile, lo que permitió determinar la galaxia de origen, y fue seguido por decenas de observatorios, tanto espaciales como terrestres, en todo el espectro electromagnético: rayos gamma, rayos X, luz visible, luz infrarroja y ondas de radio. El evento fue bautizado como una “kilonova” por involucrar energías unas mil veces mayores que una nova.6

La detección de esta kilonova ha dado inicio a una nueva era de la astronomía, donde un mismo evento es observado de muchas maneras distintas por muchos observatorios diferentes. En este caso participaron más de setenta observatorios alrededor de todo el mundo, y más de 4 000 astrónomos… la astronomía multi-mensajero ha comenzado.

Pero mucho más interesante para la historia del origen de los elementos es el hecho de que, en las observaciones posteriores al evento, fue posible detectar la señal de la presencia de elementos más pesados que el hierro, y en particular metales pesados como el oro y el platino en gran abundancia. La kilonova produjo, a partir de dos estrellas de neutrones no mucho más masivas que el Sol, varios miles de veces la masa de la Tierra en elementos pesados, y al menos diez veces la masa de la Tierra en oro y platino.

La abundancia de elementos pesados indica que las colisiones de estrellas de neutrones pueden ser el elemento faltante en la formación de los elementos pesados, y su dispersión por el Universo, para formar a partir de ellos rocas, planetas y lunas.



Conclusión

Los desarrollos científicos de la primera mitad del siglo XX nos permitieron entender la estructura de los átomos y sus núcleos, y nos mostraron que es posible transformar unos elementos en otros, ya sea fisionando núcleos pesados, o fusionando núcleos ligeros. El origen de los elementos más pesados que el hidrógeno y el helio está precisamente en los procesos de fusión nuclear que ocurren en el interior de las estrellas y que a la vez proporcionan la energía necesaria para que estas brillen por miles de millones de años. Sin embargo, elementos más pesados que el hierro no pueden formarse de esta manera, pues la fusión del hierro es un proceso que absorbe energía en lugar de liberarla. La formación de elementos aún más pesados requiere de procesos catastróficos, como la explosión de una supernova o el choque de dos estrellas.

La reciente detección de las ondas gravitacionales ha abierto una nueva ventana al Universo. La observación en agosto de 2017 de las ondas gravitacionales provenientes de la colisión de dos estrellas de neutrones, en coincidencia con un destello de rayos gamma, nos ha permitido por primera vez estudiar este tipo de eventos con alta precisión. Dicho evento, también conocido como una kilonova, fue observado por más de setenta observatorios en todo el mundo, en todo el espectro electromagnético, dando inicio a la llamada astronomía de mensajeros múltiples.

La observación detallada de la kilonova durante las semanas siguientes a la colisión nos permitió mostrar qué dio lugar a la formación de grandes cantidades de elementos pesados, y en particular metales preciosos como el oro y el platino. Podemos, entonces, imaginar que el oro que existe en la Tierra se formó hace miles de millones de años, en colisiones de estrellas de neutrones que dispersaron sus restos por la galaxia y sembraron las nubes de polvo de las que después de formaría el sistema solar.

Show Buttons
Hide Buttons

Revista Digital Universitaria Publicación bimestral Vol. 18, Núm. 6julio-agosto 2017 ISSN: 1607 - 6079