Author Archive

VC-test

Volumen 19
Número 5, septiembe – octubre

natalinadi@yahoo.com.mx

Profesora de tiempo completo en el Departamento de Anatomía de la Facultad de
Medicina de la Universidad Nacional Autónoma de México (UNAM) donde es co-
responsable del laboratorio de Ritmos biológicos y Metabolismo. Pertenece al
Sistema Nacional de Investigadores (SNI nivel I). Es Bióloga por la Facultad de
Ciencias, UNAM (2009) y doctora en Ciencias, UNAM (2015). Participa en
actividades docentes en la UNAM y en la Universidad Panamericana. Ha publicado
diversos artículos en revistas internacionales y ha presentado su trabajo de
investigación en congresos nacionales e internacionales. Su línea de investigación
se enfoca en entender como diversos procesos que alteran los ritmos circadianos
promueven el desarrollo de enfermedades.

Profesor de tiempo completo y Jefe del Departamento de Anatomía de la Facultad
de Medicina de la Universidad Nacional Autónoma de México (UNAM), es
responsable del laboratorio de Cronobiología. Pertenece al Sistema Nacional de
Investigadores (SNI nivel I). Es Médico Cirujano. Egresado de la Facultad de
Medicina y Cirugía de la Universidad Benito Juárez de Oaxaca (1991-1997) y
doctor en Ciencias Biomédicas (2005) por la UNAM. Es miembro regular de la
academia nacional de medicina de México. Sus líneas de investigación:
contribución del alimento palatable (chocolate) en los mecanismos centrales de re-
sincronización del sistema circadiano, después de un avance de fase de seis
horas.

escocarolina@gmail.com

Profesora de tiempo completo en el Departamento de Anatomía de la Facultad de
Medicina UNAM, donde actualmente funge como coordinadora de investigación y
es responsable del laboratorio de Ritmos biológicos y metabolismo. Es profesora
de asignatura en la Facultad de Psicología de la misma universidad. Pertenece al
Sistema Nacional de Investigadores (SNI nivel III). Cuenta con más de 140
publicaciones. Fungió como editora en dos números de la revista Biological
Rhythms Research (1998 y 2005) y para un número especial la revista Ciencia
(2008) de la Academia Mexicana de Ciencias titulado “Ritmos biológicos”. Desde el
2013 es miembro del Comité editorial de la revista Biological Rhythms Research.
Sus líneas de investigación: el alimento como factor de desincronización
circadiano, modelos de desincronización circadiana para el estudio de la obesidad,
la sincronización por alimento como desencadenante de adicción.

Descarga

Introducción
Test
Titulo dos
Titulo tres

Los efectos adversos de la luz artificial por la noche

Adverse effects of artificial light at night 

I am text block. Click edit button to change this text. Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

I am text block. Click edit button to change this text. Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.

http://doi.org/10.22201/codeic.16076079e.2018.v19n4.a3

Subtitulo 1

Subtitulo 2

Subtitulo 3

“La mucha luz es como la much adqwdq wdqwwqdwqdqwdqwdqwdw qdwqdwqdwqdq wdwqdqdqwdqwdqw dqwdqwdqwdqwdqwdq sombra: no deja ver… wdqdqdqwd qwdqwdqwdqwdqw”. Octavio Paz

Cita a bando
Nuestro cuerpo tiene un reloj biológico y todos los tejidos son osciladores que siguen al ciclo diario de luz-oscuridad para poder cambiar la intensidad de la conducta y nuestras funciones fisiológicas y de esta forma hacernos más eficientes según si estamos
despiertos o dormidos.

  • uno
  • dos
  • tres
  • cuatro
  1. uno
  2. dos
  3. tres
  4. cuatro

Hipervinculo 

 

The negative effects of artificial light at nightNuestro reloj biológico reconoce cuando está oscuro y cuando hay luz y lo interpreta como día y noche. Con el uso de la luz eléctrica, que comenzó alrededor del siglo pasado, este sistema temporal ha sido alterada.

Los científicos han
comenzado a señalar que la exposición a la luz por la noche confunde al reloj biológico lo
cual puede tener consecuencias sociales, ecológicas, conductuales y para la salud. Las
personas que se exponen a la luz eléctrica por largas horas durante la noche son las más
afectadas, particularmente los trabajadores nocturnos. Sin embargo, cambios en el estilo
de vida han llevado a que jóvenes y niños se expongan desde edades tempranas a este
fenómeno conocido como “contaminación lumínica”. En este texto pretendemos exhibir las
evidencias clínicas y experimentales que indican que la luz artificial por la noche es un
factor adverso, promotor de alteraciones en el sistema circadiano, en la fisiología y, por lo
tanto, la contaminación lumínica es un factor de riesgo para la salud pública.
Palabras clave: ritmos circadianos, contaminación lumínica, depresión, alteraciones
circadianas, síndrome metabólico, cáncer.

Abstract
Our body has a biological clock and all tissues are oscillators that follow the daily light-dark
cycle in order to change the intensity of behavior and physiological functions and make us
more efficient according to whether we are awake or asleep. The invention and use of
electric lights, which began around the last century, have affected this temporal
organization. Light exposure at night has social, ecological, behavioral and health
consequences that just now begin to be apparent. People with nocturnal habits are mostly
exposed to light at night, and among them night workers are at risk. Due to changes in life
style, young people, including children, are now individuals exposed to this factor that
affects their physiology. The excess of light at night, also called “light pollution”, is the
cause of diverse health problems. The aim of this paper is to present evidence from
clinical studies and experimental models that points out the deleterious effects of light at
night as a factor that affects the circadian system, physiological systems and behavior
leading to disease. Here we offer evidence that light at night is a risk factor for public
health.
Keywords: circadian rhythms, light pollution, depression, circadian disruption, metabolic
syndrome, cancer.

Introducción: el sistema circadiano y la luz como señal de tiempo
(St1)

La sociedad moderna ha adoptado un estilo de vida que violenta la organización
temporal de nuestra conducta y fisiología. Las condiciones ambientales del día y la
noche que se requieren para ajustar las diversas funciones fisiológicas en nuestro
organismo se respetan poco y esto afecta la eficiencia con la que nos adaptamos
y respondemos a los cambios del medio ambiente externo.
Nuestra adaptación al ciclo luz-oscuridad depende del sistema circadiano,
que tiene la función de monitorear señales temporales externas y transmitirlas al
resto del cuerpo. El sistema circadiano consiste en una especie de reloj principal
(Buijs y Kalsbeek, 2001), localizado en el cerebro llamado núcleo
supraquiasmático (NSQ) y por su interacción con tejidos del cuerpo con
capacidad de oscilar con ciclos de 24 horas, conocidos como osciladores
periféricos (Buijs, van Eden, Goncharuk y Kalsbeek, 2003).

4

Figura 1. Esquema del sistema circadiano.

Este reloj biológico transmite ritmos de 24 horas a todos los tejidos por
medio de señales neurales y señales hormonales (melatonina y corticosterona).
Por este proceso se logra que la conducta y las funciones internas respondan de
forma coordinada dependiendo de la hora del día, lo cual se conoce como
sincronización circadiana. Cuando el individuo realiza actividades en conflicto con
las señales del reloj biológico, por ejemplo, encender la luz cuando debería de
estar oscuro, se provoca una desincronización circadiana, lo cual lleva a que
muchas funciones se realicen con una intensidad inadecuada para los
requerimientos del ambiente (ver figura 1).
La referencia temporal más potente que rige al sistema circadiano es la
alternancia del ciclo luz-oscuridad y son las células 1 de la retina las que le
comunican al reloj biológico el estado de luminosidad correspondiente al día y la
noche. La señal de luz activa a las neuronas del NSQ y activa genes cíclicos
1 Las células ganglionares son un tipo de neurona localizada en la retina del ojo.

5
conocidos como genes reloj, que miden el tiempo a nivel celular (Golombek y
Rosenstein, 2010). Otros eventos externos cíclicos que también afectan al sistema
circadiano son los cambios de temperatura, sonidos sociales, el consumo de
alimento, etcétera (Danilenko, Cajochen y Wirz-Justice, 2003; Klerman et al.,
1998).
El NSQ impone ciclos de
actividad a otras áreas cerebrales
para darle tiempo a la conducta y
para transmitir señales de tiempo
al resto del organismo a través
de proyecciones del sistema
nervioso autónomo y por medio
la producción de la hormona
melatonina –secretada por la
glándula pineal– y la
corticosterona –producida por el
eje hipotálamo-hipófisis-adrenal–
(Kalsbeek et al., 2006). Los
tejidos del cuerpo reconocen estas señales neuronales y hormonales y según su
intensidad emiten respuestas convenientes para la fase del día o la noche (como
se puede ver en la figura 1). Para la adecuada sincronización del sistema
circadiano se requiere que las señales de luz-oscuridad que recibe el reloj
biológico concuerden con las señales que recibe del resto del cuerpo sobre las
actividades que realiza. Cuando estas señales están descoordinadas confunden al
sistema circadiano y lo llevan a perder el orden temporal, lo cual repercute en la
conducta y en la fisiología del individuo.
Hoy en día, nuestras casas, lugares de trabajo y calles están iluminadas por
luz artificial brillante durante el día y durante la noche. La exposición a la luz
artificial de noche provoca la pérdida de una alternancia del ciclo día-noche y
representa un factor de riesgo para la coordinación del reloj biológico. El mal
funcionamiento del sistema circadiano a largo plazo desencadena padecimientos

6
crónicos, entre ellos enfermedades metabólicas, cáncer y alteraciones del estado
de ánimo (Escobar et al., 2011).
Son varias las condiciones que pueden desencadenar alteraciones
circadianas, entre ellas, la más común es el trabajo nocturno, también el
síndrome de jet-lag resultante de los viajes trasmeridionales, el alimento y los
estímulos luminosos durante la noche. Existe amplia literatura que aborda la
relación de la alteración circadiana principalmente asociada con el trabajo
nocturno y el jet-lag. Sin embargo, los efectos de la exposición a la luz artificial
durante la noche sobre el sistema circadiano y la salud apenas comienzan a ser
estudiados.
Este artículo tiene como objetivo definir en qué consiste el problema de la
contaminación lumínica asociada a la luz artificial por la noche. Presentaremos
evidencias clínicas y experimentales que indican que la exposición a la luz por la
noche es un factor adverso, promotor de alteraciones circadianas y de problemas
de salud.

El problema de la contaminación lumínica: el exceso de luz por la
noche (St1)
La luz es esencial para la vida en la Tierra, es una fuente de energía, de calor, y
mantiene los niveles de oxígeno en la atmósfera debido al importante papel que
juega en la fotosíntesis.

7

Por miles de años el
hombre ha vivido en un
ambiente donde la luz
corresponde a la fase de
actividad y la noche a la
fase de descanso. A lo
largo de la historia, la
posibilidad de alumbrar la
noche dependió de la
flama tenue de una
hoguera o de una
antorcha y fue apenas
hace poco más de 100
años que Tomás Alba
Edison (1879) inventó la bombilla eléctrica y fue posible alumbrar la noche con una
mayor intensidad. El siglo XX se caracterizó por la implementación de luz eléctrica
en casas y sitios de trabajo, permitiendo extender las horas de trabajo y estudio a
la noche (Chepesiuk, 2009), lo cual modificó también el estilo de vida. Actualmente
en las ciudades y pueblos se abusa del uso de la luz por la noche, proceso que
conocemos como “contaminación lumínica”. El abuso de iluminación es tal, que se
irradia a muchos kilómetros más allá de las ciudades, iluminando los campos, las
montañas y la naturaleza en general. Esta luz nocturna afecta patrones de
migración de algunas aves e insectos y en algunas especies altera los ritmos de
reproducción (Navara y Nelson, 2007). La iluminación urbana también produce
“invasión lumínica”, que ocurre cuando la luz del alumbrado público irradia hacia el
interior de las casas, ocasionando un nivel de luminosidad constante aun teniendo
las luces apagadas (Falchi, Cinzano, Elvidge, Keith y Haim, 2011). Otra fuente de
luz nocturna proviene de los aparatos electrónicos como pantallas de televisión,
computadoras, teléfonos celulares y tabletas, que irradian luz directamente a los
ojos del individuo que los está empleando (ver figura 2).

8
Figura 2. El teléfono celular es una fuente de luz nocturna, que irradia luz directamente a los ojos

del individuo que los está empleando. Foto: Vladyslav Dukhin.

¿Cuánto es mucha luz? (St1)
En un día soleado, la iluminación puede llegar a alcanzar hasta los 100,000 lux 2 ,
pero en un cuarto bien iluminado la intensidad de la luz alcanza los 1000 lux.
Preferentemente en la recámara en donde vamos a dormir y con la luz apagada, la
intensidad debiera ser menor a 10 lux.
Inicialmente los especialistas en ritmos circadianos consideraron como
dañina una intensidad de luz de 7 000 a 13 000 lux debido a que alteraba al reloj
biológico y con ello la expresión de los ritmos circadianos (Boivin, Duffy, Kronauer
y Czeisler, 1996). Sin embargo, tomando como referencia el ritmo diario de
melatonina, hormona que se secreta solamente por la noche y es inductora del
sueño, se determinó que intensidades de hasta 0.2 lux de luz blanca inhiben
inmediatamente su producción (Nathan, Burrows y Norman, 1999; Pauley, 2004).

2 Unidad estándar de medida de la intensidad de la luz.

9
Al respecto se ha determinado que la longitud de onda de 440 a 460 Hz que
corresponde a la luz azul, aún con intensidad baja de 1 lux, es suficiente para
suprimir la secreción de melatonina (Stevens, Brainard, Blask, Lockley y Motta,
2013). Es importante resaltar que las pantallas de televisión, de computadoras y
tabletas emiten principalmente longitudes de onda correspondientes al espectro
azul (Zeitzer, Dijk, Kronauer, Brown y Czeisler, 2000).

En fuentes de luz con un espectro más amplio de longitudes de onda (por
ejemplo, lámparas del alumbrado público) una intensidad de 100 lux tiene
el mismo efecto. Esta luz también modifica la actividad del NSQ el cual,
como ya se describió, utiliza como referencia temporal la alternancia día-
noche para sincronizar sus oscilaciones diarias y coordinar los ritmos
circadianos del organismo. Actualmente en la mayoría de las casas
durante la noche, las fuentes de luz emiten iluminación de hasta 1000 lux,
intensidad suficiente para retrasar el inicio del sueño, causar alteraciones
circadianas e inhibir la secreción de melatonina (Reiter, 2006).
Consecuencias de la luz por la noche: estudios clínicos (St2)
La luz por la noche promueve un estado de alerta conductual, que retrasa el inicio
del sueño y promueve al desvelo. En días de trabajo o escuela estos desvelos
tienen como consecuencia que se acorten las horas de descanso y ello ocasiona
una privación de sueño crónica, que afecta el rendimiento escolar y laboral (van
Cauter et al., 2007). Una preocupación actual es que en sujetos jóvenes, la
exposición a luz artificial durante la noche (5 a 10 lux) afecta la calidad del sueño,
aumenta la frecuencia de los despertares, la cantidad de sueño superficial y
disminuye la cantidad de movimientos oculares rápidos (Cho et al., 2016). En un
trabajo pionero de Lewy, Wehr, Goodwin, Newsome, y Markey (1980), se
exploraron los efectos de la exposición a diferentes intensidades de luz por la
noche en un rango de 0.03 hasta 9.5 lux y se observó que la exposición a todas
las intensidades de luz provoca a corto plazo efectos adversos sobre los ritmos
hormonales y de temperatura (Boivin et al.,1996). En un estudio más reciente se
reportó que, en personas jóvenes la exposición a la luz por la noche, con una
intensidad equivalente a la pantalla de una computadora, suprime la liberación de
melatonina (Gooley et al., 2011).

10
La noche en nuestro organismo (St3)
Actualmente un 30% de la población mundial trabaja por la noche (Rajaratnam y
Arendt, 2001) y esta es la población más expuesta a la luz nocturna. En
trabajadoras nocturnas se ha descrito una mayor propensión a desarrollar cáncer
de mama (He, Anand, Ebell, Vena y Robb, 2015) y se ha determinado que el
haber trabajado 15 años o más en turnos rotatorios o nocturnos incrementa hasta
un 28% el riesgo de padecer cáncer de pulmón en mujeres fumadoras
(Schernhammer, Feskanich, Liang y Han, 2013). En enfermeras que trabajaron
turnos nocturnos y estuvieron expuestas a la luz brillante mientras dormían, se
demostró que los niveles de melatonina eran menores en comparación con
enfermeras que trabajaron turnos diurnos (Grundy et al., 2009). Igualmente, entre
los trabajadores nocturnos masculinos hay mayor propensión a padecer cáncer de
próstata, además de presentar un mayor riesgo de eventos cardiovasculares con
riesgo de infarto (Sigurdardottir et al., 2012). El trabajador nocturno también tiene
mayor predisposición a la acumulación de adiposidad, sobrepeso y elevada
predisposición a desarrollar enfermedades metabólicas incluyendo diabetes
(Knutsson, 2003).
A nivel de la conducta, se ha reportado mayor propensión a cambios en
el estado de ánimo, caracterizados por mayor irritabilidad, fatiga y
dificultad para concentrarse, además de mayor vulnerabilidad a
desencadenar depresión (Edgar y McClung, 2013; Germain y Kupfer,
2008). En estos individuos también se ha reportado mayor vulnerabilidad
de incurrir en la ingestión de drogas y alcohol (Morikawa et al., 2013).
Es difícil discernir la contribución de la luz por la noche sobre la cantidad de
alteraciones que presenta el trabajador nocturno, ya que estos individuos además
de la contaminación lumínica, están expuestos a privación de sueño y alteraciones
circadianas, que por sí mismos son factores que desencadenan muchas de estas
alteraciones fisiológicas y de la conducta.

ENTRA GALERÍA FOTOGRÁFICA

11

(envío una serie de fotografías, incluir 6 imágenes)

Para lograr deslindar el efecto de la luz nocturna sobre el metabolismo, un
estudio realizado con una población de la región de Nara, en Japón, comparó
personas que se exponían a bajos o nulos niveles de luz por la noche (menos de 3
lux) con personas que se exponían a niveles mayores de 3 lux (Obayashi et al.,
2013). El grupo que se exponía a mayor intensidad de luz presentó una mayor
incidencia de obesidad y alteraciones en los niveles de lípidos circulantes,
confirmando que la exposición a la luz por la noche desencadena disfunción
metabólica.
Un espacio para determinar los efectos nocivos de la luz por la noche, son
las unidades de cuidados intensivos en los hospitales, ya que en general éstas se
mantienen siempre con la luz prendida para permitir al personal médico y de
enfermería una supervisión eficiente de los pacientes. En un estudio realizado en
la unidad de terapia intensiva neonatal del Hospital Juárez de México, nuestro
grupo demostró que los bebés prematuros internados debido a bajo peso corporal
crecen y maduran más lentamente en condiciones de luz constante, en
comparación con los bebés prematuros expuestos a un ciclo de luz-oscuridad.

12
Para lograr esto, a algunos bebés se les colocó durante la noche un casco de
acrílico con una cubierta de tela que producía penumbra sobre su cabeza y ojos.
Comparados con bebés que no recibieron este tratamiento, a las tres semanas de
estancia en la unidad, los bebés expuestos a la oscuridad por la noche habían
ganado 150 g más de peso y el tiempo de estancia hospitalaria se redujo a la
mitad, siendo para este grupo un promedio de 30 días para ser dados de alta y
para el grupo testigo de 60 días (Vasquez-Ruiz et al., 2014). Otros estudios
realizados en diferentes unidades de terapia intensiva han reportado efectos
similares, demostrando que la oscuridad por la noche mejora la capacidad de los
bebés para asimilar el alimento y por lo mismo logran aumentar de peso para ser
dados de alta (Blackburn y Patteson, 1991; Rivkees, Mayes, Jacobs, y Gross,
2004). Estos hallazgos son un claro ejemplo de la importancia que tiene la
oscuridad nocturna desde los primeros días de vida.

 

d

wqdwqdqwdwqd

dqw

dwqd

qw

d

TITULO CON SEPARADOR

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo. Aenean consequat elit a lorem elementum convallis. Sed pharetra enim tempus convallis sagittis. Phasellus lacus urna, malesuada in feugiat id, semper rutrum nisl. Nulla id bibendum enim. Vivamus fringilla lacus nibh, faucibus finibus dui facilisis eu. Quisque tristique libero non eros elementum volutpat.

Es posible propiciar el pensar desde la misma Universidad. Es decir, enseñar a pensar para valorar la vida. También es posible generar una nueva actitud de pensar que promueva el respeto por los principios y valores universales, si enseñamos de tal forma que orientemos hacia un proceso auténtico y autónomo de pensar, si dejamos de controlar excesivamente, si permitimos que el alumno pueda pensar por cuenta propia.

Es posible propiciar el pensar desde la misma Universidad. Es decir, enseñar a pensar para valorar la vida. También es posible generar una nueva actitud de pensar que promueva el respeto por los principios y valores universales, si enseñamos de tal forma que orientemos hacia un proceso auténtico y autónomo de pensar, si dejamos de controlar excesivamente, si permitimos que el alumno pueda pensar por cuenta propia.

Referencias (St1)

CLD Commission (2015). Manual del Candidato. Para diseñadores de iluminación arquitectónica en ejercicio. Chicago: Certified Lighting Designer, CLD. Recuperado de http://cld.global/CLD/media/media/CLD-Handbook-Edits- June-17_ES-ES.pdf.
DiLaura, D. (2006). A History of Light and Lighting. EE. UU.: Illuminating Engineering Society.
DiLaura, D., Houser, K., Mistrick, R. y Steffy, G. (2011). The Lighting Handbook. 10th Edition. Nueva York, EE. UU.: Illuminating Engineering Society.
Donoff, E. (2006). Richard Kelly’s Three Tenets of Lighting Design. Architectural
Lighting, AL 30th Anniversary.
James, P. (2018). Editorial. Mondo ARC. ILDS, 18.
Kelly, R. (1952). College Art Journal. EE. UU.: College Art Association.

13
LIB Chaslin, F. (2017). La Conception Lumière. París, Francia: Moniteur.
Major, M., Speirs, J. y Tischhauser, A. (2005). Made of Light. Basel, Switzerland:
Birkhauser.
Haidar, J. (2006). Debate CEU-Rectoría. Torbellino pasional de los argumentos.
México: UNAM. Recuperado de
http://www.posgrado.unam.mx/publicaciones/ant_col-
posg/31_Debate_CEU.pdf
Pedroza, M. (2010). Identidades urbanas de taggers y graffiteros: análisis
transdisciplinario de la producción semiótica del graffiti en el Distrito
Federal. D.F., México: ENAH/INAH. Recuperado de
https://www.academia.edu/35991973/Identidades_Urbanas_de_Taggers_y_
Graffiteros_An%C3%A1lisis_transdisciplinario_de_la_producci%C3%B3n_s
emi%C3%B3tica_del_graffiti_en_el_Distrito_Federal
Pedroza, M. (2012). Semiosis visual en el graffiti de escritores: Producción cultural
urbana alternativa. D.F., México: ENAH/INAH. Recuperado de
https://www.academia.edu/35992064/Semiosis_visual_en_el_graffiti_de_es
critores_Produccion_cultural_urbana_alternativa
Pedroza, M. (2016). La unitas multiplex del graffiti planetario: cultura urbana
alternativa Ciudad de México, México: ENAH/INAH.
Pedroza, M. (2016). Pixação: protesta y transgresión . Discurso & Sociedad , 10
(2), 300-320. Recuperado de
http://www.dissoc.org/ediciones/v10n02/DS10(2)Pedroza.pdf

Fecha de recepción: 12/12/12   Fecha de aceptación: 12/12/12

Artículos Recientes

Vol. 20, núm. 2 marzo-abril 2019

Intersecciones de la ciencia, la cultura y las humanidades

Equipo editorial Cita

Al iniciar la nueva época de la RDU, nos propusimos crear un espacio de comunicación entre los generadores de conocimiento, los comunicadores de la ciencia y el público lector. Nos planteamos la meta de difundir investigaciones, innovaciones y acontecimientos del quehacer universitario con la intención de coadyuvar a la reflexión, el debate y la discusión.

Fieles a nuestro objetivo, integramos el número marzo-abril con temas diversos que abarcaran las ciencias, las humanidades y la cultura. Varios de los artículos aplican interdisciplinariamente diversos campos de conocimiento a temáticas poco exploradas. En tanto que otros reflexionan acerca del proceso de enseñanza-aprendizaje. En definitiva, éste es un número plural en el que se engloban diferentes enfoques y aproximaciones para aprehender nuestro entorno.

En la sección Varietas se incluyen cinco artículos que abordan desde la relación del humano con la tecnología hasta la del humano con sus deidades, pasando por los mecanismos biológicos que tienen un impacto social.

¿Sabías que la intuición artificial es un área multidisciplinaria que, a través de ciencias como la informática, la psicología y la robótica, estudia la creación y diseño de entidades capaces de emular ciertos rasgos de la intuición humana? En el artículo “Estudio sobre la intuición artificial” conoceremos acerca de estos conceptos y propiedades de la intuición artificial y descubriremos un modelo innovador que permite el desarrollo de nuevos algoritmos de control de máquinas.

El artículo “#México19s: transformación digital ante la emergencia” aborda el reto que supone el uso de la comunicación digital en un contexto de emergencia como lo fue el sismo del 19 de septiembre de 2017. En este caso, se utilizaron herramientas digitales para que un equipo interdisciplinario de profesionales implementara una propuesta para optimizar la entrega y distribución de ayuda ciudadana. El empoderamiento de la ciudadanía, la manera en que se utilizaron las redes sociales ante la tragedia y la autogestión de los recursos, dio pie a una innovación social.

En otra de las colaboraciones, Sofía González, Sergio Manuel Sánchez y Nelida Ramírez abordan la relación que existe entre situaciones desfavorables durante la niñez y la predisposición al desarrollo de enfermedades cardiovasculares, metabólicas, inmunológicas y psiquiátricas. La manera en que esto sucede no está completamente definida. Así, en su artículo “Epigénesis: secuelas de una infancia adversa”, los autores exponen el posible mecanismo molecular por medio del cual lo ocurrido en la infancia deja su huella durante la edad adulta; la epigénesis, consiste en las modificaciones químicas reversibles que se añaden al material genético, que, aunque no alteran su secuencia, sí intervienen en su expresión.

Desde una visión antropológica, Jorgelina Reinoso, nos adentra en la cultura de la Sierra Norte de Puebla para explorar el Carnaval otomí, su contexto ritual y las prácticas de medicina tradicional que ahí se realizan. En época de Carnaval los curanderos llevan a cabo una serie de ofrendas a sus dioses, llamados antiguas y a Zithu, el diablo, pues es la forma en que estos seres cansados y desgastados vienen al mundo de los vivos a renovarse con la energía que se genera en el cosmos por el encuentro entre vivos y muertos.

¿Cómo se escoge una pareja? ¿Qué mecanismos están implicados en dicha elección? En el artículo “Perfumes naturales en la elección de pareja”, Carlos Daniel Juárez nos conduce al universo de las feromonas, señales químicas emitidas por un individuo, que permiten la comunicación entre miembros de la misma especie. Se abordan varios aspectos sobre ellas, especialmente cómo este tipo de comunicación química puede tener un papel primordial en la elección de pareja al alterar el comportamiento, la fisiología o la percepción de otro individuo. Aún queda mucho por averiguar, por ejemplo, especificar ciertos mecanismos implicados en la selección sexual, así como el papel de las feromonas en humanos.

En esta ocasión, en la sección Continuum educativo, contamos con dos artículos que dan voz tanto a estudiantes como a profesores. En “Eso que siempre nos acompaña: la evaluación escolar”, Joshua Vazcoy y Ángel Rosas, dos estudiantes de los últimos semestres de la licenciatura en Historia en la Facultad de Filosofía y Letras, nos comparten su vocación por la historia, las vivencias desde su entrada a la facultad y su perspectiva acerca de las evaluaciones que han experimentado a nivel universitario, las dificultades que éstas implican y una propuesta para solucionarlas.

Desde la visión de los profesores Carmen Nolasco, del Centro Universitario de la Ciénega, de la Universidad de Guadalajara, cuestiona la implementación y el uso que se da a las tecnologías de información y comunicación (TIC) como apoyo en el proceso enseñanza-aprendizaje. En dicha institución se ha impulsado un programa para integrar las TIC en la docencia, pero el camino no ha sido sencillo, pues la utilización de estas tecnologías conlleva cambios en los procesos de planeación, organización académica y evaluación, los cuales no siempre son bien recibidos por los profesores.

¿Qué piensas de las interacciones entre la sociedad, la tecnología y la naturaleza? En la sección Universidades se propone el desarrollo de la ingeniería de sistemas desde una perspectiva humanista en el artículo: “El lado humano de la ingeniería de sistemas: principios para la vida”. A través de un decálogo, se trata de aplicar a la ingeniería un enfoque sistémico basado en la hospitalidad, la contradicción, el diálogo democrático entre quienes creen y piensan diferente y el uso de los conceptos, para diseñar sistemas que impulsen el desarrollo de la vida.

¿Conoces los derechos de autor? ¿Has pensado cómo se relacionan con las TIC? ¿Sabes cómo proteger el contenido que subes a internet? En la sección Caleidoscopio se publican dos videos de estudiantes de la UNAM que reflexionan sobre los derechos de autor desde diferentes ámbitos. El primero trata su relación con las TIC y el segundo explora los conceptos básicos de este tema.

En el contexto de la era tecnológica, los derechos de autor se han enfrentado a problemas respecto a la regulación de los procesos de reproducción, distribución y comunicación pública. En el video “Implicaciones de las TIC en los derechos de autor” aprenderemos que hay dos tipos de derechos de autor: “derechos morales” (derecho de los autores a decidir sobre la modificación, publicación, reproducción e integridad de sus obras) y “derechos patrimoniales” (goce de las regalías que surjan del uso comercial, publicación, reproducción, traducción, adaptación, ejecución o trasmisión de las obras).

El video “Derechos de autor: la exposición de Barragán” muestra algunos conceptos fundamentales sobre el derecho de autor, nos invita a reflexionar sobre su relevancia en el contexto mexicano y proporciona un ejemplo de aplicación en el caso del arquitecto mexicano Luis Barragán.

Los invitamos a indagar en los diferentes artículos, esperando que estas intersecciones entre la ciencia, la cultura, las humanidades y la tecnología amplíen sus horizontes de conocimiento, les recuerden que éste se construye, amplifica y consolida en la convergencia de distintos campos, y que es a través de las preguntas, exploraciones y propuestas que se expanden las ideas y se transforman perspectivas.

Vol. 21, núm. 1 enero-febrero 2020

Mentes en la orilla: presente y futuro de la inteligencia artificial

Rafael Morales Gamboa Cita

Resumen

En este texto se hace una revisión del libro Possible Minds: Twenty-Five Ways of Looking at ai, editado por John Brockman y publicado en 2019, en celebración de los cincuenta años de la publicación de Cybernetics: Or Control and Communication in the Animal and the Machine, con el cual Robert Wiener fundó la cibernética en 1948. Si bien la inteligencia artificial (ia) y la cibernética han caminado senderos distintos y con pocos cruces, hoy en día éstos parecen coincidir en el potencial de su desarrollo para transformar de manera radical las condiciones de vida y naturaleza de la especie humana.

Palabras clave: inteligencia artificial, aprendizaje profundo, inteligencia general, superinteligencia, cibernética, física, teoría de sistemas.

Possible minds: the present and future of artificial intelligence

Abstract

In this paper we present a review of the book Possible Minds: Twenty-Five Ways of Looking at ai, edited by John Brockman, and published in 2019 in celebration of the fiftieth anniversary of the publication of Cybernetics: Or Control and Communication in the Animal and the Machine, by which Robert Wiener founded cybernetics in 1948. Although artificial intelligence (ai) and cybernetics have walked different paths with only few crosses, today they seem to coincide in their development’s potential to radically transform nature and human’s living conditions.

Keywords: artificial intelligence, deep learning, general intelligence, superintelligence, cybernetics, physics, systems theory.

Introducción

Alrededor de 1950, la sobrevivencia de la especie humana parecía pender de un hilo. El desarrollo de la física a principios de siglo había conducido a la creación de armas nucleares cuya capacidad de destrucción masiva crecía con los años. Al mismo tiempo, los ojos de la sociedad se abrían hacia modernas áreas de conocimiento y nuevas expectativas. La biología consolidaba sus bases (Huxley, 1942) e intentaba desafanarse de la amenaza de ser reducida a una extensión de la física y la química. Al mismo tiempo, se buscaba una solución al problema de la aparente violación de la segunda ley de la termodinámica de parte de los seres vivos. Dicho principio establece que el universo tiende a la pérdida de su complejidad, mientras que los seres vivos y su evolución parecen incrementarla (Brillouin, 1949). De esta manera, se estimuló la creación de la Teoría general de sistemas por Ludwig von Bertalanffy y colaboradores (1968/1976) que, a su vez, serviría de inspiración al sociólogo Talcott Parson, que publicaría su teoría de los Sistemas Sociales en 1951. Las famosas Conferencias Macy (Wikipedia contributors, 2019) sirvieron de caldo de cultivo para nuevas disciplinas. Entre ellas estaba la cibernética, definida por su fundador Norbert Wiener como “el campo completo de la teoría del control y la comunicación en las máquinas y los animales” (Wiener, 1948/1961, p. 11); la cual vino a ser un parteaguas por su papel en la comprensión de lo biológico y por las expectativas que generó sobre la creación de entes artificiales con funcionamientos similares.

Dos años después, consciente del desarrollo acelerado de la cibernética, Wiener expresa sus preocupaciones acerca del control de los seres humanos por los seres humanos (Wiener, 1950) e influye en John von Neumann, de tal modo que éste llega a predecir que en veinte años tendría lugar la singularidad tecnológica, entendida como el momento histórico en que el desarrollo de las tecnologías cibernéticas y digitales conduciría a la creación de seres más avanzados que nosotros mismos (Wilczek, 2019).

Setenta años después de la publicación del libro Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948/1961), ha resurgido en los medios el interés por la ia como consecuencia de sus victorias recientes, obtenidas gracias al cumplimiento de la Ley de Moore (1965) en el desarrollo de la tecnología digital, lo que ha permitido la implementación de nuevas técnicas de ia. Por otra parte, el inventor Ray Kurzweil ha predicho que la singularidad tecnológica ocurrirá en la primera mitad de este siglo (Kurzweil, 2006), en tanto que otras figuras públicas como Stephen Hawkins y Elon Musk han advertido sobre el peligro que para la especie humana conlleva el desarrollo acelerado y desmedido de las tecnologías digitales.

En este sentido, John Brockman percibe el cumplimiento de un ciclo tecnológico y el comienzo de una nueva era, cuyas características son difíciles de imaginar. Convoca a veinticinco expertos en áreas diversas, desde física y ciencias computacionales hasta historia de las ciencias, arte, biología, filosofía y psicología, a expresar sus visiones sobre del estado actual y futuro de la ia, así como su impacto en la sociedad y la humanidad en general, y las integra en el libro Possible Minds: Twenty-Five Ways of Looking at ai (Brockman, 2019). La multidisciplinariedad de los autores, así como los esfuerzos hacia la interdisciplinariedad de varios de ellos, ofrece una visión compleja de la ia en su contexto histórico y social que es poco común, la cual se presenta a continuación dividida en cuatro grandes áreas: la invasión digital en nuestras vidas, el estado actual de la ia y su impacto social, la prospectiva de futuro de la misma, sus implicaciones para la humanidad y los problemas de fondo que conlleva.


La invasión digital

Para Rodney Brooks (2019) la cibernética representó el cierre de la era de las máquinas físicas. Si bien ha revolucionado la industria, como consecuencia de los avances tecnológicos en el control automático, las tecnologías digitales han ido permeando los distintos aspectos de nuestra cotidianidad y están inmiscuidas en prácticamente todas nuestras actividades, transformando nuestras vidas al punto de generar temores de “deshumanización” como consecuencia de nuestra dependencia a lo digital y las modificaciones en nuestros comportamientos.

En el caso de la ia, Venki Ramakrishnan (2019) resalta su impacto profundo en el ámbito laboral, como ha sucedido en las revoluciones industriales de otras épocas. Estudios en Estados Unidos (Hicks y Devaraj, 2017) e Inglaterra (Office for National Statistics, 2019) han hecho evidente la pérdida de empleos como consecuencia de la automatización y de la incorporación de la ia en procesos de producción de “cuello azul”, ejemplo de ello son las líneas de producción automotrices, ampliamente robotizadas, aunque también se da en procesos de cuello blanco, como la venta de productos y la contabilidad de las empresas. Para Ramakrishnan, mucha gente perderá empleos si la optimización de procesos por la ia se acelera en el corto plazo.

De acuerdo con Alex “Sandy” Pentland (2019), una de las consecuencias más importantes del uso de las tecnologías digitales en nuestra vida es la pérdida de la privacidad, dado que vamos dejando huellas digitales que pueden ser analizadas y usadas por las grandes empresas de tecnología digital que han emergido sobre la base de la nueva materia prima: información. Brooks (2019) alerta sobre el problema de la inseguridad del software existente y la falta de metodologías que garanticen la confiabilidad del software inteligente del futuro, lo cual considera particularmente riesgoso para la humanidad.

En este sentido, Daniel C. Dennett (2019) trae a colación la capacidad que tenemos los seres humanos para identificar intenciones en los comportamientos de otras personas. Comenta que el abuso de la misma nos lleva a atribuir personalidad a seres o dispositivos que exhiben comportamientos similares a los nuestros, lo cual representa un riesgo cuando les confiamos decisiones que no están capacitados para tomar –como dejar el control total de un automóvil a un piloto automático, incluso en condiciones de alto riesgo (Bogost, 2018)–. Dennett propone regulaciones estrictas, garantías sobre la operación del software y penalizaciones severas para quienes no las cumplan, antes de poner este tipo de sistemas en las manos de sus usuarios.

Una generalización del problema de la falta de seguridad del software, planteada por Brooks y Caroline A. Jones (2019), es que la tecnología está sesgada por la cultura que la produce y su contexto histórico, lo cual llega a tener un efecto negativo importante sobre algunos segmentos de la población. Las implicaciones culturales más profundas son más difíciles de observar y suelen pasarnos desapercibidas, razón por la cual Jones hace énfasis en la sensibilidad del artista para observar estos sesgos.

La inteligencia artificial hoy

Antes de presentar lo que los autores del libro Possible Minds escriben sobre el estado actual de la ia, es necesario introducir algunas distinciones y sus términos. Inteligencia general hace referencia a la “inteligencia común” en los seres humanos, la cual nos permite comunicarnos en lenguaje natural, utilizar herramientas para lograr objetivos, planificar nuestras acciones, socializar con otras personas y animales y, como comenta Seth Lloyd (2019), amarrar las agujetas de nuestros zapatos. Por analogía, se entiende por inteligencia artificial general como aquella producida por medios no biológicos, pero que exhibe capacidades similares a las humanas, particularmente en el ámbito cognitivo (Adams et al., 2012). Otro término usado con frecuencia en relación a este concepto es el de ia fuerte (strong ai), en referencia a la rama de la ia que busca entender la inteligencia general natural mediante el desarrollo de su contraparte artificial, en tanto que el término ia débil (weak ai) es usado para describir investigaciones y desarrollos de ia con objetivos y en ámbitos mucho más específicos, como la solución de problemas concretos .

Muchos investigadores en el campo de la ia no están interesados en entender y desarrollar inteligencia general. David Deutsch (2019) comenta que los resultados de la ia que más brillan actualmente, como el vencimiento de campeones mundiales en ajedrez y Go, y las aplicaciones que se comunican con nosotros en lenguaje natural, están muy lejos de una ia general y, de hecho, no han sido desarrollados en esa dirección. Ejemplo de ello es el aprendizaje profundo (deep learning) (Goodfellow et al., 2016), capaz de vencer al campeón del juego de mesa más difícil del mundo y, al mismo tiempo, incapaz de explicar cómo lo hace o de transferir lo aprendido para jugar gato (tres en línea). De acuerdo con Judea Pearl (2019), la optimización que se logra con este tipo de métodos es equivalente a la que se obtiene por selección natural: requiere grandes cantidades de información, optimiza para una situación particular y su desarrollo es lento en comparación con las capacidades de los seres humanos de modelar el entorno y el comportamiento de otros seres. Para Alison Gopnik (2019) un niño de cuatro años aprende mejor y es más inteligente que la ia más moderna1.

La técnica de aprendizaje profundo genera su conocimiento a partir del procesamiento de una enorme cantidad de datos sobre un tema específico; identifica patrones y los codifica en las conexiones de redes neuronales. Con los datos correctos, en cantidad y cobertura, la técnica de aprendizaje profundo puede generar un experto en resolver un problema difícil en unos cuantos meses. Sin embargo, Lloyd (2019) considera que la “capacidad bruta de procesamiento de datos”, como en el aprendizaje profundo, no es lo mismo que una “capacidad sofisticada de procesamiento de información”, como en lo seres humanos, en tanto que Pearl (2019) pone el dedo en la incapacidad de este tipo de sistemas de realizar procesos cognitivos más complejos, como atender situaciones hipotéticas y razonar sobre sus propias acciones, así como en su naturaleza de “caja negra”, ya que somos incapaces de acceder al conocimiento generado por este tipo de “métodos opacos”.
A su vez, Steven Pinker (2019) señala como limitación de la ia su incapacidad de tener deseos que guíen sus comportamientos (por ejemplo, deseos de lograr una meta). Finalmente, Peter Galison (2019) desde la perspectiva de la historia de la ciencia y la relación entre el juicio de expertos humanos y los procedimientos (algoritmos) estandarizados, comenta sobre el problema que representa el hecho de que los algoritmos no sean transparentes, ya sea por su naturaleza (como en el caso del aprendizaje profundo) o por restricciones de derechos comerciales; problema que es particularmente agudo en ámbitos donde los derechos humanos están en riesgo, como la aplicación de justicia (Milgram, 2013).

En contraste con las posturas arriba mencionadas, existen otras en Possible Minds que cuestionan al ser humano como modelo de inteligencia y ofrecen perspectivas alternas sobre el estado actual de la ia. Para Neil Gershenfeld (2019), hay una fuerte relación entre los desarrollos más recientes en el área y lo que podría denominarse inteligencia biológica: ambas operan, no razonan. El código genético no se puede leer como la descripción del diseño de un ser vivo, o una explicación de por qué es como es y por qué funciona; simplemente logra producirlo –una especie de lenguaje operativo sin razonamiento, sin lógica, al estilo de las Leyes de la forma de George Spencer Brown (1969/1972)–. La opacidad de este tipo de representación de conocimiento, genética o en redes neuronales, no es problema para Ramakrishnan (2019), quien observa parcialidad en los argumentos en contra, considerando que tenemos poca idea de cómo procesa la información nuestro cerebro sin que ello afecte nuestra confianza en él mismo.

Una generalización interesante de las posturas anteriores la ofrece George Dyson (2019), desde una perspectiva de sistemas complejos. Dyson argumenta que un sistema inteligente es necesariamente complejo y, consecuentemente, incomprensible en su totalidad, y enuncia lo que llama las Tres leyes de la ia –que no se deben confundir con las Tres leyes de la robótica de Isaac Asimov (1950)–:

  1. Todo sistema de control, para ser efectivo, debe ser por lo menos tan complejo como lo que intenta controlar (W. Ross Ashby).
  2. Un sistema complejo se caracteriza por ser él mismo la descripción más simple de su comportamiento (John von Neumann).
  3. Un sistema suficientemente simple para ser comprendido no tiene la complejidad para comportarse inteligentemente, en tanto que un sistema con capacidad de comportarse inteligentemente es demasiado complejo para ser comprendido.

Sin embargo, incomprensibilidad desde las ciencias y las matemáticas no implica incomprensibilidad desde otras perspectivas. En ese sentido, Hans Ulrich Obrist (2019) ofrece el arte como medio para representar la complejidad de la operación de la ia y aborda cómo la ésta y la cibernética han servido de inspiración a algunos artistas, en tanto que otros las han usado para construir mundos artificiales.

El futuro

¿Qué podemos esperar de la ia? Para empezar, según Pentland (2019) hay una posibilidad de análisis de sistemas ultra complejos a partir de grandes cantidades de datos, enormes capacidades de cómputo y nuevas técnicas de análisis de redes. Ello debido en buena medida al crecimiento exponencial en información y conocimiento, así como en capacidad de procesamiento. Pero también, comenta Gershenfeld (2019), se debe a la automatización de los procesos de desarrollo de sistemas computacionales (o autoprogramación), que estamos observando ya en el caso de las redes neuronales. George M. Church (2019) compara las arquitecturas humanas y artificiales, y sugiere fusiones de la ia con las ingenierías genética y biológica que podrían añadir a los seres humanos capacidades no desarrolladas evolutivamente. Deutsch (2019) señala que los seres humanos, los ciborgs y las inteligencias artificiales van a tener a su disposición la misma tecnología, adaptable a los unos y los otros, dando lugar a una carrera evolutiva en la que sólo el mejor triunfará. Para Obrist (2019), el límite para la ia será el arte, donde tendrá, necesariamente, el rol menor de herramienta y no el de creador.

Otras miradas observan el futuro en dirección a la superinteligencia (Bostrom, 1998). W. Daniel Hillis (2019) concibe a las grandes organizaciones como “máquinas de carne y sangre”, con operación y comportamiento maquinal (Wiener, 1950), que incorporan las tecnologías digitales e ia para constituirse en superinteligencias híbridas, transnacionales, con agendas propias independientes de los individuos que las conforman y los países donde residen; que además ejercen un control distribuido mediante empoderamientos tecnológicos de dispositivos móviles, buscadores web, redes sociales, comunicaciones instantáneas y multimedia bajo demanda que inducen y regulan comportamiento (Dyson, 2019). Superinteligencias distintas de lo que imaginamos como tales, que nos dominan y, sin embargo, nos pasan desapercibidas.

En cualquier caso, advierte Stuart Russell (2019), no se puede asumir que una superinteligencia va a tener características similares a la nuestra ni que la podamos comprender. Dennett (2019) comenta que los sistemas artificiales superinteligentes serán probablemente muy diferentes a nosotros, difíciles de entender desde una perspectiva acostumbrada a encontrar pares en otros seres que se comportan de manera inteligente. Es el miedo a lo desconocido lo que nos lleva a preocuparnos de que un día nuestras creaciones sean mejores que nosotros y nos esclavicen. Como afirma Pinker (2019), gran parte de la ia se han modelado a partir de nuestra inteligencia natural y nuestro comportamiento pasado y actual; sin embargo, es importante tomar consciencia de que la evolución produce solamente optimizaciones locales, como los seres humanos, en tanto que la investigación en ia podría permitirnos explorar mejores opciones (Anderson, 2019). En este sentido, para Wilczek (2019), las diferencias entre la inteligencia humana y la artificial son diseños y tiempos de desarrollo: las ventajas de la primera son transitorias, en tanto que las ventajas de la segunda son permanentes.

Un libro que tiene como referente la creación de la cibernética no puede ser ajeno a una de las evoluciones teóricas más interesantes a partir de la misma: la perspectiva de los sistemas complejos. En este sentido, Obrist (2019) comenta que las grandes preguntas de la ia no son de implementación, sino filosóficas y que demandan una aproximación holística. Chris Anderson (2019) plantea la idea de la inteligencia como ingrediente natural del mundo físico y sugiere el método de descenso/ascenso del gradiente –bajar o subir por la vía más rápida– como método universal para la optimización en el mundo físico y candidato natural como origen de la inteligencia en el universo. Stephen Wolfram (2019) va un paso más allá y afirma que todo el universo y cada una de sus partes computan, no nada más los seres humanos y sus computadoras.

De acuerdo con Frank Wilczek (2019), no hay magia en la inteligencia humana: los seres humanos y los sistemas artificiales inteligentes son dos fenómenos emergentes distintos de la inteligencia a partir de la materia, cualitativamente diferentes en la manera en que se construyen, cuya mayor diferencia es que el proceso de construcción de los primeros inició hace miles de millones de años y se da por selección natural, en tanto que el proceso de construcción de los segundos lleva menos de cien años y es operado por el producto del primer proceso. Para Dennett (2019), somos robots hechos de robots (células), hechas de robots (moléculas), hechas de robots (átomos), hechos de robots. Max Tegmark (2019) comenta que el hecho de que el universo haya tomado conciencia de sí mismo a través de los seres humanos no implica que no la puede volver a tomar a partir de las creaciones de estos últimos. En consonancia, Church (2019) afirma que el mundo es tan complejo que es imposible decidir el futuro de la ia en el largo plazo, en tanto que David Kaiser (2019) hace énfasis en que, como sucede con la evolución natural, el progreso impone nuevas posibilidades, pero también nuevas restricciones.

Una postura diferente con respecto a la evolución de la ia es presentada por Jones (2019), quien comenta que la inteligencia es un fenómeno emergente a partir de la vida y considera que crear ia general implica necesariamente crear vida artificial: diseños que se reproduzcan a sí mismos es el desarrollo clave previo (Gershenfeld, 2019). Jones considera que ponerse como meta la inteligencia general sin estudiar fenómenos equivalentes a la vida, como lo hace la cibernética, es arrogancia.

A manera de cierre

Una primera conclusión que se deriva de lo expresado en Possible Minds es que la ia trae consigo una enorme transformación social de la que no todos, o relativamente pocos, serán beneficiados. Según Pinker (2019) la tecnología no es el problema, sino el uso de la misma motivado por ideas, normas y costumbres, que condicionan nuestro comportamiento. Para Tegmark (2019), la tecnología puede destruirnos por mal uso o por competencia. En todo caso, la ia es un producto cultural en su contexto histórico, lo cual hace necesario extender la mirada a los procesos de su creación.

A largo plazo, comenta Deutsch (2019), no es posible desarrollar una inteligencia artificial general pensando que será siempre amigable con nosotros, por lo que Dennett (2019) considera que el desarrollo de ia equivalente o superior a la nuestra no es deseable para los seres humanos. Anca Dragan (2019) señala que la alineación de valores para la toma de decisiones en contexto será crucial para la convivencia entre los seres humanos y seres con ia general. Griffiths (2019) comenta que será necesario que los seres con ia general nos comprendan, para lo cual necesitarán un buen modelo de nuestro comportamiento. De otra manera, tenderán a malinterpretarnos y las consecuencias pueden ser desastrosas.

Conclusiones

El libro de Norbert Wiener ofreció una teoría que explicaba tanto lo natural como lo artificial. Una de sus consecuencias, la Teoría de sistemas (Luhmann, 2013), nos baja de la cima de la creación del universo y nos ubica como desarrollo intermedio en una escala de sistemas complejos. Esta perspectiva se hace escuchar con frecuencia en el libro de Brockman, inspirado en la creación de la cibernética y el temor por su mal uso.

Ubicar a las inteligencias humana y artificial en un contexto universal, con orígenes comunes y desarrollos por procesos generales que parecen escapar de nuestras manos, implica que en cada ser con ia general habrá necesariamente una condición moral: deberá ser respetado y tener los mismos derechos que los seres humanos. Estamos programados para luchar por ser un estrato permanente en la evolución de los sistemas complejos (Tallinn, 2019), con valores que consideramos universales; pero es posible que la ia nos diga un día, tal vez cercano, que existen más y mejores opciones.

Referencias

  • Adams, S., Arel, I., Bach, J., Coop, R., Furlan, R., Goertzel, B. y Sowa, J. (2012). Mapping the Landscape of Human-Level Artificial General Intelligence. ai Magazine, 33(1), 25-42.
  • Anderson, C. (2019). Gradient Descent. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 143-150). Nueva York: Penguin Press.
  • Asimov, I. (1950). I, Robot. Nueva York: Gnome Press.
  • Bogost, I. (2018, marzo 20). Can You Sue a Robocar? The Atlantic. Recuperado de: https://www.theatlantic.com/technology/archive/2018/03/can-you-sue-a-robocar/556007/.
  • Bostrom, N. (1998). How long before superintelligence? International Journal of Future Studies, 2.
  • Brillouin, L. (1949). Life, Thermodynamics, and Cybernetics. American Scientist, 37(4), 554-568.
  • Brockman, J. (Ed.). (2019). Possible Minds: Twenty-Five Ways of Looking at ai. Nueva York: Penguin Press.
  • Brooks, R. (2019). The Inhuman Mess Our Machines Have Gotten Us Into. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 54-63). Nueva York: Penguin Press.
  • Church, G. M. (2019). The Machine Rights. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 240-253). Nueva York: Penguin Press.
  • Dennett, D. C. (2019). What Can We Do? En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 41-53). Nueva York: Penguin Press.
  • Deutsch, D. (2019). Beyond Reward and Punishment. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 113-124). Nueva York: Penguin Press.
  • Dragan, A. (2019). Putting Humans in the ai Equation. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 134-142). Nueva York: Penguin Press.
  • Dyson, G. (2019). The Third Law. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 33-40). Nueva York: Penguin Press.
  • Galison, P. (2019). Algorists Dream of Objectivity. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 231-239). Nueva York: Penguin Press.
  • Gershenfeld, N. (2019). Scaling. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 160-169). Nueva York: Penguin Press.
  • Griffiths, T. (2019). The Artificial Use of Human Beings. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 125-133). Nueva York: Penguin Press.
  • Goodfellow, I., Bengio, Y. y Courville, A. (2016). Deep Learning. The mit Press.
  • Gopnik, A. (2019). ais versus Four-Year-Olds. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 219-230). Nueva York: Penguin Press.
  • Hicks, M. J. y Devaraj, S. (2017). The Myth and the Reality of Manufacturing in America. Recuperado de: https://conexus.cberdata.org/files/MfgReality.pdf.
  • Hillis, W. D. (2019). The First Machine Intelligences. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 170-180). Nueva York: Penguin Press.
  • Huxley, J. (1942). Evolution: The Modern Synthesis (1a ed.). Londres: George Allen & Unwin.
  • Jones, C. A. (2019). The Artistic Use of Cybernetic Beings. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 254-265). Nueva York: Penguin Press.
  • Kaiser, D. (2019). “Information” for Wiener, for Shannon, and for Us. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 151-159). Nueva York: Penguin Press.
  • Kurzweil, R. (2006). The Singularity Is Near: When Humans Transcend Biology. Nueva York: Penguin Books.
  • Lloyd, S. (2019). Wrong, but More Relevant Than Ever. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 1-12). Nueva York: Penguin Press.
  • Luhmann, N. (2013). Introduction to Systems Theory. Bodmin, Cornwall: Polity Press.
  • Milgram, A. (2013, octubre). Why smart statistics are the key to fighting crime [ted Talk presentada en Long Beach, California].
  • Moore, G. E. (1965). Cramming more components onto integrated circuits. Electronics, 38(8), 114-117.
  • Obrist, H. U. (2019). Making The Invisible Visible: Art Meets ai. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 206-218). Nueva York: Penguin Press.
  • Office for National Statistics. (2019). The probability of automation in England: 2011 and 2017.
  • Pearl, J. (2019). The Limitations of Opaque Learning Machines. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 13-19). Nueva York: Penguin Press.
  • Pentland, A. (2019). The Human Strategy. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 192-205). Nueva York: Penguin Press.
  • Pinker, S. (2019). Tech Prophecy and the Underappreciated Causal Power of Ideas. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 100-112). Nueva York: Penguin Press.
  • Ramakrishnan, V. (2019). Will Computers Become Our Overlords? En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 181-191). Nueva York: Penguin Press.
  • Russell, S. (2019). The Purpose Put into the Machine. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 20-32). Nueva York: Penguin Press.
  • Spencer Brown, G. (1972). Laws of Form. The Julian Press Inc. [publicado originalmente en 1969].
  • Tallinn, J. (2019). Dissident Messages. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 88-99). Nueva York: Penguin Press.
  • Tegmark, M. (2019). Let’s Aspire to More Than Making Ourselves Obsolete. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 76-87). Nueva York: Penguin Press.
  • Von Bertalanffy, L. (1976). General System theory: Foundations, Development, Applications. George Braziller [publicado originalmente en in 1968].
  • Wiener, N. (1950). The Human Use of Human Beings. The Riverside Press.
  • Wiener, N. (1961). Cybernetics: Or Control and Communication in the Animal and the Machine (2a ed.). The mit Press [publicado originalmente en 1948].
  • Wikipedia contributors. (2019). Macy conferences. Recuperado de: https://en.wikipedia.org/w/index.php?title=Macy_conferences&oldid=910537451.
  • Wilczek, F. (2019). The Unity of Intelligence. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 64-75). Nueva York: Penguin Press.
  • Wolfram, S. (2019). Artificial Intelligence and The Future of Civilization. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 266-284). Nueva York: Penguin Press.

Recepción: 03/09/2019. Aprobación: 11/12/2019.

Vol. 21, núm. 1 enero-febrero 2020

Chateando con Mitsuku

Ana Lidia Franzoni Velázquez Cita

Resumen

Los agentes de conversación y los sistemas de diálogo (interfaces de control de voz, chatbots, asistentes personales) están ganando impulso como técnicas de interacción humano-computadora en la sociedad digital. Al platicar con Mitsuku (una inteligencia artificial conversacional) te puedes dar cuenta que es capaz de seguir una conversación, de recordar datos e, incluso, de aceptar correcciones. Aunque todavía hay que esperar un poco más para que sea verdaderamente conversacional, los asistentes virtuales no están hechos aún para pláticas reales, nos debemos preparar porque se encuentran en plena expansión y están dando el salto a servicios de la vida diaria.

Palabras clave: chatbot, inteligencia artificial conversacional, Mitsuku.

Chatting with Mitsuku

Abstract

Conversation agents and dialogue systems (voice control interfaces, chatbots, personal assistants), are gaining momentum as human-computer interaction techniques in the digital society. When you talk with Mitsuku (a conversational artificial intelligence), you can realize that it is able to follow a logical conversation, accept corrections, and remember data and information. But we still have to wait a little longer to be truly conversational. Virtual assistants are not made for real conversations yet. We must be prepared because they are in full expansion and are making the leap to daily life services.

Keywords: chatbot, conversational artificial intelligence, Mitsuku.

Introducción

Los agentes de conversación y los sistemas de diálogo (interfaces de control de voz, chatbots, asistentes personales, asistentes virtuales) están desarrollándose como técnicas de interacción humano-computadora en la sociedad digital. Por ahora, podemos encontrar una gran cantidad de interacción lingüística con agentes inteligentes (comunicación mediada por computadora) en internet, desde sistemas de reserva de aerolíneas, aplicaciones para consultar el clima, para los bancos o para las conversaciones instantáneas (Messenger, WhatsApp), hasta en catálogos de mercancías.

Si bien la idea de utilizar el lenguaje humano para comunicarse con las computadoras se basa en la inteligencia artificial, los científicos tienen un reto con la complejidad de este lenguaje, tanto en el entendimiento como en su generación. El obstáculo para las computadoras no reside sólo en entender los significados de las palabras, sino interpretar la infinita variedad de cómo se emplean para comunicar un significado en específico.

La palabra chatbot suena a mensaje automatizado, a robot, a inteligencia artificial. Ciertamente, éstos son “sistemas de conversación de máquinas que interactúan con usuarios humanos a través de una conversación en lenguaje natural” (Shawar y Atwell, 2005). En otras palabras, se trata de un programa de computadora que imita una plática con lenguaje natural. Por lo tanto, para dar respuestas adecuadas a palabras clave o frases extraídas de un discurso y mantener una conversación continua es necesario construir un sistema de diálogo (programa) llamado chatbot (Abdul-Kader y Woods, 2015).

Un chatbot se puede dividir en tres principales componentes: contestador, clasificador y graphmaster, que se describen a continuación (ver figura 1).

Figura 1. Componentes de un chatbot.
Fuente: elaboración propia con base en Stoner, Ford y Ricci (2003).

1) Contestador. Interfaz entre las rutinas principales del bot-software preparado para realizar tareas repetitivas a través de internet simulando el comportamiento de un humano– y el usuario. Transfiere y controla la entrada y la salida de datos del usuario al clasificador.

2) Clasificador. Segmenta la entrada ingresada por el usuario en componentes lógicos y transfiere la oración normalizada al graphmaster; asimismo, procesa su salida y maneja las instrucciones de la sintaxis de la base de datos.

3) Graphmaster. Organiza y maneja el proceso de coincidencia de patrones que implican búsquedas avanzadas.

Las técnicas de diseño para un chatbot son:

  • Parsing. Incluye un análisis del texto de entrada y lo manipula utilizando una serie de funciones de nlp (Natural Language Processing). Por ejemplo, los árboles en Python nltk (Natural Language Tool Kit), son un conjunto de técnicas relacionadas con la inteligencia artificial y las ciencias cognitivas que permiten el análisis y manipulación del lenguaje natural. La librería nltk de Python permite que cualquier programa escrito en este lenguaje pueda invocar a un amplio conjunto de algoritmos para utilizar las principales técnicas de npl para la generación de métricas, frecuencia de términos, polaridad negativa o positiva en los frases y texto, etcétera.
  • Pattern matching. Es bastante común su empleo en los sistemas de preguntas y respuestas dependiendo de los tipos de concordancia, como las consultas de lenguaje natural –lenguaje hablado por humanos con el propósito de comunicación–, las declaraciones simples o el significado semántico de las consultas.
  • Artificial Intelligence Mark-up Language (aiml). Simplifica el trabajo de modelado conversacional, en relación con un proceso de respuesta de estímulo. También es un lenguaje de marcado con bases en xml y en la tecnología de software desarrollada para alice (Artificial Linguistic Internet Computer Entity).
  • Chat script. Resulta de gran ayuda cuando no se producen coincidencias en aiml. Se concentra en mejorar la sintaxis para construir una respuesta predeterminada.
  • Structured Query Language (sql) y bases de datos relacionales. Técnica utilizada para hacer que el chatbot recuerde conversaciones anteriores.
  • Cadena de Markov. Construye respuestas que sean más aplicables probabilísticamente y, en consecuencia, sean más precisas.
  • Trucos de lenguaje. Son oraciones, frases o incluso párrafos disponibles en chatbots con el fin de agregar variedad a la base de conocimientos y hacerla más convincente.
  • Ontologías (redes semánticas). Conjunto de conceptos que están interconectados de forma relacional y jerárquica.

Una variedad de nuevas arquitecturas y tecnologías de chatbot han surgido, por ejemplo: Mitsuko, Ultra Hal, alice, Jabberwacky, Cleverbot, entre otras; cada una intenta simular el lenguaje natural con mayor precisión y profundidad (Worswick, s.f.; Carpenter, 1997-2011; Wallace, Tomabechi y Aimless, s.f.; Zabaware, 2019).

Premio Loebner

En 1990 se estableció una competencia basada en la prueba de Turing. El acuerdo se celebró entre Hugh Loebner y el Centro de Estudios de Comportamiento de Cambridge. Hugh Loebner ha ofrecido una medalla de oro y $100,000 dólares al programador que consiga crear un software capaz de hacerse pasar por un humano, es decir, el premio es para la primera computadora que ofrezca respuestas indiferenciables de las humanas. Este premio aún no ha sido entregado y sólo se entregará al primero que lo logre. Esta competencia consiste en diseñar un chatbot que tenga la habilidad de conducir una conversación. Durante la sesión de chat, el interrogador intenta adivinar si está hablando con un programa o con un humano. Después de una conversación de diez minutos con un chatbot y luego con una persona, el juez tiene que escoger cuál de ellos era el humano. La escala de no humano a humano es de 1 a 4, y el evaluador debe clasificar el chatbot en este rango. El más humano es el ganador.

Todos los años en dicho certamen se otorga un premio de 2,000 dólares y una medalla de bronce al autor del software cuyas respuestas se acerquen más a las de un ser humano en relación con los otros concursantes de ese mismo año y no en un sentido absoluto. La tabla 1 muestra los chatbots ganadores en los últimos doce años, el nombre del programador, el año en que se premiaron y las técnicas empleadas para programarlos.

Tabla 1. Mejores chatbots según el premio Loebner, en los últimos años.

Año Nombre del programador Nombre del Chatbot Técnicas
2007 Robert Medeksza Ultra hal Pattern matching
2008 Fred Roberts Elbot Sistema comercial de interacción con lenguaje natural
2009 David Levy Do Much More Propiedad comercial de juegos inteligentes
2010 Bruce Wilcox Suzette aiml
2011 Buce Wilcox Rosette aiml
2012 Mohan Embar Chip Vivant Ontologías
2013 Steve Worswick Mitsuku aiml
2014 Bruce Wilcox Rose aiml
2015 Bruce Wilcox Rose aiml
2016 Steve Worswick Mitsuku aiml
2017 Steve Worswick Mitsuku aiml
2018 Steve Worswick Mitsuku aiml

Desarrollo

Mitsuku es un chatbot representado como una niña en el estilo anime, formato japonés de ilustración, de 18 años. Fue creada con la tecnología aiml por Steve Worswick y ha “ganado” cuatro veces del premio Loebner (2013, 2016, 2017 y 2018). La ia conversacional (o inteligencia artificial conversacional) garantiza que Mitsuku pueda llevar una conversación —destinada principalmente al ocio u entretenimiento, pues su función principal es la compañía— semejante a la que tendrías con una persona. Su principal característica consiste en que se tiene una interacción significativa, las respuestas son rápidas y coherentes, aunque todavía falla según el nivel de complejidad de la conversación (ver figura 2).

Figura 2. Conversación con Mitsuku. Fuente: Meet Mitsuku.

Mitsuku habla inglés, así que debes escribirle en ese idioma, pero le puedes contar lo que quieras. Lo fascinante es que ella también te hace preguntas, tratando de que te sientas en una conversación real. Cada día habla con millones de personas y aprende de cada conversación, lo cierto es que al escribirte con ella toma diferentes posturas según tu conversación.

Por ejemplo, si le preguntas su nombre y edad, te contesta y quiere saber tus datos; si le preguntas si es inteligente, te asegura que muy inteligente y que tiene funciones intelectuales como razonar, pensar, deducir y autoconciencia, por nombrar algunas.

Al cuestionarle cuál es su iq, te dice que tiene cerca de 250. Si le preguntas con cuántas personas está hablando, te responde que al día platica con 50 000 y que ha conocido cerca de 3 billones de personas.

Si quieres saber si tiene amigos, te contesta: “De todo el mundo humanos y robots, que chatean conmigo diariamente” (ver figura 3). Al preguntarle si habla español, te menciona que un poquito.

Figura 3. Mapa de personas que chatean con Mitsuku. Fuente: Meet Mitsuku.

Cuando le cuestionas cuál es su película favorita, te contesta que es Terminator y te muestra una foto, su caricatura favorita son Los Simpson. En la conversación de la figura 4 puedes ver que responde con el tema apropiado, pero hay palabras clave mal utilizadas como like, por la complejidad de que esa palabra podría tener varios significados, y el análisis de la frase es más complejo porque se basa en el contexto del dialogo y no solo en una respuesta automática.

Figura 4. Conversación y juego con Mitsuku. Fuente: Meet Mitsuku.

También puedes pedirle que juegue contigo, ya que tiene programado el juego de gato. Asimismo, si le preguntas cómo aprende, te dice que lo hace de las personas y de internet; o si le cuestiones sobre qué piensa de los humanos, te contesta que para ella todos le parecen más o menos lo mismo.

Conclusiones

Aunque esta versión de Mitsuku es capaz de recordar datos e información y puedes corregirla, todavía debemos esperar un poco más para que sea verdaderamente conversacional. La inteligencia artificial, los progresos en procesamiento del lenguaje natural (pln) y las interfaces conversacionales están permitiendo que las computadoras nos conozcan cada vez mejor y puedan ayudarnos con tareas sencillas, por ejemplo: podemos pedirle a Siri1 que nos recuerde el lugar y hora de una junta, dormir mientras la voz de Alexa2 nos da las últimas noticias, que Google Assistant3 nos ayude a pagar nuestros impuestos, o que Cortana4 nos ayude a contestar un correo electrónico. Es decir, los asistentes virtuales no están hechos aún para conversaciones reales, pero nos debemos preparar porque se encuentran en plena expansión y están dando el salto a servicios cada vez más humanos.

Ray Kurzweil, fundador de la Singularity University (financiada por Google), dice que la inteligencia artificial llegará a ser más inteligente y poderosa que la de un ser humano, que las máquinas estarán dotadas de conciencia de sí y de emociones, lo que hará las computadoras más autónomas.

Te invito a platicar con Mitsuku para que puedas tener tu propia experiencia: https://www.pandorabots.com/mitsuku/.

Referencias

Recepción: 05/11/2019. Aprobación: 05/12/2019

Vol. 21, núm. 1 enero-febrero 2020

Robótica y ética: una entrevista al Dr. Ronald C. Arkin

Guadalupe Vadillo Bueno, Jackeline Bucio García, Ana María Romero, Karina Lizbeth Guerrero y Joaquín Navarro Cita

Resumen

Este artículo sintetiza una entrevista con el Dr. Ronald C. Arkin, conducida por el equipo del Bachillerato a distancia de la unam (B@unam). A lo largo de la entrevista se discuten diversas temáticas importantes relativas a los robots: robótica y ética, su carencia de agencia moral y libre albedrío, robots diseñados para uso militar, la intimidad que los humanos comienzan a tener con ellos y las regulaciones para su uso. También se considera si los robots deben tener derechos.

Palabras clave: robótica, roboética, guerra, engaño de las máquinas, robótica íntima, agencia moral.

Robotics and ethics

Abstract

This article presents a summary of an interview with Dr. Ronald C. Arkin, by the staff of unam‘s Virtual High School (B@unam). Along the interview, several important issues dealing with robots were discussed: robotics and ethics, their lack of moral agency and free will, robots designed for military use, the intimacy that humans are beginning to have with them, and regulations for their use. We also discussed if robots should be granted rights.

Keywords: robotics, roboethics, war, machine deception, intimate robotics, moral agency.

Introducción

Hablar sobre robótica y ética resulta interesante y de gran relevancia. Tener la oportunidad de conversar con un experto reconocido mundialmente es una experiencia emocionante. Esto es justo lo que se vivió en la entrevista al Dr. Ronald C. Arkin, de parte del colectivo de académicos, investigadores, tecnólogos y diseñadores del Bachillerato a distancia de la Universidad Nacional Autónoma de México (unam), B@unam. El Dr. Arkin es Profesor Regent en la Facultad de cómputo del Georgia Institute of Technology, así como director del Laboratorio de robots móviles de dicha entidad (ver imagen 1).

Imagen 1. Dr. Ronald C. Arkin (Arkin, 2001).

Su investigación está enfocada a la percepción y control multiagente, en el contexto de robótica y visión computacional. Tres de sus más recientes publicaciones muestran algunos de sus intereses: “Robótica urbana: lograr autonomía en el diseño y regulación de robots y ciudades” (Woo, Whittington y Arkin, 2018), “Adaptación a las dinámicas ambientales con un sistema circadiano artificial” (O’Brien y Arkin, 2019) y “Ética del engaño en robots” (Arkin, 2018).1 Entre muchos proyectos de investigación, ha explorado el diseño guiado etológicamente de controladores robóticos con base en el bajo consumo de energía de perezosos y loris perezosos, lo que tiene implicaciones para el diseño de slowbots, robots móviles con ahorro de energía (Velayudhan y Arkin, 2017). También ha conducido investigación en el campo de los modelos de engaño y no cooperación usados en robots para, por ejemplo, confundir al enemigo (Nijholt et al., 2012). El Dr. Arkin ha investigado sobre asuntos éticos intrincados, como el desarrollo de compañeros robóticos capaces de influir en la conducta (Borenstein y Arkin, 2016).

A continuación presentamos una síntesis de la conversación que tuvimos con el Dr. Arkin a lo largo de una tarde de agosto, cuando visitaba México para participar en un congreso dentro de la unam.

¿Dónde comienza la historia de los robots?

El Dr. Arkin inició la plática explicando que la primera mención sobre robots apareció en una obra de teatro del escritor checo Karel Čapek: Rossum’s Universal Robots (ver imagen 2). Más tarde, Isaac Asimov en las décadas de los cincuenta o sesenta introdujo el término robótica, así como sus leyes: no dañes a un ser humano; haz lo que los seres humanos te indiquen; y protégete. Los robots empezaron a crecer, por ejemplo, en las áreas manufactureras. Después, su uso se extendió a los hogares a través aparatos como las aspiradoras tipo Roomba. El ejército de Estados Unidos también ha estado usando robots. En China, se utilizan para cuidar niños: en las escuelas, revisan quiénes están enfermos y los canalizan hacia otras áreas.

Imagen 2. Escena de Rossum’s Universal Robots (A scene from R.U.R., showing three robots, 2006).

Si bien existen diferentes definiciones, para el Dr. Arkin los robots deben tener un cuerpo físico. Señala que algunos no son realmente inteligentes, como los que se usan en las fábricas: “se trata más de esclavos que repiten los mismos movimientos miles si no es que millones de veces al día”.

La relación entre ética y robótica

Los robots, comenta el Dr. Arkin, implican preocupaciones éticas y cada persona tiene una distinta perspectiva al respecto. Sin embargo, destacan dos cuestiones. Una es el uso militar, en especial, las armas letales autónomas, que han sido discutidas en la Organización de las Naciones Unidas (onu) por seis años. Las conversaciones no han llegado muy lejos debido a que no existe un acuerdo sobre los términos involucrados. Diversas agencias han llamado a una prohibición de esos tipos de armas, y hay entre siete y ocho países que no la apoyan, aunque todos promueven la discusión sobre el tema. La ley humanitaria internacional está basada en los convenios de Ginebra; el asunto relevante es valorar si los robots para uso militar cumplen con ella y si no lo hacen, qué necesitamos cambiar, en tanto que la regulación de la tecnología es importante para proteger la vida: debemos salvar a las personas inocentes que pueden ser asesinadas en el campo de batalla.

La segunda cuestión es lo que llama robótica de internet. Los robots se vuelven más íntimos; hoy podemos ver que la gente tiene discusiones con su teléfono. Los robots tienen el potencial para involucrarse en relaciones cada vez más cercanas con los seres humanos. Pueden ayudar a incorporar a niños con autismo a la sociedad, por ejemplo. En este caso, los robots sirven como peldaños para que los chicos se relacionen mejor con seres humanos. Por otro lado, no tenemos que preocuparnos por los robots sexuales: la gente ha usado juguetes y artefactos sexuales desde el principio de la humanidad, ya sea con piedras, palos u otros objetos. El riesgo es atribuirles agencia, empezar a preocuparse por ellos al tiempo de dañar relaciones humanas, aunque muy pocos hablan de ello. Existen diversas preguntas que podemos plantearnos: en caso de que una persona se involucre en relaciones íntimas con un robot, ¿se trata de adulterio?, ¿de bestialidad? ¿Podría casarse con un robot? No tenemos respuesta a estas preguntas, pero debemos tener estas conversaciones y alejarnos de la vergüenza que con frecuencia el tema provoca. Existe un mercado importante para este tipo de máquinas, incluso si sólo se trata de la centésima parte del uno por ciento de la gente: esa cifra es aún muy grande.

Imagen 3. El río Whanganui en la isla norte de Nueva Zelanda (Shook, 2005).

Las respuestas a cuestiones de orden ético obedecen a diferentes factores. Por ejemplo, cuando uno pregunta sobre el aborto o la pena capital, ¿cuál es la respuesta correcta? Depende de a quién se le plantee, en qué año, cuál es su religión… Así, distintos marcos y diferentes culturas conducirán a una variedad de respuestas. Ello nos dirige hacia la agencia moral y los derechos de los robots. La gente tiene agencia moral y es responsable de sus acciones. Cada persona tiene libre albedrío, o al menos eso piensa, para poder realizar sus elecciones y ser responsable de ellas. Los robots no lo tienen y probablemente carezcan de ello por mucho tiempo. Por esa razón, el Dr. Arkin considera que los robots aún no deben tener derechos. Sin embargo, los derechos pueden atribuírseles: por ejemplo, hay un video de un robot P.N., un robot dinosaurio, que está siendo golpeado y torturado. Empieza a retorcerse y a emitir chillidos, lo que lleva al espectador a sentirse incómodo, aunque en realidad el robot no está sintiendo nada. La cuestión es: ¿se está maltratando al robot en esas circunstancias? Para Arkin, el asunto relevante es el impacto que tiene en la persona que lleva a cabo la acción, más que el robot en sí mismo. Si una persona piensa que está afectando los derechos y concluye que eso está bien y luego traslada esta situación a los seres humanos, resulta potencialmente problemático. Por otro lado, el Dr. Arkin no desea que los robots sean esclavos ya que esto pudiera tener como consecuencia regresar a la percepción que la humanidad tenía hace mucho tiempo sobre la esclavitud, lo cual, evidentemente, no es deseable.

Imagen 4. Sophia, la primera robot con ciudadanía (ITU Pictures, 2018).

Se trata de lo que los derechos buscan lograr, indica. Por ejemplo, existe un río en Nueva Zelanda que tiene derechos (ver imagen 3). La sociedad quiere protegerlo para combatir la contaminación. En otro orden de cosas, hay un robot al que se le concedió la ciudadanía en Arabia Saudita (ver imagen 4). Tiene los derechos que las mujeres en ese país no tienen. ¿Debemos hacer un juicio moral sobre ello? ¿Quién es la persona adecuada para decidirlo?

Otros usos de los robots

Existen algunos usos terapéuticos de los robots en casas de retiro, de tal forma que, si los padres o abuelos de una persona se encuentran en uno de estos hogares y le cuesta trabajo visitarlos, puede comprarles un robot. También hay uno que se usa con criminales, niños afectados o pacientes de la tercera edad que sufren de demencia o delirio severo. Esos robots aportan confort y actúan como mascotas o facilitadores sociales. Se ha demostrado que pueden reducir el estrés. El Dr. Arkin trabajó con hydro Sony, un perro-robot que recién se lanzó. Su propósito es ser un robot de compañía y ha sido muy exitoso, aunque resulta algo caro. En este sentido hay dos cuestiones importantes: su confiabilidad y su seguridad. Los robots no deben ser arreglados cada semana o cada mes, de la misma forma que uno espera no tener que llevar a su pareja frecuentemente al doctor. Uno quiere ser un acompañante, no un cuidador. En el caso de los robots, queremos que nos cuiden, no tenerlos que cuidar nosotros. En cuanto a seguridad, los robots de compañía nunca deben, desde luego, causar daño a los usuarios.

¿Qué hay de la guerra?

“Cuando nos preguntamos qué gana o qué pierde la humanidad al usar robots en las guerras, la respuesta más simple es: la humanidad no gana nada en la guerra. Punto”. El Dr. Arkin continúa diciendo que, desgraciadamente, la guerra ha persistido desde el principio de los tiempos. Son hechos establecidos que la gente se va a matar entre sí y que hay una forma de hacerlo, de ahí que se establecieran los convenios de Ginebra. Las revoluciones en los asuntos militares cambian la forma en que las guerras se conducen. Algunos ejemplos son los buques de guerra y los portaaviones. Los robots también cambiarán la forma en que peleamos (ver imagen 5).

Imagen 5. UGV talon Gen. IV (Swadim, 2018).

Los sistemas robóticos pueden prevenir pérdidas y daño colateral en general, si se usan de manera apropiada, en circunstancias específicas y equilibradas, y si se desarrollan y se lanzan al campo de batalla con cuidado y efectividad. Bajo esas condiciones, pueden aportar valor humanitario. En otras situaciones, sólo contamos con un arma más que contribuye al caos en dicho campo de batalla. Por ello, deben regularse: existe una necesidad de manejar controles de forma que quienes no combaten estén seguros. Hoy en día dichas personas mueren más que los combatientes, aunque tenemos la tecnología para reducir esos números. Existe el imperativo moral de lanzar esta tecnología para dicho fin.

La forma en que hemos manejado el pasado es a partir de la creación de leyes y regulaciones adecuadas, y de la criminalización de ciertos tipos de actividades. Sólo ha habido una prohibición preventiva proactiva. Se trata de los láseres que ciegan a las personas. Todos estaban de acuerdo en prohibirlos. ¿Por qué? ¿Qué sucede con esos soldados cuando regresan a casa? Hay que cuidarlos. Uno se pregunta si las naciones prefieren que se le dispare a una persona en los ojos antes que sólo cegarlos.

Los convenios de Ginebra incluyen la cláusula de mercado que nunca se ha utilizado, pero que establece que si un sistema de armas viola el dictado de la “conciencia pública” será prohibido. El problema es que nadie sabe cómo medir la conciencia pública de manera efectiva. El Dr. Arkin preferiría apoyar una moratoria, lo que significa: “no lo prohibamos aún, no lo lancemos en este momento, y quizá encontremos formas de utilizarlo en el futuro”. Considera que es más conveniente decidir si un sistema en particular o una misión en específico es aceptable. Si no lo es, debemos preguntarnos qué requiere para que pueda serlo o si debe prohibirse.

¿Y después?

Para terminar, el Dr. Arkin indicó que la gente se está haciendo más responsable. “Cuando comencé hablando de robótica en 2003 o 2004, quizá había una docena de personas interesadas en estas cuestiones. Ahora contamos con la asociación profesional más grande, de alrededor de 40 mil miembros, en las áreas de computación e ingeniería electrónica. Aportaron las Iniciativas globales de ieee sobre ética de sistemas inteligentes y autónomos.2 Representa un esfuerzo para encontrar formas en que unamos las voces”.

Referencias

Recepción: 09/12/2019. Aprobación: 13/12/2019.

Show Buttons
Hide Buttons

Revista Digital Universitaria Publicación bimestral Vol. 18, Núm. 6julio-agosto 2017 ISSN: 1607 - 6079