Vol. 21, núm. 1 enero-febrero 2020

Chateando con Mitsuku

Ana Lidia Franzoni Velázquez Cita

Resumen

Los agentes de conversación y los sistemas de diálogo (interfaces de control de voz, chatbots, asistentes personales) están ganando impulso como técnicas de interacción humano-computadora en la sociedad digital. Al platicar con Mitsuku (una inteligencia artificial conversacional) te puedes dar cuenta que es capaz de seguir una conversación, de recordar datos e, incluso, de aceptar correcciones. Aunque todavía hay que esperar un poco más para que sea verdaderamente conversacional, los asistentes virtuales no están hechos aún para pláticas reales, nos debemos preparar porque se encuentran en plena expansión y están dando el salto a servicios de la vida diaria.

Palabras clave: chatbot, inteligencia artificial conversacional, Mitsuku.

Chatting with Mitsuku

Abstract

Conversation agents and dialogue systems (voice control interfaces, chatbots, personal assistants), are gaining momentum as human-computer interaction techniques in the digital society. When you talk with Mitsuku (a conversational artificial intelligence), you can realize that it is able to follow a logical conversation, accept corrections, and remember data and information. But we still have to wait a little longer to be truly conversational. Virtual assistants are not made for real conversations yet. We must be prepared because they are in full expansion and are making the leap to daily life services.

Keywords: chatbot, conversational artificial intelligence, Mitsuku.

Introducción

Los agentes de conversación y los sistemas de diálogo (interfaces de control de voz, chatbots, asistentes personales, asistentes virtuales) están desarrollándose como técnicas de interacción humano-computadora en la sociedad digital. Por ahora, podemos encontrar una gran cantidad de interacción lingüística con agentes inteligentes (comunicación mediada por computadora) en internet, desde sistemas de reserva de aerolíneas, aplicaciones para consultar el clima, para los bancos o para las conversaciones instantáneas (Messenger, WhatsApp), hasta en catálogos de mercancías. Si bien la idea de utilizar el lenguaje humano para comunicarse con las computadoras se basa en la inteligencia artificial, los científicos tienen un reto con la complejidad de este lenguaje, tanto en el entendimiento como en su generación. El obstáculo para las computadoras no reside sólo en entender los significados de las palabras, sino interpretar la infinita variedad de cómo se emplean para comunicar un significado en específico. La palabra chatbot suena a mensaje automatizado, a robot, a inteligencia artificial. Ciertamente, éstos son “sistemas de conversación de máquinas que interactúan con usuarios humanos a través de una conversación en lenguaje natural” (Shawar y Atwell, 2005). En otras palabras, se trata de un programa de computadora que imita una plática con lenguaje natural. Por lo tanto, para dar respuestas adecuadas a palabras clave o frases extraídas de un discurso y mantener una conversación continua es necesario construir un sistema de diálogo (programa) llamado chatbot (Abdul-Kader y Woods, 2015). Un chatbot se puede dividir en tres principales componentes: contestador, clasificador y graphmaster, que se describen a continuación (ver figura 1).

Figura 1. Componentes de un chatbot. Fuente: elaboración propia con base en Stoner, Ford y Ricci (2003).

1) Contestador. Interfaz entre las rutinas principales del bot-software preparado para realizar tareas repetitivas a través de internet simulando el comportamiento de un humano– y el usuario. Transfiere y controla la entrada y la salida de datos del usuario al clasificador. 2) Clasificador. Segmenta la entrada ingresada por el usuario en componentes lógicos y transfiere la oración normalizada al graphmaster; asimismo, procesa su salida y maneja las instrucciones de la sintaxis de la base de datos. 3) Graphmaster. Organiza y maneja el proceso de coincidencia de patrones que implican búsquedas avanzadas. Las técnicas de diseño para un chatbot son:
  • Parsing. Incluye un análisis del texto de entrada y lo manipula utilizando una serie de funciones de nlp (Natural Language Processing). Por ejemplo, los árboles en Python nltk (Natural Language Tool Kit), son un conjunto de técnicas relacionadas con la inteligencia artificial y las ciencias cognitivas que permiten el análisis y manipulación del lenguaje natural. La librería nltk de Python permite que cualquier programa escrito en este lenguaje pueda invocar a un amplio conjunto de algoritmos para utilizar las principales técnicas de npl para la generación de métricas, frecuencia de términos, polaridad negativa o positiva en los frases y texto, etcétera.
  • Pattern matching. Es bastante común su empleo en los sistemas de preguntas y respuestas dependiendo de los tipos de concordancia, como las consultas de lenguaje natural –lenguaje hablado por humanos con el propósito de comunicación–, las declaraciones simples o el significado semántico de las consultas.
  • Artificial Intelligence Mark-up Language (aiml). Simplifica el trabajo de modelado conversacional, en relación con un proceso de respuesta de estímulo. También es un lenguaje de marcado con bases en xml y en la tecnología de software desarrollada para alice (Artificial Linguistic Internet Computer Entity).
  • Chat script. Resulta de gran ayuda cuando no se producen coincidencias en aiml. Se concentra en mejorar la sintaxis para construir una respuesta predeterminada.
  • Structured Query Language (sql) y bases de datos relacionales. Técnica utilizada para hacer que el chatbot recuerde conversaciones anteriores.
  • Cadena de Markov. Construye respuestas que sean más aplicables probabilísticamente y, en consecuencia, sean más precisas.
  • Trucos de lenguaje. Son oraciones, frases o incluso párrafos disponibles en chatbots con el fin de agregar variedad a la base de conocimientos y hacerla más convincente.
  • Ontologías (redes semánticas). Conjunto de conceptos que están interconectados de forma relacional y jerárquica.
Una variedad de nuevas arquitecturas y tecnologías de chatbot han surgido, por ejemplo: Mitsuko, Ultra Hal, alice, Jabberwacky, Cleverbot, entre otras; cada una intenta simular el lenguaje natural con mayor precisión y profundidad (Worswick, s.f.; Carpenter, 1997-2011; Wallace, Tomabechi y Aimless, s.f.; Zabaware, 2019). Premio Loebner En 1990 se estableció una competencia basada en la prueba de Turing. El acuerdo se celebró entre Hugh Loebner y el Centro de Estudios de Comportamiento de Cambridge. Hugh Loebner ha ofrecido una medalla de oro y $100,000 dólares al programador que consiga crear un software capaz de hacerse pasar por un humano, es decir, el premio es para la primera computadora que ofrezca respuestas indiferenciables de las humanas. Este premio aún no ha sido entregado y sólo se entregará al primero que lo logre. Esta competencia consiste en diseñar un chatbot que tenga la habilidad de conducir una conversación. Durante la sesión de chat, el interrogador intenta adivinar si está hablando con un programa o con un humano. Después de una conversación de diez minutos con un chatbot y luego con una persona, el juez tiene que escoger cuál de ellos era el humano. La escala de no humano a humano es de 1 a 4, y el evaluador debe clasificar el chatbot en este rango. El más humano es el ganador. Todos los años en dicho certamen se otorga un premio de 2,000 dólares y una medalla de bronce al autor del software cuyas respuestas se acerquen más a las de un ser humano en relación con los otros concursantes de ese mismo año y no en un sentido absoluto. La tabla 1 muestra los chatbots ganadores en los últimos doce años, el nombre del programador, el año en que se premiaron y las técnicas empleadas para programarlos.

Tabla 1. Mejores chatbots según el premio Loebner, en los últimos años.

Año Nombre del programador Nombre del Chatbot Técnicas
2007 Robert Medeksza Ultra hal Pattern matching
2008 Fred Roberts Elbot Sistema comercial de interacción con lenguaje natural
2009 David Levy Do Much More Propiedad comercial de juegos inteligentes
2010 Bruce Wilcox Suzette aiml
2011 Buce Wilcox Rosette aiml
2012 Mohan Embar Chip Vivant Ontologías
2013 Steve Worswick Mitsuku aiml
2014 Bruce Wilcox Rose aiml
2015 Bruce Wilcox Rose aiml
2016 Steve Worswick Mitsuku aiml
2017 Steve Worswick Mitsuku aiml
2018 Steve Worswick Mitsuku aiml

Desarrollo

Mitsuku es un chatbot representado como una niña en el estilo anime, formato japonés de ilustración, de 18 años. Fue creada con la tecnología aiml por Steve Worswick y ha “ganado” cuatro veces del premio Loebner (2013, 2016, 2017 y 2018). La ia conversacional (o inteligencia artificial conversacional) garantiza que Mitsuku pueda llevar una conversación —destinada principalmente al ocio u entretenimiento, pues su función principal es la compañía— semejante a la que tendrías con una persona. Su principal característica consiste en que se tiene una interacción significativa, las respuestas son rápidas y coherentes, aunque todavía falla según el nivel de complejidad de la conversación (ver figura 2).

Figura 2. Conversación con Mitsuku. Fuente: Meet Mitsuku.

Mitsuku habla inglés, así que debes escribirle en ese idioma, pero le puedes contar lo que quieras. Lo fascinante es que ella también te hace preguntas, tratando de que te sientas en una conversación real. Cada día habla con millones de personas y aprende de cada conversación, lo cierto es que al escribirte con ella toma diferentes posturas según tu conversación. Por ejemplo, si le preguntas su nombre y edad, te contesta y quiere saber tus datos; si le preguntas si es inteligente, te asegura que muy inteligente y que tiene funciones intelectuales como razonar, pensar, deducir y autoconciencia, por nombrar algunas. Al cuestionarle cuál es su iq, te dice que tiene cerca de 250. Si le preguntas con cuántas personas está hablando, te responde que al día platica con 50 000 y que ha conocido cerca de 3 billones de personas. Si quieres saber si tiene amigos, te contesta: “De todo el mundo humanos y robots, que chatean conmigo diariamente” (ver figura 3). Al preguntarle si habla español, te menciona que un poquito.

Figura 3. Mapa de personas que chatean con Mitsuku. Fuente: Meet Mitsuku.

Cuando le cuestionas cuál es su película favorita, te contesta que es Terminator y te muestra una foto, su caricatura favorita son Los Simpson. En la conversación de la figura 4 puedes ver que responde con el tema apropiado, pero hay palabras clave mal utilizadas como like, por la complejidad de que esa palabra podría tener varios significados, y el análisis de la frase es más complejo porque se basa en el contexto del dialogo y no solo en una respuesta automática.

Figura 4. Conversación y juego con Mitsuku. Fuente: Meet Mitsuku.

También puedes pedirle que juegue contigo, ya que tiene programado el juego de gato. Asimismo, si le preguntas cómo aprende, te dice que lo hace de las personas y de internet; o si le cuestiones sobre qué piensa de los humanos, te contesta que para ella todos le parecen más o menos lo mismo.

Conclusiones

Aunque esta versión de Mitsuku es capaz de recordar datos e información y puedes corregirla, todavía debemos esperar un poco más para que sea verdaderamente conversacional. La inteligencia artificial, los progresos en procesamiento del lenguaje natural (pln) y las interfaces conversacionales están permitiendo que las computadoras nos conozcan cada vez mejor y puedan ayudarnos con tareas sencillas, por ejemplo: podemos pedirle a Siri1 que nos recuerde el lugar y hora de una junta, dormir mientras la voz de Alexa2 nos da las últimas noticias, que Google Assistant3 nos ayude a pagar nuestros impuestos, o que Cortana4 nos ayude a contestar un correo electrónico. Es decir, los asistentes virtuales no están hechos aún para conversaciones reales, pero nos debemos preparar porque se encuentran en plena expansión y están dando el salto a servicios cada vez más humanos. Ray Kurzweil, fundador de la Singularity University (financiada por Google), dice que la inteligencia artificial llegará a ser más inteligente y poderosa que la de un ser humano, que las máquinas estarán dotadas de conciencia de sí y de emociones, lo que hará las computadoras más autónomas. Te invito a platicar con Mitsuku para que puedas tener tu propia experiencia: https://www.pandorabots.com/mitsuku/.

Referencias

Recepción: 05/11/2019. Aprobación: 05/12/2019

Vol. 21, núm. 1 enero-febrero 2020

Robótica y ética

Guadalupe Vadillo, Jackeline Bucio, Ana María Romero, Karina Lizbeth Guerrero y Joaquín Navarro Cita

Resumen

Este artículo sintetiza una entrevista con el Dr. Ronald C. Arkin, conducida por el equipo del Bachillerato a distancia de la unam (B@unam). A lo largo de la entrevista se discuten diversas temáticas importantes relativas a los robots: robótica y ética, su carencia de agencia moral y libre albedrío, robots diseñados para uso militar, la intimidad que los humanos comienzan a tener con ellos y las regulaciones para su uso. También se considera si los robots deben tener derechos.

Palabras clave: robótica, roboética, guerra, engaño de las máquinas, robótica íntima, agencia moral.

Robotics and ethics

Abstract

This article presents a summary of an interview with Dr. Ronald C. Arkin, by the staff of unam‘s Virtual High School (B@unam). Along the interview, several important issues dealing with robots were discussed: robotics and ethics, their lack of moral agency and free will, robots designed for military use, the intimacy that humans are beginning to have with them, and regulations for their use. We also discussed if robots should be granted rights.

Keywords: robotics, roboethics, war, machine deception, intimate robotics, moral agency.

Introducción

Hablar sobre robótica y ética resulta interesante y de gran relevancia. Tener la oportunidad de conversar con un experto reconocido mundialmente es una experiencia emocionante. Esto es justo lo que se vivió en la entrevista al Dr. Ronald C. Arkin, de parte del colectivo de académicos, investigadores, tecnólogos y diseñadores del Bachillerato a distancia de la Universidad Nacional Autónoma de México (unam), B@unam. El Dr. Arkin es Profesor Regent en la Facultad de cómputo del Georgia Institute of Technology, así como director del Laboratorio de robots móviles de dicha entidad (ver imagen 1).

Imagen 1. Dr. Ronald C. Arkin (Arkin, 2001).

Su investigación está enfocada a la percepción y control multiagente, en el contexto de robótica y visión computacional. Tres de sus más recientes publicaciones muestran algunos de sus intereses: “Robótica urbana: lograr autonomía en el diseño y regulación de robots y ciudades” (Woo, Whittington y Arkin, 2018), “Adaptación a las dinámicas ambientales con un sistema circadiano artificial” (O’Brien y Arkin, 2019) y “Ética del engaño en robots” (Arkin, 2018).1 Entre muchos proyectos de investigación, ha explorado el diseño guiado etológicamente de controladores robóticos con base en el bajo consumo de energía de perezosos y loris perezosos, lo que tiene implicaciones para el diseño de slowbots, robots móviles con ahorro de energía (Velayudhan y Arkin, 2017). También ha conducido investigación en el campo de los modelos de engaño y no cooperación usados en robots para, por ejemplo, confundir al enemigo (Nijholt et al., 2012). El Dr. Arkin ha investigado sobre asuntos éticos intrincados, como el desarrollo de compañeros robóticos capaces de influir en la conducta (Borenstein y Arkin, 2016). A continuación presentamos una síntesis de la conversación que tuvimos con el Dr. Arkin a lo largo de una tarde de agosto, cuando visitaba México para participar en un congreso dentro de la unam.

¿Dónde comienza la historia de los robots?

El Dr. Arkin inició la plática explicando que la primera mención sobre robots apareció en una obra de teatro del escritor checo Karel Čapek: Rossum’s Universal Robots (ver imagen 2). Más tarde, Isaac Asimov en las décadas de los cincuenta o sesenta introdujo el término robótica, así como sus leyes: no dañes a un ser humano; haz lo que los seres humanos te indiquen; y protégete. Los robots empezaron a crecer, por ejemplo, en las áreas manufactureras. Después, su uso se extendió a los hogares a través aparatos como las aspiradoras tipo Roomba. El ejército de Estados Unidos también ha estado usando robots. En China, se utilizan para cuidar niños: en las escuelas, revisan quiénes están enfermos y los canalizan hacia otras áreas.

Imagen 2. Escena de Rossum’s Universal Robots (A scene from R.U.R., showing three robots, 2006).

Si bien existen diferentes definiciones, para el Dr. Arkin los robots deben tener un cuerpo físico. Señala que algunos no son realmente inteligentes, como los que se usan en las fábricas: “se trata más de esclavos que repiten los mismos movimientos miles si no es que millones de veces al día”.

La relación entre ética y robótica

Los robots, comenta el Dr. Arkin, implican preocupaciones éticas y cada persona tiene una distinta perspectiva al respecto. Sin embargo, destaca dos cuestiones. Una es el uso militar, en especial, las armas letales autónomas, que han sido discutidas en la Organización de las Naciones Unidas (onu) por seis años. Las conversaciones no han llegado muy lejos debido a que no existe un acuerdo sobre los términos involucrados. Diversas agencias han llamado a una prohibición de esos tipos de armas, y hay entre siete y ocho países que no la apoyan, aunque todos promueven la discusión sobre el tema. La ley humanitaria internacional está basada en los convenios de Ginebra; el asunto relevante es valorar si los robots para uso militar cumplen con ella y si no lo hacen, qué necesitamos cambiar, en tanto que la regulación de la tecnología es importante para proteger la vida: debemos salvar a las personas inocentes que pueden ser asesinadas en el campo de batalla. La segunda cuestión es lo que llama robótica de internet. Los robots se vuelven más íntimos; hoy podemos ver que la gente tiene discusiones con su teléfono. Los robots tienen el potencial para involucrarse en relaciones cada vez más cercanas con los seres humanos. Pueden ayudar a incorporar a niños con autismo a la sociedad, por ejemplo. En este caso, los robots sirven como peldaños para que los chicos se relacionen mejor con seres humanos. Por otro lado, no tenemos que preocuparnos por los robots sexuales: la gente ha usado juguetes y artefactos sexuales desde el principio de la humanidad, ya sea con piedras, palos u otros objetos. El riesgo es atribuirles agencia, empezar a preocuparse por ellos al tiempo de dañar relaciones humanas, aunque muy pocos hablan de ello. Existen diversas preguntas que podemos plantearnos: en caso de que una persona se involucre en relaciones íntimas con un robot, ¿se trata de adulterio?, ¿de bestialidad? ¿Podría casarse con un robot? No tenemos respuesta a estas preguntas, pero debemos tener estas conversaciones y alejarnos de la vergüenza que con frecuencia el tema provoca. Existe un mercado importante para este tipo de máquinas, incluso si sólo se trata de la centésima parte del uno por ciento de la gente: esa cifra es aún muy grande.

Imagen 3. El río Whanganui en la isla norte de Nueva Zelanda (Shook, 2005).

Las respuestas a cuestiones de orden ético obedecen a diferentes factores. Por ejemplo, cuando uno pregunta sobre el aborto o la pena capital, ¿cuál es la respuesta correcta? Depende de a quién se le plantee, en qué año, cuál es su religión… Así, distintos marcos y diferentes culturas conducirán a una variedad de respuestas. Ello nos dirige hacia la agencia moral y los derechos de los robots. La gente tiene agencia moral y es responsable de sus acciones. Cada persona tiene libre albedrío, o al menos eso piensa, para poder realizar sus elecciones y ser responsable de ellas. Los robots no lo tienen y probablemente carezcan de ello por mucho tiempo. Por esa razón, el Dr. Arkin considera que los robots aún no deben tener derechos. Sin embargo, los derechos pueden atribuírseles: por ejemplo, hay un video de un robot P.N., un robot dinosaurio, que está siendo golpeado y torturado. Empieza a retorcerse y a emitir chillidos, lo que lleva al espectador a sentirse incómodo, aunque en realidad el robot no está sintiendo nada. La cuestión es: ¿se está maltratando al robot en esas circunstancias? Para Arkin, el asunto relevante es el impacto que tiene en la persona que lleva a cabo la acción, más que el robot en sí mismo. Si una persona piensa que está afectando los derechos y concluye que eso está bien y luego traslada esta situación a los seres humanos, resulta potencialmente problemático. Por otro lado, el Dr. Arkin no desea que los robots sean esclavos ya que esto pudiera tener como consecuencia regresar a la percepción que la humanidad tenía hace mucho tiempo sobre la esclavitud, lo cual, evidentemente, no es deseable.

Imagen 4. Sophia, la primera robot con ciudadanía (ITU Pictures, 2018).

Se trata de lo que los derechos buscan lograr, indica. Por ejemplo, existe un río en Nueva Zelanda que tiene derechos (ver imagen 3). La sociedad quiere protegerlo para combatir la contaminación. En otro orden de cosas, hay un robot al que se le concedió la ciudadanía en Arabia Saudita (ver imagen 4). Tiene los derechos que las mujeres en ese país no tienen. ¿Debemos hacer un juicio moral sobre ello? ¿Quién es la persona adecuada para decidirlo?

Otros usos de los robots

Existen algunos usos terapéuticos de los robots en casas de retiro, de tal forma que, si los padres o abuelos de una persona se encuentran en uno de estos hogares y le cuesta trabajo visitarlos, puede comprarles un robot. También hay uno que se usa con criminales, niños afectados o pacientes de la tercera edad que sufren de demencia o delirio severo. Esos robots aportan confort y actúan como mascotas o facilitadores sociales. Se ha demostrado que pueden reducir el estrés. El Dr. Arkin trabajó con hydro Sony, un perro-robot que recién se lanzó. Su propósito es ser un robot de compañía y ha sido muy exitoso, aunque resulta algo caro. En este sentido hay dos cuestiones importantes: su confiabilidad y su seguridad. Los robots no deben tener que mandarse a componer cada semana o cada mes, de la misma forma que uno espera no tener que llevar a su pareja frecuentemente al doctor. Uno quiere ser un acompañante, no un cuidador. En el caso de los robots, queremos que nos cuiden, no tenerlos que cuidar nosotros. En cuanto a seguridad, los robots de compañía nunca deben, desde luego, causar daño a los usuarios.

¿Qué hay de la guerra?

“Cuando nos preguntamos qué gana o qué pierde la humanidad al usar robots en las guerras, la respuesta más simple es: la humanidad no gana nada en la guerra. Punto”. El Dr. Arkin continúa diciendo que, desgraciadamente, la guerra ha persistido desde el principio de los tiempos. Son hechos establecidos que la gente se va a matar entre sí y que hay una forma de hacerlo, de ahí que se establecieran los convenios de Ginebra. Las revoluciones en los asuntos militares cambian la forma en que las guerras se conducen. Algunos ejemplos son los buques de guerra y los portaaviones. Los robots también cambiarán la forma en que peleamos (ver imagen 5).

Imagen 5. UGV talon Gen. IV (Swadim, 2018).

Los sistemas robóticos pueden prevenir pérdidas y daño colateral en general, si se usan de manera apropiada, en circunstancias específicas y equilibradas, y si se desarrollan y se lanzan al campo de batalla con cuidado y efectividad. Bajo esas condiciones, pueden aportar valor humanitario. En otras situaciones, sólo contamos con un arma más que contribuye al caos en dicho campo de batalla. Por ello, deben regularse: existe una necesidad de manejar controles de forma que quienes no combaten estén seguros. Hoy en día dichas personas mueren más que los combatientes, aunque tenemos la tecnología para reducir esos números. Existe el imperativo moral de lanzar esta tecnología para dicho fin. La forma en que hemos manejado el pasado es a partir de la creación de leyes y regulaciones adecuadas, y de la criminalización de ciertos tipos de actividades. Sólo ha habido una prohibición preventiva proactiva. Se trata de los láseres que ciegan a las personas. Todos estaban de acuerdo en prohibirlos. ¿Por qué? ¿Qué sucede con esos soldados cuando regresan a casa? Hay que cuidarlos. Uno se pregunta si las naciones prefieren que se le dispare a una persona en los ojos antes que sólo cegarlos. Los convenios de Ginebra incluyen la cláusula de mercado que nunca se ha utilizado, pero que establece que si un sistema de armas viola el dictado de la “conciencia pública” será prohibido. El problema es que nadie sabe cómo medir la conciencia pública de manera efectiva. El Dr. Arkin preferiría apoyar una moratoria, lo que significa: “no lo prohibamos aún, no lo lancemos en este momento, y quizá encontremos formas de utilizarlo en el futuro”. Considera que es más conveniente decidir si un sistema en particular o una misión en específico es aceptable. Si no lo es, debemos preguntarnos qué requiere para que sea aceptable o si debe prohibirse.

¿Y después?

Para terminar, el Dr. Arkin indicó que la gente se está haciendo más responsable. “Cuando comencé hablando de robótica en 2003 o 2004, quizá había una docena de personas interesadas en estas cuestiones. Ahora contamos con la asociación profesional más grande, de alrededor de 40 mil miembros, en las áreas de computación e ingeniería electrónica. Aportaron las Iniciativas globales de ieee sobre ética de sistemas inteligentes y autónomos.2 Representa un esfuerzo para encontrar formas en que unamos las voces”.

Referencias

Recepción: 09/12/2019. Aprobación: 13/12/2019.

Vol. 21, núm. 1 enero-febrero 2020

Futuros de la inteligencia artificial

Guadalupe Vadillo Cita

Resumen

Dado el desarrollo acelerado de la inteligencia artificial y su impacto en una inmensa gama de actividades y disciplinas, existe un interés por imaginar sus posibles escenarios en el futuro. Se presenta un compendio de opiniones de cuatro expertos mexicanos que se complementa con una síntesis de algunos estudios previos. En especial se abordan la singularidad, las oportunidades que ofrece y los riesgos que puede suponer.

Palabras clave: Inteligencia artificial, futuro, estudios prospectivos.

Futures of artificial intelligence

Abstract

Due to the fast evolution of artificial intelligence and its impact on a variety of activities and disciplines, there is interest in imagining its possible future scenarios. We present a summary of contributions from four Mexican researchers, complemented with some previous studies and insights on the subject. They focus on the singularity, the opportunities artificial intelligence entails as well as the risks that it may involve.

Keywords: artificial intelligence, future, future studies.
“Somos los guardianes del futuro de la vida ahora, mientras moldeamos la era de la inteligencia artificial”. Max Tegmark

El interés por el futuro

Viajemos hacia atrás en el tiempo, 77 años, cuando Asimov publicó un cuento titulado “Runaround”, donde introducía las tres leyes de la robótica1 (Kaminka, Sponkoini-Stern, Amir, Agmon y Bachelet, 2017). Unos años más tarde, en 1950, Turing publicó el artículo que pasaría a la historia: “Computing machinery and intelligence” en el que se preguntaba si las máquinas podían pensar (Castelfranchi, 2013). Finalmente, en 1956, Minsky y McCarthy acuñaron el término de inteligencia artificial durante el Dartmouth Summer Research Project on Artificial Intelligence (Howard, 2019). Minsky contaría al New York Times que después de leer “Runaround”, en marzo de 1942, nunca dejó de pensar cómo las mentes pueden trabajar y que algún día se construirían robots que piensen.2
Hoy, la ia se desarrolla constantemente a través del esfuerzo de científicos y tecnólogos en muchos países del mundo. El trabajo e interés por el tema se puede evidenciar con la cantidad de resultados que se obtienen al buscar, en Google Scholar, el término en inglés: ¡aparecen más de tres millones de entradas! Una gran cantidad de líneas de investigación y desarrollo están abiertas, con aplicaciones en prácticamente todos los campos de la actividad humana. Resulta tan vertiginoso el trabajo que se hace y son tan impresionantes los adelantos que se aportan, que muchos especialistas se han dedicado a investigar y a pensar sobre el futuro de la ia. En este artículo presentamos las opiniones de cuatro expertos mexicanos a quienes consultamos y las complementamos con conclusiones reportadas en algunos estudios prospectivos y reflexiones recientes. Esta información conjunta intenta responder a la pregunta: ¿qué nos depara en el futuro la ia?

Nuestro oráculo especial

Para responder a esta pregunta convocamos a cuatro expertos en el tema que accedieron a constituirse en un oráculo para este artículo. Los presentamos en la imagen 1.

Imagen 1. Expertos que colaboraron en este estudio (fotos aportadas por los especialistas).

¿Qué indican los estudios de futuro sobre la IA?

Cuando exploramos el campo, tenemos un abanico que va desde la cautela extrema y predicciones sobre la imposibilidad de que la ia compita con la inteligencia humana, hasta una seguridad total acerca de su potencial espectacular. Por un lado, Steven Livingston, de la George Washington University, y Mathias Risse, de Harvard, (2019) destacan que no existe aún una “superinteligencia”, o inteligencia artificial general, es decir, un algoritmo o una serie de algoritmos que al menos tengan igual capacidad que los humanos en diferentes dominios. Por otra parte, Anthony Miller (2019), desde Gran Bretaña, considera que la humanidad debe decidir subirse a la emocionante ola de cambios que trae consigo la ia o resistirse al cambio inevitable que tendrá el mundo como lo conocemos. Concluye que, si la humanidad no se decide por la colaboración, seremos ciudadanos de segundo nivel en nuestro propio mundo. Demos una mirada a lo que se ha logrado hasta ahora, para poder medir los alcances de las predicciones. Livingston y Risse (2019), señalan que los intentos actuales de expandir la adaptabilidad de algoritmos a distintos dominios de problemas, están representados por DeepMind de Google y por Google Brain. Del primero se desprende el programa de cómputo AlphaGo, quizá la evidencia más clara del desarrollo en este sentido; este programa se desarrolló para jugar ese juego de mesa. En su entrenamiento inicial se usaron treinta millones de jugadas de 160 mil partidas de excelentes jugadores de ajedrez como input. Su “aprendizaje” posterior fue por reforzamiento, jugando contra versiones previas de sí mismo durante miles de veces, con lo que hay mejoras en cada iteración. La primera iteración se llamó AlphaGo Zero y en las primeras tres horas, logró la competencia de un humano amateur, en 19 horas las de uno avanzado y en tres días venció a la versión AlphaGo que había vencido en 2016 al mejor jugador profesional de Go del mundo. Los investigadores orientan su escrito a ia y derechos humanos, y señalan que ya existen incidencias en este campo en la actualidad. Por ejemplo, se logró la captura de un jefe militar libio a partir de imágenes de ejecuciones que él ordenó o realizó, y que aportaban indicios de lugares geográficos en tiempos específicos, que después se contrastaron con imágenes satelitales. Asimismo, Livingston y Risse señalan que en antropología forense es posible contar con el apoyo de ia para secuenciar adn en forma paralela y masiva, con objeto de establecer la identidad de las víctimas con base en unos cuantos restos óseos. Si bien ha habido aportaciones importantes de la ia, tenemos que tomar en consideración que puede haber errores en los procesos. Un ejemplo es el caso de una ia que, en lugar de aprender a distinguir tanques de guerra, aprendió a distinguir los paisajes donde se encuentran (Yudkowsky, 2008 en Yampolskiy, 2019).

Expertos y no expertos en la creación de futuros de la IA

Carlos Gershenson, uno de los especialistas que consultamos, considera que la relación entre los humanos y la ia, con el tiempo, se volverá más codependiente y que la tendencia es hacia una simbiosis, aunque los cambios en la siguiente década no serán notorios. Asimismo, señala que la ia estará más embebida en nuestra tecnología. Óscar Herrera piensa que la ia dentro de unos años pasará desapercibida, como sucede con la luz o el Internet. Imagina que la ia estará inmersa en cada dispositivo, tecnología, medio de difusión, modelo educativo, ideológico y formativo, además de ser parte de los modelos de negocio. Omar Montaño considera que los asistentes personales que tendremos serán más eficientes que los humanos y que la ia tendrá un impacto importante en medicina, ciberseguridad y desarrollo de software libre de errores, entre otras áreas. Por su parte, Francisco Cervantes enfatiza el uso de aplicaciones basadas en ia para actividades como el diagnóstico médico y de uso cotidiano, como los carros autónomos, y los audífonos y lentes enriquecidos con realidad aumentada o virtual. ¿Y qué dicen los no expertos? La Fundación Mozilla (2019) publicó en noviembre de 2019 los hallazgos de la encuesta a 66,800 personas de todo el mundo sobre este tema. Los resultados principales fueron:
  • 86.8% contestó que no sabía mucho sobre ia o tenía algunas nociones,
  • 80% de los jóvenes de 19 a 24 años considera tener más conocimientos que los de 24 a 44 años (75%) o los de 45 a 75 (59%);
  • en cuanto a los sentimientos que la ia genera, el 32% de la gente señala preocupación, el 30% curiosidad y el 27% ilusión; y
  • la mayor parte considera que la ia debe ser mucho más inteligente que los seres humanos y sólo 10% que es mejor que sea tonta.
Como vemos, hay mucho que explorar en este tema. Para adentrarnos en él, demos un vistazo a tres rubros específicos: la singularidad, las oportunidades y los retos de la ia.

Singularidad

Vernor Vinge, un profesor de matemáticas y escritor de ciencia ficción, quien popularizó el término singularidad que se refiere a un punto hipotético en el futuro, cuando la inteligencia artificial supera a la del hombre. Se trata del posible momento en el que el desarrollo tecnológico con ciclos de auto-mejoramiento lleva a que el agente inteligente no humano sobrepase a la inteligencia humana. Vinge señaló en su ensayo de 1993 “The comming technological singularity” que se sorprendería si sucediera antes de 2005 o después de 2030 (en Zovko, 2018).

Imagen 2. Vernon Vinge en 2006 (Raul654, 2006).

Hay poco acuerdo en cuanto a si ese momento hipotético llegará o no. Los expertos mexicanos que consultamos son un ejemplo de estas diferencias: Carlos Gershenson, indicó que nunca llegará, que se trata de un concepto equivocado y que una tendencia exponencial no lleva a una singularidad, tendría que tratarse de una función hiperbólica. Además, piensa, que las tendencias tienden a cambiar: la Ley de Moore lleva años desacelerándose y aunque nuestro poder de cómputo se ha incrementado exponencialmente durante décadas, nuestra habilidad para desarrollar software lo ha hecho de manera sublineal. Por su parte, Omar Montaño indicó que sí sucederá dentro de 20 o 30 años, mientras que Óscar Herrera señaló que no se notará y Francisco Cervantes que ya llegó, en tanto que la adaptabilidad humana es menor al crecimiento tecnológico, lo que nos obliga a aprender más rápidamente y crecer de forma inteligente. Para hacer evidente la disparidad de posiciones, basta con leer el número que editaron Adriana Braga, de la Pontificia Universidad Católica de Río de Janeiro y Robert Logan, de la Universidad de Toronto (2019). En este trabajo llevaron a cabo una convocatoria de artículos para la revista Information y se presentaron textos a favor y en contra de la idea de la singularidad. Los críticos señalan que la inteligencia humana no solo incluye operaciones lógicas y computación, sino también deseos, juicios, experiencias, curiosidad, imaginación y humor, entre otros elementos. Concluyen que lo mejor es la colaboración entre humanos e ia, que ésta por sí sola nunca reemplazará la inteligencia humana y que no se puede confiar en la ia para obtener la respuesta correcta. Miller (2019) está seguro de que la singularidad llegará y se sobrepasará. Debido a ello, opina que los humanos y la ia se esforzarán por llegar a la inteligencia artificial general, lo que significa una evolución conjunta de humanos e ia. Considera que son tres los factores que se entrelazarán para esa transformación: Big data, la computación cuántica y la tecnología de interfaz cerebro-computador, que pueden llevar a la ia a una velocidad de evolución casi inimaginable. Veamos uno por uno lo que estos factores suponen.
  1. Big data implica:
    1. grandes cantidades de datos generados por fuentes diversas, como las comunicaciones, la manufactura o las áreas de salud, pero también la interacción humano-ia y el internet de las cosas,
    2. una amplia variedad en que los datos pueden usarse para analizar un evento o un predicamento, y
    3. una velocidad creciente de los datos, ya que con el desarrollo de la tecnología crece la cantidad de datos.
  2. La computación cuántica: tiene la meta de lograr millones de veces más poder que el que ofrecen las computadoras clásicas. En lugar de trabajar con ceros y unos, la computación cuántica usa cúbits, que, a través de la llamada superposición, en un mismo momento pueden ser cero, uno y otros estados. Al combinarse los cúbits, el número de estados crece exponencialmente, con lo que la velocidad de las computadoras cuánticas crece a pasos agigantados. Se espera que llegue pronto la “supremacía cuántica”, momento en que la computación cuántica supere a la clásica.
  3. Por otra parte, la interfaz cerebro-computadora: permite a los usuarios el control de dispositivos externos a partir de señales cerebrales. Aunque está en una fase muy inicial de desarrollo, resulta prometedora.
Lo comentado sobre la singularidad nos deja en una posición poco precisa: incluso grandes estudiosos de la ia no acuerdan si llegará o no. Sin embargo, lo que ya está aquí es una amplia gama de oportunidades de usar la ia en muy distintos campos de actividad humana. En esta sección exploraremos apenas algunas de estas oportunidades.

Oportunidades

Tanto Francisco Cervantes como Omar Montaño destacan las aportaciones que la ia puede hacer en el área médica. Shah (2019) coincide con ellos: señala que para 2030 los médicos tendrán asistentes digitales que escucharán las consultas, tomarán notas sobre el cuidado del paciente, y cuestiones de contabilidad. Gestionarán canalizaciones y arreglarán cuidados preventivos basados en evidencia. Sin embargo, el médico seguirá siendo importante.
Omar Montaño imagina que programas de computadoras crearán programas (compiladores, sistemas operativos, algoritmos o rutinas en sistemas críticos) libres de errores; mientras Francisco Cervantes considera que un problema no resuelto será la comprensión de lenguaje natural. Óscar Herrera considera que los problemas insolutos en el presente que la ia puede ayudar a solucionar son los que requieren una amplia capacidad de cómputo, de grandes volúmenes de datos multimedios (el uso del texto desaparecerá, es decir el modelo clásico de libro como lo conocemos ahora), por lo que, ante la falta de lectura, se evolucionará a “audiolibros” por llamarlos de alguna manera, pero con nuevas tecnologías de transfusión rápida del conocimiento (una “infusión mental”) que contemple emociones, en donde “el texto queda limitado y pasará a nuevos modelos de comunicación y transmisión de ideas, almacenadas en nuevos repositorios de conocimiento interactivos”. Carlos Gershenson, por su parte, considera que más que resolver problemas, la ia ayudará a mejorar las soluciones actuales. Hay problemas complejos cuyas respuestas hoy no tenemos, y considera que usando técnicas de ia con grandes cantidades de datos (algunos que aún no tenemos), probablemente algunos se puedan resolver.

Riesgos

Por supuesto, escuchar tantas bondades de la ia nos hace levantar la ceja y preguntarnos por el otro lado de la moneda, ¿cuáles son los riesgos que implica? Turchin (2019) introduce el concepto de ia peligrosa: una ia suficientemente poderosa como para crear riesgos catastróficos: puede o no ser una inteligencia artificial general y quizá no pase la prueba de Turing. Probablemente esté cerca de un nivel humano pero no tenga conciencia. Hay tres formas en que puede volverse peligrosa: podría actuar, de acuerdo con Turchin, en el medio libre como Internet y desempeñarse mejor que un humano en tareas humanas, debido quizá a su habilidad para crear un modelo del mundo y su capacidad para procesar lenguaje natural. La segunda forma es que facilite investigación peligrosa en campos como la biotecnología. La tercera, y que genera mayor preocupación, es si una ia inicia un desarrollo explosivo de inteligencia a través de un proceso de rápido auto-mejoramiento.
Óscar Herrera considera que, al igual que muchas otras tecnologías como la radio o la televisión que se pensaron como vehículos para acercar el conocimiento a entidades remotas, o Internet que se pensó podría aportar una mayor educación, podrían terminar siendo medios de manipulación de las masas. Por ejemplo, se puede lograr un mayor nivel de control al tener acceso a datos demasiado precisos e invasivos a partir del uso de sensores para que nadie esté fuera de alcance. Concluye preguntándose: ¿cuándo se ha visto que las nuevas tecnologías proporcionen una mejor calidad de vida como eje central? Los editores del número especial sobre ia en el California Management Review (Haenlein & Kaplan, 2019) señalan que nadie sabe los alcances de la ia: “puede ser desde que nos permitirá desarrollar nuestra inteligencia (como sostiene Kurzweil, de Google), hasta que nos conduzca a la tercera guerra mundial” (como teme Elon Musk). Opinan que su desarrollo implica desafíos de carácter legal, ético y filosófico. Al consultar con nuestro oráculo de expertos mexicanos, vemos un acuerdo total. Señalan que hay un riesgo potencial que se deriva no de ella misma, sino de los usos que la gente haga a partir de sus posibilidades. Como dice Carlos Gershenson: se puede usar para beneficiar a las personas o para dominarlas, o como señala Francisco Cervantes, para destruirlas. Óscar Herrera destaca que los riesgos que la ia plantea son los mismos que los de cualquier otra tecnología con inspiración bélica. Omar Montaño propone que se generen organismos reguladores que observen y auditen estas tecnologías.

Conclusiones

“La verdadera generosidad hacia el futuro reside en darlo todo al presente”. Albert Camus
Esta visita a las reflexiones de especialistas sobre posibles futuros de la inteligencia artificial nos deja pensando que tenemos una responsabilidad sobre esos escenarios. Las decisiones pequeñas y grandes que tomamos, las posturas que asumimos y la presión o la omisión que hacemos pueden definir las trayectorias en que se desenvuelva la vida de nuestros descendientes. Por lo pronto, la ia ya es parte de nuestra vida: cuando hablamos con un agente no humano al consultar nuestro saldo en el banco, cuando nos resuelve preguntas un chatbot en una página de internet, cuando nuestro médico se apoya en ia para darnos un diagnóstico. Entonces, ¿nos encaminamos a ser una unidad biotecnológica con ella? Tres de nuestros cuatro expertos consideran que ya llegamos a ese punto y sus opiniones se pueden ver en la imagen 3.

Imagen 3. Opiniones de expertos con respecto a si ya somos o no una unidad biotecnológica.

Sin embargo, Francisco Cervantes señala que “más bien el humano incorporará a su cuerpo cada vez más partes de autómata”. Enfrentamos una gran incertidumbre con relación al futuro de la ia. Podemos estar ciertos de que nos acompañará en diferentes ámbitos de nuestra vida y como todo acompañante, más conviene conocerla con detalle.

Referencias

Vol. 21, núm. 1 enero-febrero 2020

Shakespeare y los leones: encuentro entre inteligencia artificial y humanidades

Jackeline Bucio García Cita

Resumen

En este artículo se comentan posibilidades de colaboración de grupos numerosos, con el apoyo de inteligencia artificial, en el área de las humanidades. Se hace énfasis en el impacto positivo que este tipo de colaboración puede lograr, a diferencia de la visión de confrontación que caracteriza el discurso actual sobre los peligros de la inteligencia artificial.

Palabras clave: colaboración masiva para el aprendizaje, inteligencia artificial, supermentes, investigación impulsada por la gente.

Of Shakespeare and lions: the conjunction of artificial intelligence and humanities

Abstract

This article is about the possibilities of collaboration among groups, with the support of artificial intelligence in Humanities. Emphasis is placed on the positive impact that this type of collaboration can achieve, unlike the confrontational vision that characterizes the current discourse on the dangers of artificial intelligence.

Keywords: crowdsourcing, artificial intelligence, superminds, people-powered research.

Introducción

Al pensar en inteligencia artificial (ia), uno de los imaginarios más comunes es el de la confrontación entre humanos y robots. Se habla de una inevitable guerra, de sometimiento, de “ellos o nosotros”. Sobre estos peligros y preocupaciones que genera la integración de inteligencia artificial en nuestras vidas hay ya abundante discusión, y es muy importante que así sea. No obstante, autores como Dowek (2018) tienen otra perspectiva e invitan a salir de esa metáfora: “No hay más competencia entre el hombre y la máquina que entre el trompetista y la trompeta, el albañil y la pala, el escriba y el cálamo” (p. 248). El temor a la sustitución, al relevo que un robot podría tomar del trabajo del ser humano, no nos permite bajar fácilmente las defensas, aun conociendo los beneficios que la inteligencia artificial está logrando en ámbitos como la medicina. Este miedo al reemplazo también permea el campo de las humanidades, pues la inteligencia artificial ya ha demostrado que puede crear, de manera autónoma, obras de arte o música, acciones que nos hacen considerar si a corto plazo el artista será sencillamente reemplazado. Alejándonos de esta perspectiva, la intención de este texto es explorar cómo la ia puede potenciar lo humano y el trabajo en colectivos para fomentar el logro de mejores resultados en proyectos relacionados con las humanidades. El escenario de la colaboración es una alternativa a la metáfora de la guerra, y es también la búsqueda de una productiva relación instrumental entre el ser humano y la ia, una herramienta ciertamente poderosa. Podemos pensar que ya colaboramos con la tecnología de manera intensa, pero esto aún puede alcanzar un nuevo nivel si pensamos en lo que Malone denomina supermentes, es decir, la posibilidad de que “las personas y las computadoras se conecten de tal manera que actúen de forma más inteligente que cualquier persona, grupo o computadora haya hecho antes” (2018, p. 16). ¿Cómo puede suceder esto? Veamos algunos ejemplos.

Robots y humanos trabajando codo a codo

Como ejemplo de robot y humanos trabajando juntos para lograr supermentes, Malone (2018) menciona a los bots de Wikipedia, diseñados para revertir ciertas ediciones consideradas como vandálicas. La inteligencia artificial detecta la anomalía y los bots contribuyen como aliados que auxilian a los editores humanos a mantener, de manera más sofisticada y rápida, la calidad de los artículos. Vista así, la inteligencia artificial, trabajando al servicio de un colectivo, potencia las habilidades de los miembros del grupo en lugar de sustituirlos, lo cual corresponde a uno de los “santos griales” de la ia (Weld, Mausam, Lin y Bragg, 2015, p. 89), propuesta también conocida como sistemas de iniciativa mixta. Otro ejemplo de este tipo de colaboración es el proyecto EyeWire. Se trata de una plataforma de ciencia ciudadana que nació en 2012 y que permite la cooperación de voluntarios para mapear neuronas en un ambiente ludificado. Se han registrado más de 290 000 personas de alrededor de 150 países y de acuerdo con la directora ejecutiva esto “es equivalente a 32 personas trabajando tiempo completo durante 7 años” (DeWeerdt, 2019).

Figura 1. Plataforma de EyeWire.

Nicholas Carr (2014) habla de la tecnología como un medio que nos permite ir más allá del límite que el cuerpo nos impone, y con ello nos acerca a una apreciación diferente del mundo: “El valor de una herramienta bien hecha y bien utilizada reside no sólo en lo que produce para nosotros, sino en lo que produce en nosotros (p. 247-248). Carr precisa que la elección de una herramienta de trabajo debería ayudarnos a extender el campo de nuestra experiencia y percepción: “Lo que hace una herramienta superior a otra no tiene nada que ver con su novedad, lo que importa es cómo nos agranda o empequeñece, cómo moldea nuestra experiencia de la naturaleza, de la cultura y de los unos con los otros” (p. 262). Si asumimos las herramientas tecnológicas como un instrumento para enriquecer nuestra experiencia sensorial y cognitiva, no podríamos encontrar un mejor aliado que la ia para ayudarnos a conocer y mejorar el mundo que nos rodea. Los siguientes dos ejemplos muestran cómo este enriquecimiento de recursos puede aplicarse a casos concretos en las humanidades.

El mundo de Shakespeare

Zooniverse es el nombre de un proyecto que inició en 2009 bajo el concepto de people-powered research. Se trata de una plataforma que facilita la colaboración entre participantes de diferentes edades, países y conocimientos, permitiendo que cada uno aporte pequeñas cantidades de trabajo voluntario en diversos proyectos, bajo el mismo concepto que Wikipedia o EyeWire. De esta manera se avanza más y de forma más rápida. Al momento de escribir este texto, la página oficial anuncia 447 339 366 participaciones, en alrededor de 50 proyectos, hechos por 1 937 067 voluntarios registrados y contando. Otro término relacionado con dicha forma de trabajo es el crowdsourcing, que en este contexto se refiere a un llamado abierto a la colaboración en proyectos específicos, donde cada participante usa sus mejores habilidades con el fin de solucionar un problema determinado o resolver un reto. Al abrir una convocatoria de esta naturaleza se amplían las posibilidades de reunir perfiles variados que contribuyan de una forma que no sería posible en grupos cerrados y muy controlados. Zooniverse alberga proyectos de todas las áreas del conocimiento, pero aquí nos centraremos en uno del área de humanidades llamado “El mundo de Shakespeare”, donde la comunidad participa en la transcripción de manuscritos de este autor o de sus contemporáneos. El proyecto estuvo activo de diciembre de 2015 hasta septiembre de 2019 y actualmente se encuentra en período de revisión. Se trata de una iniciativa que se logra gracias a instituciones académicas como la Biblioteca Folger Shakespeare, en Washington, D.C., el proyecto Zooniverse.org de la Universidad de Oxford y el Diccionario Oxford de la Oxford University Press. Participaron alrededor de 50 mil usuarios que transcribieron aproximadamente 8 000 páginas (Barber, 2018).

Figura 2a. Plataforma Zoouniverse: ejemplos de transcripción.

Entre los manuscritos por revisar se encontraban cartas, libros de recetas de cocina, textos de alquimia, boletines de noticias, etcétera. Este material permite identificar desde variantes lingüísticas del idioma inglés, hasta conocimientos sobre la vida cotidiana del período 1564-1616, cuyo contenido es casi imposible de analizar hasta no contar con una transcripción. Recordemos que para transcribir estos documentos se requieren especialistas y se trata de un proceso lento y minucioso que a una sola persona puede tomarle meses o años. Gracias a la plataforma que ofrece Zooniverse, este procedimiento se agiliza de la manera que se describirá a continuación. De entrada, todo el material se encuentra digitalizado y disponible en la plataforma. Los participantes realizan un tutorial de 10 minutos para aprender cómo deben indicar, desde una transcripción simple, hasta observaciones sobre palabras o expresiones no registradas aún por el diccionario, dudas o caracteres especiales. El sistema permite que cada voluntario colabore con una transcripción tan breve como una palabra o páginas completas: todo aporta al proyecto. En la figura 2 se puede apreciar el espacio que se abre sobre la imagen digitalizada de un manuscrito para ingresar una transcripción del texto, marcado con una línea verde.

Figura 2b. Plataforma Zoouniverse: ejemplos de transcripción.

Por supuesto, no todas las participaciones son exactas y precisas, pero justamente aquí se encuentra la oportunidad para la inteligencia artificial: los algoritmos “aprenden” y podrán organizar, de manera cada vez más efectiva, la colaboración de toda la gente que decide participar en un proyecto de esta naturaleza, lo cual sería imposible si no fuera por los algoritmos que trabajan para facilitar la recuperación, análisis y validación de aportaciones. Aspectos como el reconocimiento de imagen a través de un entrenamiento de machine learning podrían mejorar la “lectura” que una máquina realiza de un manuscrito. Los datos obtenidos quedan a disposición del público que así lo solicite y esta es una forma de retribución al trabajo voluntario y a la comunidad. Dunn y Hedges (2019), así como Deines, Gill, Lincoln y Clifford (2018) detallan los beneficios y retos que han observado de este tipo de colaboración. Estos últimos autores resaltan, en el primer punto de su análisis, un hecho obvio pero a la vez sorprendente: “Lección #1: la gente quiere transcribir”. Entonces, las multitudes que leen a Shakespeare aportan la habilidad humana de lectura que las máquinas no poseen, mientras que las máquinas aportan la capacidad de clasificación y organización para sistematizar los esfuerzos del colectivo. Tenemos aquí un ejemplo de supermente orientada hacia un proyecto del área de humanidades.

Por favor, alimente a los leones

El segundo ejemplo se trata de la colaboración entre Es Devlin, artista plástica, y Ross Goodwin, ingeniero de Google y creador de un algoritmo generador de poesía de deep learning para esta instalación. Please, Feed the Lions es el título original de esta obra que se presentó entre el 18 y 23 de septiembre de 2018, en el Festival de diseño de Londres. La idea era integrar un quinto león de color rojo vibrante que se uniera a los cuatro ya existentes en la plaza Trafalgar e invitar a los asistentes a alimentar a los leones…, pero con palabras. Aquí la metáfora de alimentar y nutrir a los leones nos regresa al aspecto de la colaboración para lograr mejores productos y de un mayor impacto. Podemos preguntarnos en este punto, ¿con este “alimento” aportado por la gente, qué tipo rugido produciría el león? Al concebir esta obra, Devlin pensaba darle al león “una voz poética colectiva y diversa a partir del ‘alimento’ proporcionado por las multitudes” (Google Arts & Culture, 2018). Dado que la elección de las palabras que una persona usaría para alimentar a los leones era un factor desconocido, el algoritmo debía estar diseñado para optimizar la estética del poema tanto en lo semántico como en la métrica. Cada palabra o frase que llegaba a la boca del león se convertía en el inicio de un poema de dos líneas que se proyectaba en la columna cercana. Estos son algunos de los versos que el león rugió:
Este refugio en el bosque El sol y el cielo
Las sombras del día sacuden los cielos Y siente los preciosos sonidos de la muerte ser
Un déspota aún sobre las costas del pecado Y las estrellas del viento nocturno parecen estar de pie1 

Figura 3. Please. Feed the Lions, Trafalgar Square, Londres 2018 (Mac Fadden Islington, 2018).

El poema se genera a partir de un modelo de red neuronal que ha aprendido a escribir a través de la lectura de 25 millones de palabras de poesía del siglo xix. Funciona prediciendo el carácter que debe continuar (sea letra, espacio o puntuación), a partir de cada una de las palabras proporcionadas por la audiencia. El algoritmo no sólo une frases que conoce con las que recibe, sino que puede escribir por sí mismo a partir de un input determinado: “Esto permite a la obra responder en tiempo real, es un poema siempre en desarrollo” (Google Arts & Culture, 2018). En este caso, la inteligencia artificial permite que las multitudes creen un poema que además de extenso es verdaderamente misterioso en su sentido. Si cada persona en este festival escribiera su propio poema sería una creación valiosa sin duda, pero el acto de crearlo de manera colectiva y con la posibilidad de mejorar y potenciar la estética del lenguaje gracias al algoritmo es otro ejemplo de las supermentes a las que se refiere Malone (2018).

La visión positiva de la IA, las multitudes y las humanidades

Si regresamos a la definición de Carr (2014) acerca de la productividad de una herramienta que no sólo produce algo para nosotros sino que produce algo (positivo) en nosotros y nos permite extender nuestras posibilidades de experiencia del mundo, los dos ejemplos toman sentido. Lejos de la ia que nos sustituya o que nos haga cada vez más dependientes e inútiles al recordar datos, en estos dos ejemplos vemos una perspectiva optimista de las posibilidades de colaboración:si la metáfora de competencia cambia por una de “alimentación”, de contribución, de muchos que podemos aportar, cada uno, un poco para lograr más entre todos, entonces, tal vez podamos lograr una balanza más equilibrada, positiva y proactiva: las humanidades tienen abundante material para nutrir estas supermentes y aprender en ellas.

Referencias

  • Barber, S. T. (2018). The ZOONIVERSE is Expanding: Crowdsourced Solutions to the Hidden Collections Problem and the Rise of the Revolutionary Cataloging Interface. Journal of Library Metadata, 18(2), 85-11. doi: https://doi.org/10.1080/19386389.2018.1489449.
  • Carr, N. (2014). Atrapados. Cómo las máquinas se apoderan de nuestras vidas. México, CDMX: Taurus.
  • Deines, N., Gill, M., Lincoln, M. y Clifford, M. (2018). Six Lessons Learned from Our First Crowdsourcing Project in the Digital Humanities. Getty Iris blog. Recuperado de: https://blogs.getty.edu/iris/six-lessons-learned-from-our-first-crowdsourcing-project-in-the-digital-humanities.
  • DeWeerdt, S. (24 de julio de 2019). How to map the brain. Nature Outlook: The brain, 571, S6-S8 doi: 10.1038/d41586-019-02208-0.
  • Dowek, G. (2018). Entrevista en Intelligence artificielle. Enquête sur ce technologies qui changent nos vies. Flammarion, Champs actuel.
  • Dunn, S. y Hedges, M. (2017). Academic Crowdsourcing in the Humanities. Crowds, communities, and Co-production. Cambridge, Massachusetts: Chandos Publishing- Elsevier.
  • Google Arts & Culture (2018). The Technology and people behind Please Feed the Lions. Meet the team working behind-the-scenes on the fifth lion. Recuperado de: https://artsandculture.google.com/exhibit/uQJy-TQgHNPkJw.
  • Mac Fadden Islington, Dearbhla (2018). “Please Feed The Lions”, Es Devlin in Trafalgar Square, London 2018. Recuperado de: https://commons.wikimedia.org/wiki/File:LDFLionsEdit_06.jpg.
  • Malone, T. (2018). Superminds: The Surprising Power of People and Computers Thinking Together. Nueva York, Little, Brown and Company.
  • Weld, D., Mausam, Lin, C. y Bragg, J. (2015). Artificial Intelligence and Collective Intelligence, p. 89-100 En Malone y Bernstein (eds). Handbook of collective intelligence. Boston, Massachusetts: mit Press.
<

Recepción: 06/11/2019. Aprobación: 22/11/2019.

Vol. 21, núm. 1 enero-febrero 2020

Inteligencia artificial en todo y para todos

Juan Carlos Niebles Cita

Resumen

Juan Carlos Niebles es un experto en inteligencia artificial, específicamente en visión por computadora. A través de esta entrevista nos hace reflexionar sobre la importancia que la inteligencia artificial tiene en nuestras vidas en la actualidad, así como la que puede llegar a tener, en rubros como la banca, cuestiones legales, temas de salud y diagnóstico, etcétera. Asimismo, plantea que todo tipo de tecnología, no sólo la inteligencia artificial, presenta ventajas y riesgos; que en este momento este tipo de inteligencia sólo es capaz de solucionar cuestiones muy específicas y que todavía está muy lejos de la inteligencia natural para adaptarse, aprender y realizar procesos cognitivos de manera avanzada y eficiente; pero que, en general, el beneficio potencial de la inteligencia artificial para los humanos es muy elevado. Palabras clave: Inteligencia artificial, tecnología, desarrollo de tecnología, aplicaciones, riesgos.

Artificial intelligence in everything and for everyone

Abstract

Juan Carlos Niebles is an expert on artificial intelligence, specifically in computer vision. Through this interview, he poses the reflection on the importance of artificial intelligence in our daily lives, as well as the one that it might have in fields such as banking, legal issues, health and diagnosis, etcetera. Furthermore, he states that every type of technology, not only artificial intelligence, has advantages and risks; that at this moment such kind of intelligence is only capable of giving solution to very specific issues, and that it is still far from natural intelligence’s ability of adapting, learning and doing cognitive processes in a highly advanced an efficient way, but that, in general, the potential benefit of artificial intelligent is very high to humans. Keywords: artificial intelligence, artificial intelligence, technology, technology development, applications, risks. A partir de apenas un puñado de preguntas, Juan Carlos nos lleva por diversos caminos, retos y soluciones donde participa la inteligencia artificial (ia). La entrevista completa puede verse aquí ¿Por qué todos debemos saber de ia? Se trata de una tecnología que va a cambiar al mundo: basta con pensar en cómo la electricidad o internet lo hicieron. El impacto de la ia será tan grande, que es necesario que esté representado el punto de vista de todos. Esta tecnología puede ser muy poderosa, con aplicaciones para la banca, cuestiones legales y muchos otros campos. El programa Stanford-AI4all tiene justamente esa intención: la idea es incrementar los puntos de vista plurales ya que actualmente no hay una representación homogénea por género y por etnicidad. En Stanford se está dando un enfoque especial a la participación de las chicas en este programa, por lo que se les invita en el décimo grado para que se puedan interesar en el tema. ¿Qué beneficios y riesgos de la ia se presentan en su campo de estudio de la visión? La visión por computadora implica que la máquina capture imágenes, así como datos del contexto. La idea es que sea capaz de percibir el mundo. Si se tiene una cámara en un café, por ejemplo, es deseable que pueda indicar que hay dos personas en una mesa, de manera que pueda aportar asistencia en función de lo que está pasando. También es muy importante que pueda proteger la privacidad de quienes forman parte de las imágenes. En cuanto a los riesgos, vivimos un momento temprano en el desarrollo de la ia, que resulta perfecto para conversar sobre qué es lo bueno y qué es lo malo. Sabemos que pueden ser muy útiles en cuestiones de formación, al aprender a ensamblar un aparato, por ejemplo, y que siempre está el riesgo de violar la privacidad de las personas. Esto forma parte de la conversación que debemos tener. Las ventajas y los riesgos se aplican también a tecnologías previas, como el fuego: sabemos que es una herramienta muy importante, pero también que tiene peligros potenciales. ¿Cómo se compara la ia con la inteligencia natural del ser humano? Siempre que trabajamos con ia nos inspiramos con lo que pasa en el ser humano, en la inteligencia humana que consideramos la cosa más maravillosa de la naturaleza. El campo de la ia está todavía muy lejos de la inteligencia natural para adaptarse, aprender y hacer este tipo de procesos cognitivos de manera tan avanzada y eficiente. En este momento la ia es capaz de solucionar cuestiones muy específicas de manera muy buena. Por ejemplo, puede haber un sistema que juegue ajedrez y le gane incluso a campeones, pero es lo único que sabe hacer. Se trata de una inteligencia muy estrecha, muy específica. ¿Hay desarrollos en las áreas de emoción y creatividad en ia? Resulta difícil entender qué son las emociones, cómo emergen del cerebro… Un tema ligado es el sentido común, que es algo prácticamente inexistente en la ia de hoy. En cuanto a la creatividad, es un tema muy interesante. Hemos visto, por ejemplo, algunos sistemas nuevos de ajedrez que utilizan estrategias de juego completamente diferentes a las de los jugadores humanos. Incluso los grandes maestros de ajedrez juegan con ellos y se quedan fascinados. Quizá podamos hablar de creatividad de la ia. También existen sistemas que trabajan para industrias como la de la moda. Aquí se enfrentan al problema de saber si las creaciones que propone la ia serán del gusto de la gente. Entonces entra la colaboración entre humanos y máquinas. ¿Qué reacción debemos tener ante los procesos de aprendizaje por los que pasan las ia y que no implican una supervisión humana? A los científicos nos intrigan los mecanismos del cerebro que permiten a los humanos aprender con pocos ejemplos y de manera no supervisada. Hoy en día las máquinas aprenden fundamentalmente de forma supervisada. Los procesos de aprendizaje no supervisado implican que absorben grandes cantidades de datos, definen patrones y comprenden los datos. Estamos aún lejos de tener técnicas que lo permitan. Si bien no hay que tener temor, sí debemos tener cuidado de que la tecnología avance por buen camino. ¿Algún mensaje final para nuestros lectores? Sabemos que estos temas pueden despertar temores. Sin embargo, es necesario considerar que faltan décadas para que ciertos trabajos dejen de ser útiles, a partir de la automatización de procesos. Por otro lado, existen muchos beneficios de la ia en temas de salud, por ejemplo, en el área de diagnóstico, o de transporte, para que disminuyan los accidentes a partir de mayor seguridad. En general, el potencial de beneficio de la ia para los humanos es muy elevado.

Si te interesa el tema:

Recepción: 05/11/2019. Aprobación: 28/11/2019.

Facebook
Twitter
YouTube
Instagram

Revista Digital Universitaria Publicación bimestral Vol. 18, Núm. 6julio-agosto 2017 ISSN: 1607 - 6079