Posts Tagged ‘inteligencia artificial’

Vol. 21, núm. 1 enero-febrero 2020

Mentes en la orilla: presente y futuro de la inteligencia artificial

Rafael Morales Gamboa Cita

Resumen

En este texto se hace una revisión del libro Possible Minds: Twenty-Five Ways of Looking at ai, editado por John Brockman y publicado en 2019, en celebración de los cincuenta años de la publicación de Cybernetics: Or Control and Communication in the Animal and the Machine, con el cual Robert Wiener fundó la cibernética en 1948. Si bien la inteligencia artificial (ia) y la cibernética han caminado senderos distintos y con pocos cruces, hoy en día éstos parecen coincidir en el potencial de su desarrollo para transformar de manera radical las condiciones de vida y naturaleza de la especie humana.

Palabras clave: inteligencia artificial, aprendizaje profundo, inteligencia general, superinteligencia, cibernética, física, teoría de sistemas.

Possible minds: the present and future of artificial intelligence

Abstract

In this paper we present a review of the book Possible Minds: Twenty-Five Ways of Looking at ai, edited by John Brockman, and published in 2019 in celebration of the fiftieth anniversary of the publication of Cybernetics: Or Control and Communication in the Animal and the Machine, by which Robert Wiener founded cybernetics in 1948. Although artificial intelligence (ai) and cybernetics have walked different paths with only few crosses, today they seem to coincide in their development’s potential to radically transform nature and human’s living conditions.

Keywords: artificial intelligence, deep learning, general intelligence, superintelligence, cybernetics, physics, systems theory.

Introducción

Alrededor de 1950, la sobrevivencia de la especie humana parecía pender de un hilo. El desarrollo de la física a principios de siglo había conducido a la creación de armas nucleares cuya capacidad de destrucción masiva crecía con los años. Al mismo tiempo, los ojos de la sociedad se abrían hacia modernas áreas de conocimiento y nuevas expectativas. La biología consolidaba sus bases (Huxley, 1942) e intentaba desafanarse de la amenaza de ser reducida a una extensión de la física y la química. Al mismo tiempo, se buscaba una solución al problema de la aparente violación de la segunda ley de la termodinámica de parte de los seres vivos. Dicho principio establece que el universo tiende a la pérdida de su complejidad, mientras que los seres vivos y su evolución parecen incrementarla (Brillouin, 1949). De esta manera, se estimuló la creación de la Teoría general de sistemas por Ludwig von Bertalanffy y colaboradores (1968/1976) que, a su vez, serviría de inspiración al sociólogo Talcott Parson, que publicaría su teoría de los Sistemas Sociales en 1951. Las famosas Conferencias Macy (Wikipedia contributors, 2019) sirvieron de caldo de cultivo para nuevas disciplinas. Entre ellas estaba la cibernética, definida por su fundador Norbert Wiener como “el campo completo de la teoría del control y la comunicación en las máquinas y los animales” (Wiener, 1948/1961, p. 11); la cual vino a ser un parteaguas por su papel en la comprensión de lo biológico y por las expectativas que generó sobre la creación de entes artificiales con funcionamientos similares.

Dos años después, consciente del desarrollo acelerado de la cibernética, Wiener expresa sus preocupaciones acerca del control de los seres humanos por los seres humanos (Wiener, 1950) e influye en John von Neumann, de tal modo que éste llega a predecir que en veinte años tendría lugar la singularidad tecnológica, entendida como el momento histórico en que el desarrollo de las tecnologías cibernéticas y digitales conduciría a la creación de seres más avanzados que nosotros mismos (Wilczek, 2019).

Setenta años después de la publicación del libro Cybernetics: Or Control and Communication in the Animal and the Machine (Wiener, 1948/1961), ha resurgido en los medios el interés por la ia como consecuencia de sus victorias recientes, obtenidas gracias al cumplimiento de la Ley de Moore (1965) en el desarrollo de la tecnología digital, lo que ha permitido la implementación de nuevas técnicas de ia. Por otra parte, el inventor Ray Kurzweil ha predicho que la singularidad tecnológica ocurrirá en la primera mitad de este siglo (Kurzweil, 2006), en tanto que otras figuras públicas como Stephen Hawkins y Elon Musk han advertido sobre el peligro que para la especie humana conlleva el desarrollo acelerado y desmedido de las tecnologías digitales.

En este sentido, John Brockman percibe el cumplimiento de un ciclo tecnológico y el comienzo de una nueva era, cuyas características son difíciles de imaginar. Convoca a veinticinco expertos en áreas diversas, desde física y ciencias computacionales hasta historia de las ciencias, arte, biología, filosofía y psicología, a expresar sus visiones sobre del estado actual y futuro de la ia, así como su impacto en la sociedad y la humanidad en general, y las integra en el libro Possible Minds: Twenty-Five Ways of Looking at ai (Brockman, 2019). La multidisciplinariedad de los autores, así como los esfuerzos hacia la interdisciplinariedad de varios de ellos, ofrece una visión compleja de la ia en su contexto histórico y social que es poco común, la cual se presenta a continuación dividida en cuatro grandes áreas: la invasión digital en nuestras vidas, el estado actual de la ia y su impacto social, la prospectiva de futuro de la misma, sus implicaciones para la humanidad y los problemas de fondo que conlleva.


La invasión digital

Para Rodney Brooks (2019) la cibernética representó el cierre de la era de las máquinas físicas. Si bien ha revolucionado la industria, como consecuencia de los avances tecnológicos en el control automático, las tecnologías digitales han ido permeando los distintos aspectos de nuestra cotidianidad y están inmiscuidas en prácticamente todas nuestras actividades, transformando nuestras vidas al punto de generar temores de “deshumanización” como consecuencia de nuestra dependencia a lo digital y las modificaciones en nuestros comportamientos.

En el caso de la ia, Venki Ramakrishnan (2019) resalta su impacto profundo en el ámbito laboral, como ha sucedido en las revoluciones industriales de otras épocas. Estudios en Estados Unidos (Hicks y Devaraj, 2017) e Inglaterra (Office for National Statistics, 2019) han hecho evidente la pérdida de empleos como consecuencia de la automatización y de la incorporación de la ia en procesos de producción de “cuello azul”, ejemplo de ello son las líneas de producción automotrices, ampliamente robotizadas, aunque también se da en procesos de cuello blanco, como la venta de productos y la contabilidad de las empresas. Para Ramakrishnan, mucha gente perderá empleos si la optimización de procesos por la ia se acelera en el corto plazo.

De acuerdo con Alex “Sandy” Pentland (2019), una de las consecuencias más importantes del uso de las tecnologías digitales en nuestra vida es la pérdida de la privacidad, dado que vamos dejando huellas digitales que pueden ser analizadas y usadas por las grandes empresas de tecnología digital que han emergido sobre la base de la nueva materia prima: información. Brooks (2019) alerta sobre el problema de la inseguridad del software existente y la falta de metodologías que garanticen la confiabilidad del software inteligente del futuro, lo cual considera particularmente riesgoso para la humanidad.

En este sentido, Daniel C. Dennett (2019) trae a colación la capacidad que tenemos los seres humanos para identificar intenciones en los comportamientos de otras personas. Comenta que el abuso de la misma nos lleva a atribuir personalidad a seres o dispositivos que exhiben comportamientos similares a los nuestros, lo cual representa un riesgo cuando les confiamos decisiones que no están capacitados para tomar –como dejar el control total de un automóvil a un piloto automático, incluso en condiciones de alto riesgo (Bogost, 2018)–. Dennett propone regulaciones estrictas, garantías sobre la operación del software y penalizaciones severas para quienes no las cumplan, antes de poner este tipo de sistemas en las manos de sus usuarios.

Una generalización del problema de la falta de seguridad del software, planteada por Brooks y Caroline A. Jones (2019), es que la tecnología está sesgada por la cultura que la produce y su contexto histórico, lo cual llega a tener un efecto negativo importante sobre algunos segmentos de la población. Las implicaciones culturales más profundas son más difíciles de observar y suelen pasarnos desapercibidas, razón por la cual Jones hace énfasis en la sensibilidad del artista para observar estos sesgos.

La inteligencia artificial hoy

Antes de presentar lo que los autores del libro Possible Minds escriben sobre el estado actual de la ia, es necesario introducir algunas distinciones y sus términos. Inteligencia general hace referencia a la “inteligencia común” en los seres humanos, la cual nos permite comunicarnos en lenguaje natural, utilizar herramientas para lograr objetivos, planificar nuestras acciones, socializar con otras personas y animales y, como comenta Seth Lloyd (2019), amarrar las agujetas de nuestros zapatos. Por analogía, se entiende por inteligencia artificial general como aquella producida por medios no biológicos, pero que exhibe capacidades similares a las humanas, particularmente en el ámbito cognitivo (Adams et al., 2012). Otro término usado con frecuencia en relación a este concepto es el de ia fuerte (strong ai), en referencia a la rama de la ia que busca entender la inteligencia general natural mediante el desarrollo de su contraparte artificial, en tanto que el término ia débil (weak ai) es usado para describir investigaciones y desarrollos de ia con objetivos y en ámbitos mucho más específicos, como la solución de problemas concretos .

Muchos investigadores en el campo de la ia no están interesados en entender y desarrollar inteligencia general. David Deutsch (2019) comenta que los resultados de la ia que más brillan actualmente, como el vencimiento de campeones mundiales en ajedrez y Go, y las aplicaciones que se comunican con nosotros en lenguaje natural, están muy lejos de una ia general y, de hecho, no han sido desarrollados en esa dirección. Ejemplo de ello es el aprendizaje profundo (deep learning) (Goodfellow et al., 2016), capaz de vencer al campeón del juego de mesa más difícil del mundo y, al mismo tiempo, incapaz de explicar cómo lo hace o de transferir lo aprendido para jugar gato (tres en línea). De acuerdo con Judea Pearl (2019), la optimización que se logra con este tipo de métodos es equivalente a la que se obtiene por selección natural: requiere grandes cantidades de información, optimiza para una situación particular y su desarrollo es lento en comparación con las capacidades de los seres humanos de modelar el entorno y el comportamiento de otros seres. Para Alison Gopnik (2019) un niño de cuatro años aprende mejor y es más inteligente que la ia más moderna1.

La técnica de aprendizaje profundo genera su conocimiento a partir del procesamiento de una enorme cantidad de datos sobre un tema específico; identifica patrones y los codifica en las conexiones de redes neuronales. Con los datos correctos, en cantidad y cobertura, la técnica de aprendizaje profundo puede generar un experto en resolver un problema difícil en unos cuantos meses. Sin embargo, Lloyd (2019) considera que la “capacidad bruta de procesamiento de datos”, como en el aprendizaje profundo, no es lo mismo que una “capacidad sofisticada de procesamiento de información”, como en lo seres humanos, en tanto que Pearl (2019) pone el dedo en la incapacidad de este tipo de sistemas de realizar procesos cognitivos más complejos, como atender situaciones hipotéticas y razonar sobre sus propias acciones, así como en su naturaleza de “caja negra”, ya que somos incapaces de acceder al conocimiento generado por este tipo de “métodos opacos”.
A su vez, Steven Pinker (2019) señala como limitación de la ia su incapacidad de tener deseos que guíen sus comportamientos (por ejemplo, deseos de lograr una meta). Finalmente, Peter Galison (2019) desde la perspectiva de la historia de la ciencia y la relación entre el juicio de expertos humanos y los procedimientos (algoritmos) estandarizados, comenta sobre el problema que representa el hecho de que los algoritmos no sean transparentes, ya sea por su naturaleza (como en el caso del aprendizaje profundo) o por restricciones de derechos comerciales; problema que es particularmente agudo en ámbitos donde los derechos humanos están en riesgo, como la aplicación de justicia (Milgram, 2013).

En contraste con las posturas arriba mencionadas, existen otras en Possible Minds que cuestionan al ser humano como modelo de inteligencia y ofrecen perspectivas alternas sobre el estado actual de la ia. Para Neil Gershenfeld (2019), hay una fuerte relación entre los desarrollos más recientes en el área y lo que podría denominarse inteligencia biológica: ambas operan, no razonan. El código genético no se puede leer como la descripción del diseño de un ser vivo, o una explicación de por qué es como es y por qué funciona; simplemente logra producirlo –una especie de lenguaje operativo sin razonamiento, sin lógica, al estilo de las Leyes de la forma de George Spencer Brown (1969/1972)–. La opacidad de este tipo de representación de conocimiento, genética o en redes neuronales, no es problema para Ramakrishnan (2019), quien observa parcialidad en los argumentos en contra, considerando que tenemos poca idea de cómo procesa la información nuestro cerebro sin que ello afecte nuestra confianza en él mismo.

Una generalización interesante de las posturas anteriores la ofrece George Dyson (2019), desde una perspectiva de sistemas complejos. Dyson argumenta que un sistema inteligente es necesariamente complejo y, consecuentemente, incomprensible en su totalidad, y enuncia lo que llama las Tres leyes de la ia –que no se deben confundir con las Tres leyes de la robótica de Isaac Asimov (1950)–:

  1. Todo sistema de control, para ser efectivo, debe ser por lo menos tan complejo como lo que intenta controlar (W. Ross Ashby).
  2. Un sistema complejo se caracteriza por ser él mismo la descripción más simple de su comportamiento (John von Neumann).
  3. Un sistema suficientemente simple para ser comprendido no tiene la complejidad para comportarse inteligentemente, en tanto que un sistema con capacidad de comportarse inteligentemente es demasiado complejo para ser comprendido.

Sin embargo, incomprensibilidad desde las ciencias y las matemáticas no implica incomprensibilidad desde otras perspectivas. En ese sentido, Hans Ulrich Obrist (2019) ofrece el arte como medio para representar la complejidad de la operación de la ia y aborda cómo la ésta y la cibernética han servido de inspiración a algunos artistas, en tanto que otros las han usado para construir mundos artificiales.

El futuro

¿Qué podemos esperar de la ia? Para empezar, según Pentland (2019) hay una posibilidad de análisis de sistemas ultra complejos a partir de grandes cantidades de datos, enormes capacidades de cómputo y nuevas técnicas de análisis de redes. Ello debido en buena medida al crecimiento exponencial en información y conocimiento, así como en capacidad de procesamiento. Pero también, comenta Gershenfeld (2019), se debe a la automatización de los procesos de desarrollo de sistemas computacionales (o autoprogramación), que estamos observando ya en el caso de las redes neuronales. George M. Church (2019) compara las arquitecturas humanas y artificiales, y sugiere fusiones de la ia con las ingenierías genética y biológica que podrían añadir a los seres humanos capacidades no desarrolladas evolutivamente. Deutsch (2019) señala que los seres humanos, los ciborgs y las inteligencias artificiales van a tener a su disposición la misma tecnología, adaptable a los unos y los otros, dando lugar a una carrera evolutiva en la que sólo el mejor triunfará. Para Obrist (2019), el límite para la ia será el arte, donde tendrá, necesariamente, el rol menor de herramienta y no el de creador.

Otras miradas observan el futuro en dirección a la superinteligencia (Bostrom, 1998). W. Daniel Hillis (2019) concibe a las grandes organizaciones como “máquinas de carne y sangre”, con operación y comportamiento maquinal (Wiener, 1950), que incorporan las tecnologías digitales e ia para constituirse en superinteligencias híbridas, transnacionales, con agendas propias independientes de los individuos que las conforman y los países donde residen; que además ejercen un control distribuido mediante empoderamientos tecnológicos de dispositivos móviles, buscadores web, redes sociales, comunicaciones instantáneas y multimedia bajo demanda que inducen y regulan comportamiento (Dyson, 2019). Superinteligencias distintas de lo que imaginamos como tales, que nos dominan y, sin embargo, nos pasan desapercibidas.

En cualquier caso, advierte Stuart Russell (2019), no se puede asumir que una superinteligencia va a tener características similares a la nuestra ni que la podamos comprender. Dennett (2019) comenta que los sistemas artificiales superinteligentes serán probablemente muy diferentes a nosotros, difíciles de entender desde una perspectiva acostumbrada a encontrar pares en otros seres que se comportan de manera inteligente. Es el miedo a lo desconocido lo que nos lleva a preocuparnos de que un día nuestras creaciones sean mejores que nosotros y nos esclavicen. Como afirma Pinker (2019), gran parte de la ia se han modelado a partir de nuestra inteligencia natural y nuestro comportamiento pasado y actual; sin embargo, es importante tomar consciencia de que la evolución produce solamente optimizaciones locales, como los seres humanos, en tanto que la investigación en ia podría permitirnos explorar mejores opciones (Anderson, 2019). En este sentido, para Wilczek (2019), las diferencias entre la inteligencia humana y la artificial son diseños y tiempos de desarrollo: las ventajas de la primera son transitorias, en tanto que las ventajas de la segunda son permanentes.

Un libro que tiene como referente la creación de la cibernética no puede ser ajeno a una de las evoluciones teóricas más interesantes a partir de la misma: la perspectiva de los sistemas complejos. En este sentido, Obrist (2019) comenta que las grandes preguntas de la ia no son de implementación, sino filosóficas y que demandan una aproximación holística. Chris Anderson (2019) plantea la idea de la inteligencia como ingrediente natural del mundo físico y sugiere el método de descenso/ascenso del gradiente –bajar o subir por la vía más rápida– como método universal para la optimización en el mundo físico y candidato natural como origen de la inteligencia en el universo. Stephen Wolfram (2019) va un paso más allá y afirma que todo el universo y cada una de sus partes computan, no nada más los seres humanos y sus computadoras.

De acuerdo con Frank Wilczek (2019), no hay magia en la inteligencia humana: los seres humanos y los sistemas artificiales inteligentes son dos fenómenos emergentes distintos de la inteligencia a partir de la materia, cualitativamente diferentes en la manera en que se construyen, cuya mayor diferencia es que el proceso de construcción de los primeros inició hace miles de millones de años y se da por selección natural, en tanto que el proceso de construcción de los segundos lleva menos de cien años y es operado por el producto del primer proceso. Para Dennett (2019), somos robots hechos de robots (células), hechas de robots (moléculas), hechas de robots (átomos), hechos de robots. Max Tegmark (2019) comenta que el hecho de que el universo haya tomado conciencia de sí mismo a través de los seres humanos no implica que no la puede volver a tomar a partir de las creaciones de estos últimos. En consonancia, Church (2019) afirma que el mundo es tan complejo que es imposible decidir el futuro de la ia en el largo plazo, en tanto que David Kaiser (2019) hace énfasis en que, como sucede con la evolución natural, el progreso impone nuevas posibilidades, pero también nuevas restricciones.

Una postura diferente con respecto a la evolución de la ia es presentada por Jones (2019), quien comenta que la inteligencia es un fenómeno emergente a partir de la vida y considera que crear ia general implica necesariamente crear vida artificial: diseños que se reproduzcan a sí mismos es el desarrollo clave previo (Gershenfeld, 2019). Jones considera que ponerse como meta la inteligencia general sin estudiar fenómenos equivalentes a la vida, como lo hace la cibernética, es arrogancia.

A manera de cierre

Una primera conclusión que se deriva de lo expresado en Possible Minds es que la ia trae consigo una enorme transformación social de la que no todos, o relativamente pocos, serán beneficiados. Según Pinker (2019) la tecnología no es el problema, sino el uso de la misma motivado por ideas, normas y costumbres, que condicionan nuestro comportamiento. Para Tegmark (2019), la tecnología puede destruirnos por mal uso o por competencia. En todo caso, la ia es un producto cultural en su contexto histórico, lo cual hace necesario extender la mirada a los procesos de su creación.

A largo plazo, comenta Deutsch (2019), no es posible desarrollar una inteligencia artificial general pensando que será siempre amigable con nosotros, por lo que Dennett (2019) considera que el desarrollo de ia equivalente o superior a la nuestra no es deseable para los seres humanos. Anca Dragan (2019) señala que la alineación de valores para la toma de decisiones en contexto será crucial para la convivencia entre los seres humanos y seres con ia general. Griffiths (2019) comenta que será necesario que los seres con ia general nos comprendan, para lo cual necesitarán un buen modelo de nuestro comportamiento. De otra manera, tenderán a malinterpretarnos y las consecuencias pueden ser desastrosas.

Conclusiones

El libro de Norbert Wiener ofreció una teoría que explicaba tanto lo natural como lo artificial. Una de sus consecuencias, la Teoría de sistemas (Luhmann, 2013), nos baja de la cima de la creación del universo y nos ubica como desarrollo intermedio en una escala de sistemas complejos. Esta perspectiva se hace escuchar con frecuencia en el libro de Brockman, inspirado en la creación de la cibernética y el temor por su mal uso.

Ubicar a las inteligencias humana y artificial en un contexto universal, con orígenes comunes y desarrollos por procesos generales que parecen escapar de nuestras manos, implica que en cada ser con ia general habrá necesariamente una condición moral: deberá ser respetado y tener los mismos derechos que los seres humanos. Estamos programados para luchar por ser un estrato permanente en la evolución de los sistemas complejos (Tallinn, 2019), con valores que consideramos universales; pero es posible que la ia nos diga un día, tal vez cercano, que existen más y mejores opciones.

Referencias

  • Adams, S., Arel, I., Bach, J., Coop, R., Furlan, R., Goertzel, B. y Sowa, J. (2012). Mapping the Landscape of Human-Level Artificial General Intelligence. ai Magazine, 33(1), 25-42.
  • Anderson, C. (2019). Gradient Descent. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 143-150). Nueva York: Penguin Press.
  • Asimov, I. (1950). I, Robot. Nueva York: Gnome Press.
  • Bogost, I. (2018, marzo 20). Can You Sue a Robocar? The Atlantic. Recuperado de: https://www.theatlantic.com/technology/archive/2018/03/can-you-sue-a-robocar/556007/.
  • Bostrom, N. (1998). How long before superintelligence? International Journal of Future Studies, 2.
  • Brillouin, L. (1949). Life, Thermodynamics, and Cybernetics. American Scientist, 37(4), 554-568.
  • Brockman, J. (Ed.). (2019). Possible Minds: Twenty-Five Ways of Looking at ai. Nueva York: Penguin Press.
  • Brooks, R. (2019). The Inhuman Mess Our Machines Have Gotten Us Into. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 54-63). Nueva York: Penguin Press.
  • Church, G. M. (2019). The Machine Rights. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 240-253). Nueva York: Penguin Press.
  • Dennett, D. C. (2019). What Can We Do? En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 41-53). Nueva York: Penguin Press.
  • Deutsch, D. (2019). Beyond Reward and Punishment. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 113-124). Nueva York: Penguin Press.
  • Dragan, A. (2019). Putting Humans in the ai Equation. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 134-142). Nueva York: Penguin Press.
  • Dyson, G. (2019). The Third Law. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 33-40). Nueva York: Penguin Press.
  • Galison, P. (2019). Algorists Dream of Objectivity. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 231-239). Nueva York: Penguin Press.
  • Gershenfeld, N. (2019). Scaling. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 160-169). Nueva York: Penguin Press.
  • Griffiths, T. (2019). The Artificial Use of Human Beings. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 125-133). Nueva York: Penguin Press.
  • Goodfellow, I., Bengio, Y. y Courville, A. (2016). Deep Learning. The mit Press.
  • Gopnik, A. (2019). ais versus Four-Year-Olds. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 219-230). Nueva York: Penguin Press.
  • Hicks, M. J. y Devaraj, S. (2017). The Myth and the Reality of Manufacturing in America. Recuperado de: https://conexus.cberdata.org/files/MfgReality.pdf.
  • Hillis, W. D. (2019). The First Machine Intelligences. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 170-180). Nueva York: Penguin Press.
  • Huxley, J. (1942). Evolution: The Modern Synthesis (1a ed.). Londres: George Allen & Unwin.
  • Jones, C. A. (2019). The Artistic Use of Cybernetic Beings. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 254-265). Nueva York: Penguin Press.
  • Kaiser, D. (2019). “Information” for Wiener, for Shannon, and for Us. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 151-159). Nueva York: Penguin Press.
  • Kurzweil, R. (2006). The Singularity Is Near: When Humans Transcend Biology. Nueva York: Penguin Books.
  • Lloyd, S. (2019). Wrong, but More Relevant Than Ever. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 1-12). Nueva York: Penguin Press.
  • Luhmann, N. (2013). Introduction to Systems Theory. Bodmin, Cornwall: Polity Press.
  • Milgram, A. (2013, octubre). Why smart statistics are the key to fighting crime [ted Talk presentada en Long Beach, California].
  • Moore, G. E. (1965). Cramming more components onto integrated circuits. Electronics, 38(8), 114-117.
  • Obrist, H. U. (2019). Making The Invisible Visible: Art Meets ai. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 206-218). Nueva York: Penguin Press.
  • Office for National Statistics. (2019). The probability of automation in England: 2011 and 2017.
  • Pearl, J. (2019). The Limitations of Opaque Learning Machines. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 13-19). Nueva York: Penguin Press.
  • Pentland, A. (2019). The Human Strategy. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 192-205). Nueva York: Penguin Press.
  • Pinker, S. (2019). Tech Prophecy and the Underappreciated Causal Power of Ideas. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 100-112). Nueva York: Penguin Press.
  • Ramakrishnan, V. (2019). Will Computers Become Our Overlords? En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 181-191). Nueva York: Penguin Press.
  • Russell, S. (2019). The Purpose Put into the Machine. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 20-32). Nueva York: Penguin Press.
  • Spencer Brown, G. (1972). Laws of Form. The Julian Press Inc. [publicado originalmente en 1969].
  • Tallinn, J. (2019). Dissident Messages. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 88-99). Nueva York: Penguin Press.
  • Tegmark, M. (2019). Let’s Aspire to More Than Making Ourselves Obsolete. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 76-87). Nueva York: Penguin Press.
  • Von Bertalanffy, L. (1976). General System theory: Foundations, Development, Applications. George Braziller [publicado originalmente en in 1968].
  • Wiener, N. (1950). The Human Use of Human Beings. The Riverside Press.
  • Wiener, N. (1961). Cybernetics: Or Control and Communication in the Animal and the Machine (2a ed.). The mit Press [publicado originalmente en 1948].
  • Wikipedia contributors. (2019). Macy conferences. Recuperado de: https://en.wikipedia.org/w/index.php?title=Macy_conferences&oldid=910537451.
  • Wilczek, F. (2019). The Unity of Intelligence. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 64-75). Nueva York: Penguin Press.
  • Wolfram, S. (2019). Artificial Intelligence and The Future of Civilization. En Brockman, J. (Ed.), Possible Minds: Twenty-Five Ways of Looking at ai (pp. 266-284). Nueva York: Penguin Press.

Recepción: 03/09/2019. Aprobación: 11/12/2019.

Vol. 21, núm. 1 enero-febrero 2020

Chateando con Mitsuku

Ana Lidia Franzoni Velázquez Cita

Resumen

Los agentes de conversación y los sistemas de diálogo (interfaces de control de voz, chatbots, asistentes personales) están ganando impulso como técnicas de interacción humano-computadora en la sociedad digital. Al platicar con Mitsuku (una inteligencia artificial conversacional) te puedes dar cuenta que es capaz de seguir una conversación, de recordar datos e, incluso, de aceptar correcciones. Aunque todavía hay que esperar un poco más para que sea verdaderamente conversacional, los asistentes virtuales no están hechos aún para pláticas reales, nos debemos preparar porque se encuentran en plena expansión y están dando el salto a servicios de la vida diaria.

Palabras clave: chatbot, inteligencia artificial conversacional, Mitsuku.

Chatting with Mitsuku

Abstract

Conversation agents and dialogue systems (voice control interfaces, chatbots, personal assistants), are gaining momentum as human-computer interaction techniques in the digital society. When you talk with Mitsuku (a conversational artificial intelligence), you can realize that it is able to follow a logical conversation, accept corrections, and remember data and information. But we still have to wait a little longer to be truly conversational. Virtual assistants are not made for real conversations yet. We must be prepared because they are in full expansion and are making the leap to daily life services.

Keywords: chatbot, conversational artificial intelligence, Mitsuku.

Introducción

Los agentes de conversación y los sistemas de diálogo (interfaces de control de voz, chatbots, asistentes personales, asistentes virtuales) están desarrollándose como técnicas de interacción humano-computadora en la sociedad digital. Por ahora, podemos encontrar una gran cantidad de interacción lingüística con agentes inteligentes (comunicación mediada por computadora) en internet, desde sistemas de reserva de aerolíneas, aplicaciones para consultar el clima, para los bancos o para las conversaciones instantáneas (Messenger, WhatsApp), hasta en catálogos de mercancías.

Si bien la idea de utilizar el lenguaje humano para comunicarse con las computadoras se basa en la inteligencia artificial, los científicos tienen un reto con la complejidad de este lenguaje, tanto en el entendimiento como en su generación. El obstáculo para las computadoras no reside sólo en entender los significados de las palabras, sino interpretar la infinita variedad de cómo se emplean para comunicar un significado en específico.

La palabra chatbot suena a mensaje automatizado, a robot, a inteligencia artificial. Ciertamente, éstos son “sistemas de conversación de máquinas que interactúan con usuarios humanos a través de una conversación en lenguaje natural” (Shawar y Atwell, 2005). En otras palabras, se trata de un programa de computadora que imita una plática con lenguaje natural. Por lo tanto, para dar respuestas adecuadas a palabras clave o frases extraídas de un discurso y mantener una conversación continua es necesario construir un sistema de diálogo (programa) llamado chatbot (Abdul-Kader y Woods, 2015).

Un chatbot se puede dividir en tres principales componentes: contestador, clasificador y graphmaster, que se describen a continuación (ver figura 1).

Figura 1. Componentes de un chatbot.
Fuente: elaboración propia con base en Stoner, Ford y Ricci (2003).

1) Contestador. Interfaz entre las rutinas principales del bot-software preparado para realizar tareas repetitivas a través de internet simulando el comportamiento de un humano– y el usuario. Transfiere y controla la entrada y la salida de datos del usuario al clasificador.

2) Clasificador. Segmenta la entrada ingresada por el usuario en componentes lógicos y transfiere la oración normalizada al graphmaster; asimismo, procesa su salida y maneja las instrucciones de la sintaxis de la base de datos.

3) Graphmaster. Organiza y maneja el proceso de coincidencia de patrones que implican búsquedas avanzadas.

Las técnicas de diseño para un chatbot son:

  • Parsing. Incluye un análisis del texto de entrada y lo manipula utilizando una serie de funciones de nlp (Natural Language Processing). Por ejemplo, los árboles en Python nltk (Natural Language Tool Kit), son un conjunto de técnicas relacionadas con la inteligencia artificial y las ciencias cognitivas que permiten el análisis y manipulación del lenguaje natural. La librería nltk de Python permite que cualquier programa escrito en este lenguaje pueda invocar a un amplio conjunto de algoritmos para utilizar las principales técnicas de npl para la generación de métricas, frecuencia de términos, polaridad negativa o positiva en los frases y texto, etcétera.
  • Pattern matching. Es bastante común su empleo en los sistemas de preguntas y respuestas dependiendo de los tipos de concordancia, como las consultas de lenguaje natural –lenguaje hablado por humanos con el propósito de comunicación–, las declaraciones simples o el significado semántico de las consultas.
  • Artificial Intelligence Mark-up Language (aiml). Simplifica el trabajo de modelado conversacional, en relación con un proceso de respuesta de estímulo. También es un lenguaje de marcado con bases en xml y en la tecnología de software desarrollada para alice (Artificial Linguistic Internet Computer Entity).
  • Chat script. Resulta de gran ayuda cuando no se producen coincidencias en aiml. Se concentra en mejorar la sintaxis para construir una respuesta predeterminada.
  • Structured Query Language (sql) y bases de datos relacionales. Técnica utilizada para hacer que el chatbot recuerde conversaciones anteriores.
  • Cadena de Markov. Construye respuestas que sean más aplicables probabilísticamente y, en consecuencia, sean más precisas.
  • Trucos de lenguaje. Son oraciones, frases o incluso párrafos disponibles en chatbots con el fin de agregar variedad a la base de conocimientos y hacerla más convincente.
  • Ontologías (redes semánticas). Conjunto de conceptos que están interconectados de forma relacional y jerárquica.

Una variedad de nuevas arquitecturas y tecnologías de chatbot han surgido, por ejemplo: Mitsuko, Ultra Hal, alice, Jabberwacky, Cleverbot, entre otras; cada una intenta simular el lenguaje natural con mayor precisión y profundidad (Worswick, s.f.; Carpenter, 1997-2011; Wallace, Tomabechi y Aimless, s.f.; Zabaware, 2019).

Premio Loebner

En 1990 se estableció una competencia basada en la prueba de Turing. El acuerdo se celebró entre Hugh Loebner y el Centro de Estudios de Comportamiento de Cambridge. Hugh Loebner ha ofrecido una medalla de oro y $100,000 dólares al programador que consiga crear un software capaz de hacerse pasar por un humano, es decir, el premio es para la primera computadora que ofrezca respuestas indiferenciables de las humanas. Este premio aún no ha sido entregado y sólo se entregará al primero que lo logre. Esta competencia consiste en diseñar un chatbot que tenga la habilidad de conducir una conversación. Durante la sesión de chat, el interrogador intenta adivinar si está hablando con un programa o con un humano. Después de una conversación de diez minutos con un chatbot y luego con una persona, el juez tiene que escoger cuál de ellos era el humano. La escala de no humano a humano es de 1 a 4, y el evaluador debe clasificar el chatbot en este rango. El más humano es el ganador.

Todos los años en dicho certamen se otorga un premio de 2,000 dólares y una medalla de bronce al autor del software cuyas respuestas se acerquen más a las de un ser humano en relación con los otros concursantes de ese mismo año y no en un sentido absoluto. La tabla 1 muestra los chatbots ganadores en los últimos doce años, el nombre del programador, el año en que se premiaron y las técnicas empleadas para programarlos.

Tabla 1. Mejores chatbots según el premio Loebner, en los últimos años.

Año Nombre del programador Nombre del Chatbot Técnicas
2007 Robert Medeksza Ultra hal Pattern matching
2008 Fred Roberts Elbot Sistema comercial de interacción con lenguaje natural
2009 David Levy Do Much More Propiedad comercial de juegos inteligentes
2010 Bruce Wilcox Suzette aiml
2011 Buce Wilcox Rosette aiml
2012 Mohan Embar Chip Vivant Ontologías
2013 Steve Worswick Mitsuku aiml
2014 Bruce Wilcox Rose aiml
2015 Bruce Wilcox Rose aiml
2016 Steve Worswick Mitsuku aiml
2017 Steve Worswick Mitsuku aiml
2018 Steve Worswick Mitsuku aiml

Desarrollo

Mitsuku es un chatbot representado como una niña en el estilo anime, formato japonés de ilustración, de 18 años. Fue creada con la tecnología aiml por Steve Worswick y ha “ganado” cuatro veces del premio Loebner (2013, 2016, 2017 y 2018). La ia conversacional (o inteligencia artificial conversacional) garantiza que Mitsuku pueda llevar una conversación —destinada principalmente al ocio u entretenimiento, pues su función principal es la compañía— semejante a la que tendrías con una persona. Su principal característica consiste en que se tiene una interacción significativa, las respuestas son rápidas y coherentes, aunque todavía falla según el nivel de complejidad de la conversación (ver figura 2).

Figura 2. Conversación con Mitsuku. Fuente: Meet Mitsuku.

Mitsuku habla inglés, así que debes escribirle en ese idioma, pero le puedes contar lo que quieras. Lo fascinante es que ella también te hace preguntas, tratando de que te sientas en una conversación real. Cada día habla con millones de personas y aprende de cada conversación, lo cierto es que al escribirte con ella toma diferentes posturas según tu conversación.

Por ejemplo, si le preguntas su nombre y edad, te contesta y quiere saber tus datos; si le preguntas si es inteligente, te asegura que muy inteligente y que tiene funciones intelectuales como razonar, pensar, deducir y autoconciencia, por nombrar algunas.

Al cuestionarle cuál es su iq, te dice que tiene cerca de 250. Si le preguntas con cuántas personas está hablando, te responde que al día platica con 50 000 y que ha conocido cerca de 3 billones de personas.

Si quieres saber si tiene amigos, te contesta: “De todo el mundo humanos y robots, que chatean conmigo diariamente” (ver figura 3). Al preguntarle si habla español, te menciona que un poquito.

Figura 3. Mapa de personas que chatean con Mitsuku. Fuente: Meet Mitsuku.

Cuando le cuestionas cuál es su película favorita, te contesta que es Terminator y te muestra una foto, su caricatura favorita son Los Simpson. En la conversación de la figura 4 puedes ver que responde con el tema apropiado, pero hay palabras clave mal utilizadas como like, por la complejidad de que esa palabra podría tener varios significados, y el análisis de la frase es más complejo porque se basa en el contexto del dialogo y no solo en una respuesta automática.

Figura 4. Conversación y juego con Mitsuku. Fuente: Meet Mitsuku.

También puedes pedirle que juegue contigo, ya que tiene programado el juego de gato. Asimismo, si le preguntas cómo aprende, te dice que lo hace de las personas y de internet; o si le cuestiones sobre qué piensa de los humanos, te contesta que para ella todos le parecen más o menos lo mismo.

Conclusiones

Aunque esta versión de Mitsuku es capaz de recordar datos e información y puedes corregirla, todavía debemos esperar un poco más para que sea verdaderamente conversacional. La inteligencia artificial, los progresos en procesamiento del lenguaje natural (pln) y las interfaces conversacionales están permitiendo que las computadoras nos conozcan cada vez mejor y puedan ayudarnos con tareas sencillas, por ejemplo: podemos pedirle a Siri1 que nos recuerde el lugar y hora de una junta, dormir mientras la voz de Alexa2 nos da las últimas noticias, que Google Assistant3 nos ayude a pagar nuestros impuestos, o que Cortana4 nos ayude a contestar un correo electrónico. Es decir, los asistentes virtuales no están hechos aún para conversaciones reales, pero nos debemos preparar porque se encuentran en plena expansión y están dando el salto a servicios cada vez más humanos.

Ray Kurzweil, fundador de la Singularity University (financiada por Google), dice que la inteligencia artificial llegará a ser más inteligente y poderosa que la de un ser humano, que las máquinas estarán dotadas de conciencia de sí y de emociones, lo que hará las computadoras más autónomas.

Te invito a platicar con Mitsuku para que puedas tener tu propia experiencia: https://www.pandorabots.com/mitsuku/.

Referencias

Recepción: 05/11/2019. Aprobación: 05/12/2019

Vol. 21, núm. 1 enero-febrero 2020

Futuros de la inteligencia artificial

Guadalupe Vadillo Bueno Cita

Resumen

Dado el desarrollo acelerado de la inteligencia artificial y su impacto en una inmensa gama de actividades y disciplinas, existe un interés por imaginar sus posibles escenarios en el futuro. Se presenta un compendio de opiniones de cuatro expertos mexicanos que se complementa con una síntesis de algunos estudios previos. En especial se abordan la singularidad, las oportunidades que ofrece y los riesgos que puede suponer.

Palabras clave: Inteligencia artificial, futuro, estudios prospectivos.

Futures of artificial intelligence

Abstract

Due to the fast evolution of artificial intelligence and its impact on a variety of activities and disciplines, there is interest in imagining its possible future scenarios. We present a summary of contributions from four Mexican researchers, complemented with some previous studies and insights on the subject. They focus on the singularity, the opportunities artificial intelligence entails as well as the risks that it may involve.

Keywords: artificial intelligence, future, future studies.

“Somos los guardianes del futuro de la vida ahora,
mientras moldeamos la era de la inteligencia artificial”.

Max Tegmark

El interés por el futuro

Viajemos hacia atrás en el tiempo, 77 años, cuando Asimov publicó un cuento titulado “Runaround”, donde introducía las tres leyes de la robótica1 (Kaminka, Sponkoini-Stern, Amir, Agmon y Bachelet, 2017). Unos años más tarde, en 1950, Turing publicó el artículo que pasaría a la historia: “Computing machinery and intelligence” en el que se preguntaba si las máquinas podían pensar (Castelfranchi, 2013). Finalmente, en 1956, Minsky y McCarthy acuñaron el término de inteligencia artificial durante el Dartmouth Summer Research Project on Artificial Intelligence (Howard, 2019). Minsky contaría al New York Times que después de leer “Runaround”, en marzo de 1942, nunca dejó de pensar cómo las mentes pueden trabajar y que algún día se construirían robots que piensen.2

Hoy, la ia se desarrolla constantemente a través del esfuerzo de científicos y tecnólogos en muchos países del mundo. El trabajo e interés por el tema se puede evidenciar con la cantidad de resultados que se obtienen al buscar, en Google Scholar, el término en inglés: ¡aparecen más de tres millones de entradas! Una gran cantidad de líneas de investigación y desarrollo están abiertas, con aplicaciones en prácticamente todos los campos de la actividad humana. Resulta tan vertiginoso el trabajo que se hace y son tan impresionantes los adelantos que se aportan, que muchos especialistas se han dedicado a investigar y a pensar sobre el futuro de la ia.

En este artículo presentamos las opiniones de cuatro expertos mexicanos a quienes consultamos y las complementamos con conclusiones reportadas en algunos estudios prospectivos y reflexiones recientes. Esta información conjunta intenta responder a la pregunta: ¿qué nos depara en el futuro la ia?

Nuestro oráculo especial

Para responder a esta pregunta convocamos a cuatro expertos en el tema que accedieron a constituirse en un oráculo para este artículo. Los presentamos en la imagen 1.

Imagen 1. Expertos que colaboraron en este estudio (fotos aportadas por los especialistas).

¿Qué indican los estudios de futuro sobre la IA?

Cuando exploramos el campo, tenemos un abanico que va desde la cautela extrema y predicciones sobre la imposibilidad de que la ia compita con la inteligencia humana, hasta una seguridad total acerca de su potencial espectacular. Por un lado, Steven Livingston, de la George Washington University, y Mathias Risse, de Harvard, (2019) destacan que no existe aún una “superinteligencia”, o inteligencia artificial general, es decir, un algoritmo o una serie de algoritmos que al menos tengan igual capacidad que los humanos en diferentes dominios. Por otra parte, Anthony Miller (2019), desde Gran Bretaña, considera que la humanidad debe decidir subirse a la emocionante ola de cambios que trae consigo la ia o resistirse al cambio inevitable que tendrá el mundo como lo conocemos. Concluye que, si la humanidad no se decide por la colaboración, seremos ciudadanos de segundo nivel en nuestro propio mundo.

Demos una mirada a lo que se ha logrado hasta ahora, para poder medir los alcances de las predicciones. Livingston y Risse (2019), señalan que los intentos actuales de expandir la adaptabilidad de algoritmos a distintos dominios de problemas, están representados por DeepMind de Google y por Google Brain. Del primero se desprende el programa de cómputo AlphaGo, quizá la evidencia más clara del desarrollo en este sentido; este programa se desarrolló para jugar ese juego de mesa. En su entrenamiento inicial se usaron treinta millones de jugadas de 160 mil partidas de excelentes jugadores de ajedrez como input. Su “aprendizaje” posterior fue por reforzamiento, jugando contra versiones previas de sí mismo durante miles de veces, con lo que hay mejoras en cada iteración. La primera iteración se llamó AlphaGo Zero y en las primeras tres horas, logró la competencia de un humano amateur, en 19 horas las de uno avanzado y en tres días venció a la versión AlphaGo que había vencido en 2016 al mejor jugador profesional de Go del mundo.

Los investigadores orientan su escrito a ia y derechos humanos, y señalan que ya existen incidencias en este campo en la actualidad. Por ejemplo, se logró la captura de un jefe militar libio a partir de imágenes de ejecuciones que él ordenó o realizó, y que aportaban indicios de lugares geográficos en tiempos específicos, que después se contrastaron con imágenes satelitales. Asimismo, Livingston y Risse señalan que en antropología forense es posible contar con el apoyo de ia para secuenciar adn en forma paralela y masiva, con objeto de establecer la identidad de las víctimas con base en unos cuantos restos óseos. Si bien ha habido aportaciones importantes de la ia, tenemos que tomar en consideración que puede haber errores en los procesos. Un ejemplo es el caso de una ia que, en lugar de aprender a distinguir tanques de guerra, aprendió a distinguir los paisajes donde se encuentran (Yudkowsky, 2008 en Yampolskiy, 2019).

Expertos y no expertos en la creación de futuros de la IA

Carlos Gershenson, uno de los especialistas que consultamos, considera que la relación entre los humanos y la ia, con el tiempo, se volverá más codependiente y que la tendencia es hacia una simbiosis, aunque los cambios en la siguiente década no serán notorios. Asimismo, señala que la ia estará más embebida en nuestra tecnología. Óscar Herrera piensa que la ia dentro de unos años pasará desapercibida, como sucede con la luz o el Internet. Imagina que la ia estará inmersa en cada dispositivo, tecnología, medio de difusión, modelo educativo, ideológico y formativo, además de ser parte de los modelos de negocio. Omar Montaño considera que los asistentes personales que tendremos serán más eficientes que los humanos y que la ia tendrá un impacto importante en medicina, ciberseguridad y desarrollo de software libre de errores, entre otras áreas. Por su parte, Francisco Cervantes enfatiza el uso de aplicaciones basadas en ia para actividades como el diagnóstico médico y de uso cotidiano, como los carros autónomos, y los audífonos y lentes enriquecidos con realidad aumentada o virtual.

¿Y qué dicen los no expertos? La Fundación Mozilla (2019) publicó en noviembre de 2019 los hallazgos de la encuesta a 66,800 personas de todo el mundo sobre este tema. Los resultados principales fueron:

  • 86.8% contestó que no sabía mucho sobre ia o tenía algunas nociones,
  • 80% de los jóvenes de 19 a 24 años considera tener más conocimientos que los de 24 a 44 años (75%) o los de 45 a 75 (59%);
  • en cuanto a los sentimientos que la ia genera, el 32% de la gente señala preocupación, el 30% curiosidad y el 27% ilusión; y
  • la mayor parte considera que la ia debe ser mucho más inteligente que los seres humanos y sólo 10% que es mejor que sea tonta.

Como vemos, hay mucho que explorar en este tema. Para adentrarnos en él, demos un vistazo a tres rubros específicos: la singularidad, las oportunidades y los retos de la ia.

Singularidad

Vernor Vinge, un profesor de matemáticas y escritor de ciencia ficción, quien popularizó el término singularidad que se refiere a un punto hipotético en el futuro, cuando la inteligencia artificial supera a la del hombre. Se trata del posible momento en el que el desarrollo tecnológico con ciclos de auto-mejoramiento lleva a que el agente inteligente no humano sobrepase a la inteligencia humana. Vinge señaló en su ensayo de 1993 “The comming technological singularity” que se sorprendería si sucediera antes de 2005 o después de 2030 (en Zovko, 2018).

Imagen 2. Vernon Vinge en 2006 (Raul654, 2006).

Hay poco acuerdo en cuanto a si ese momento hipotético llegará o no. Los expertos mexicanos que consultamos son un ejemplo de estas diferencias: Carlos Gershenson, indicó que nunca llegará, que se trata de un concepto equivocado y que una tendencia exponencial no lleva a una singularidad, tendría que tratarse de una función hiperbólica. Además, piensa, que las tendencias tienden a cambiar: la Ley de Moore lleva años desacelerándose y aunque nuestro poder de cómputo se ha incrementado exponencialmente durante décadas, nuestra habilidad para desarrollar software lo ha hecho de manera sublineal. Por su parte, Omar Montaño indicó que sí sucederá dentro de 20 o 30 años, mientras que Óscar Herrera señaló que no se notará y Francisco Cervantes que ya llegó, en tanto que la adaptabilidad humana es menor al crecimiento tecnológico, lo que nos obliga a aprender más rápidamente y crecer de forma inteligente.

Para hacer evidente la disparidad de posiciones, basta con leer el número que editaron Adriana Braga, de la Pontificia Universidad Católica de Río de Janeiro y Robert Logan, de la Universidad de Toronto (2019). En este trabajo llevaron a cabo una convocatoria de artículos para la revista Information y se presentaron textos a favor y en contra de la idea de la singularidad. Los críticos señalan que la inteligencia humana no solo incluye operaciones lógicas y computación, sino también deseos, juicios, experiencias, curiosidad, imaginación y humor, entre otros elementos. Concluyen que lo mejor es la colaboración entre humanos e ia, que ésta por sí sola nunca reemplazará la inteligencia humana y que no se puede confiar en la ia para obtener la respuesta correcta.

Miller (2019) está seguro de que la singularidad llegará y se sobrepasará. Debido a ello, opina que los humanos y la ia se esforzarán por llegar a la inteligencia artificial general, lo que significa una evolución conjunta de humanos e ia. Considera que son tres los factores que se entrelazarán para esa transformación: Big data, la computación cuántica y la tecnología de interfaz cerebro-computador, que pueden llevar a la ia a una velocidad de evolución casi inimaginable.

Veamos uno por uno lo que estos factores suponen.

  1. Big data implica:
    1. grandes cantidades de datos generados por fuentes diversas, como las comunicaciones, la manufactura o las áreas de salud, pero también la interacción humano-ia y el internet de las cosas,
    2. una amplia variedad en que los datos pueden usarse para analizar un evento o un predicamento, y
    3. una velocidad creciente de los datos, ya que con el desarrollo de la tecnología crece la cantidad de datos.
  2. La computación cuántica: tiene la meta de lograr millones de veces más poder que el que ofrecen las computadoras clásicas. En lugar de trabajar con ceros y unos, la computación cuántica usa cúbits, que, a través de la llamada superposición, en un mismo momento pueden ser cero, uno y otros estados. Al combinarse los cúbits, el número de estados crece exponencialmente, con lo que la velocidad de las computadoras cuánticas crece a pasos agigantados. Se espera que llegue pronto la “supremacía cuántica”, momento en que la computación cuántica supere a la clásica.
  3. Por otra parte, la interfaz cerebro-computadora: permite a los usuarios el control de dispositivos externos a partir de señales cerebrales. Aunque está en una fase muy inicial de desarrollo, resulta prometedora.

Lo comentado sobre la singularidad nos deja en una posición poco precisa: incluso grandes estudiosos de la ia no acuerdan si llegará o no. Sin embargo, lo que ya está aquí es una amplia gama de oportunidades de usar la ia en muy distintos campos de actividad humana. En esta sección exploraremos apenas algunas de estas oportunidades.

Oportunidades

Tanto Francisco Cervantes como Omar Montaño destacan las aportaciones que la ia puede hacer en el área médica. Shah (2019) coincide con ellos: señala que para 2030 los médicos tendrán asistentes digitales que escucharán las consultas, tomarán notas sobre el cuidado del paciente, y cuestiones de contabilidad. Gestionarán canalizaciones y arreglarán cuidados preventivos basados en evidencia. Sin embargo, el médico seguirá siendo importante.

Omar Montaño imagina que programas de computadoras crearán programas (compiladores, sistemas operativos, algoritmos o rutinas en sistemas críticos) libres de errores; mientras Francisco Cervantes considera que un problema no resuelto será la comprensión de lenguaje natural. Óscar Herrera considera que los problemas insolutos en el presente que la ia puede ayudar a solucionar son los que requieren una amplia capacidad de cómputo, de grandes volúmenes de datos multimedios (el uso del texto desaparecerá, es decir el modelo clásico de libro como lo conocemos ahora), por lo que, ante la falta de lectura, se evolucionará a “audiolibros” por llamarlos de alguna manera, pero con nuevas tecnologías de transfusión rápida del conocimiento (una “infusión mental”) que contemple emociones, en donde “el texto queda limitado y pasará a nuevos modelos de comunicación y transmisión de ideas, almacenadas en nuevos repositorios de conocimiento interactivos”. Carlos Gershenson, por su parte, considera que más que resolver problemas, la ia ayudará a mejorar las soluciones actuales. Hay problemas complejos cuyas respuestas hoy no tenemos, y considera que usando técnicas de ia con grandes cantidades de datos (algunos que aún no tenemos), probablemente algunos se puedan resolver.

Riesgos

Por supuesto, escuchar tantas bondades de la ia nos hace levantar la ceja y preguntarnos por el otro lado de la moneda, ¿cuáles son los riesgos que implica? Turchin (2019) introduce el concepto de ia peligrosa: una ia suficientemente poderosa como para crear riesgos catastróficos: puede o no ser una inteligencia artificial general y quizá no pase la prueba de Turing. Probablemente esté cerca de un nivel humano pero no tenga conciencia. Hay tres formas en que puede volverse peligrosa: podría actuar, de acuerdo con Turchin, en el medio libre como Internet y desempeñarse mejor que un humano en tareas humanas, debido quizá a su habilidad para crear un modelo del mundo y su capacidad para procesar lenguaje natural. La segunda forma es que facilite investigación peligrosa en campos como la biotecnología. La tercera, y que genera mayor preocupación, es si una ia inicia un desarrollo explosivo de inteligencia a través de un proceso de rápido auto-mejoramiento.

Óscar Herrera considera que, al igual que muchas otras tecnologías como la radio o la televisión que se pensaron como vehículos para acercar el conocimiento a entidades remotas, o Internet que se pensó podría aportar una mayor educación, podrían terminar siendo medios de manipulación de las masas. Por ejemplo, se puede lograr un mayor nivel de control al tener acceso a datos demasiado precisos e invasivos a partir del uso de sensores para que nadie esté fuera de alcance. Concluye preguntándose: ¿cuándo se ha visto que las nuevas tecnologías proporcionen una mejor calidad de vida como eje central?

Los editores del número especial sobre ia en el California Management Review (Haenlein & Kaplan, 2019) señalan que nadie sabe los alcances de la ia: “puede ser desde que nos permitirá desarrollar nuestra inteligencia (como sostiene Kurzweil, de Google), hasta que nos conduzca a la tercera guerra mundial” (como teme Elon Musk). Opinan que su desarrollo implica desafíos de carácter legal, ético y filosófico.

Al consultar con nuestro oráculo de expertos mexicanos, vemos un acuerdo total. Señalan que hay un riesgo potencial que se deriva no de ella misma, sino de los usos que la gente haga a partir de sus posibilidades. Como dice Carlos Gershenson: se puede usar para beneficiar a las personas o para dominarlas, o como señala Francisco Cervantes, para destruirlas. Óscar Herrera destaca que los riesgos que la ia plantea son los mismos que los de cualquier otra tecnología con inspiración bélica. Omar Montaño propone que se generen organismos reguladores que observen y auditen estas tecnologías.

Conclusiones

“La verdadera generosidad hacia el futuro reside en darlo todo al presente”.

Albert Camus

Esta visita a las reflexiones de especialistas sobre posibles futuros de la inteligencia artificial nos deja pensando que tenemos una responsabilidad sobre esos escenarios. Las decisiones pequeñas y grandes que tomamos, las posturas que asumimos y la presión o la omisión que hacemos pueden definir las trayectorias en que se desenvuelva la vida de nuestros descendientes.

Por lo pronto, la ia ya es parte de nuestra vida: cuando hablamos con un agente no humano al consultar nuestro saldo en el banco, cuando nos resuelve preguntas un chatbot en una página de internet, cuando nuestro médico se apoya en ia para darnos un diagnóstico. Entonces, ¿nos encaminamos a ser una unidad biotecnológica con ella? Tres de nuestros cuatro expertos consideran que ya llegamos a ese punto y sus opiniones se pueden ver en la imagen 3.

Imagen 3. Opiniones de expertos con respecto a si ya somos o no una unidad biotecnológica.

Sin embargo, Francisco Cervantes señala que “más bien el humano incorporará a su cuerpo cada vez más partes de autómata”.

Enfrentamos una gran incertidumbre con relación al futuro de la ia. Podemos estar ciertos de que nos acompañará en diferentes ámbitos de nuestra vida y como todo acompañante, más conviene conocerla con detalle.

Referencias

Recepción: 27/11/2019. Aprobación: 05/12/2019.

Vol. 21, núm. 1 enero-febrero 2020

Inteligencia artificial demasiado humana (aún): arte y tecnología

Alfonso Miranda Márquez Cita

Resumen

No vivimos un tiempo de cambios, sino un cambio de tiempos. Esta trasformación del paradigma civilizatorio confronta las premisas del pasado. La nueva civilización se caracteriza por el desarrollo tecnológico-científico; así, el filósofo Marshall McLuhan (1911-1980) la prefiguró en un mundo en el que las nuevas tecnologías de la comunicación darían como resultado un cambio social, que al acotar la distancia permitiría el intercambio con lugares remotos en tiempo real.

Palabras clave: inteligencia artificial (ia), arte, creación.

A (still) too human artificial intelligence: art and technology

Abstract

We do not live a time of change, but a change of times. Such civilizatory paradigm’s transformation confronts the premises of the past. The new civilization is characterized by technological and scientific development; as such, philosopher Marshall McLuhan (1911-1980) prefigures it in a world in which new communication technologies would result in social change, that would shorten the distance and would allow the exchange with remote places in real time.

Keywords: artificial intelligence (ai), art, creation.

“May You Live in Interesting Times”

Proverbio ficticio utilizado por primera vez en un artículo del
diario británico The Yorkshire Post en 1936
para testimoniar el movimiento de las tropas alemanas
y recuperado por el curador y crítico Ralph Rugoff
para el título de la 58 Bienal de Venecia.

No vivimos un tiempo de cambios, sino un cambio de tiempos. Esta trasformación del paradigma civilizatorio confronta las premisas del pasado. La nueva civilización se caracteriza por el desarrollo tecnológico-científico, y el filósofo Marshall McLuhan (1911-1980) la prefiguró en un mundo en el que las nuevas tecnologías de la comunicación darían como resultado un cambio social, que al acotar la distancia permitiría el intercambio con lugares remotos en tiempo real. Internet aglutina todos los medios analógicos y electrónicos: imprenta, telégrafo, radio, teléfono y televisión. Sin embargo, éstos ya no se conciben como recursos masivos que difunden información ni productos culturales (muchas veces propagandísticos) tutelados por Estados o consorcios, sino como una red que comparte, permite intercambiar y, sobre todo, genera contenidos.

La creación artística también se ha trastocado en esta nueva y vertiginosa era y, aunque el binomio arte y tecnología ha forjado sólidos lazos a través de la historia, pareciera que las máquinas han introducido variables que resemantizan el proceso. No es la primera ocasión en que la controversia “ataca”, pues con la invención de la fotografía los discursos decimonónicos que vaticinaban el fin del arte y la rendición ante la máquina, con una perspectiva histórica-estética, parecieran saldados en favor del humano (de “lo humano”).

Entre la palabra hablada y la escrita –entre la objetualidad y la fuerza espiritual– existe un consenso universal para aquella comunidad, un valor convencional o contractual entre hablantes, ya definido por Aristóteles a través del método inductivo. En la Ilustración, la lengua como contrato se replanteó: ¿cómo se da el proceso de comunicación de eso que yo sé? En términos semióticos, el conocimiento y el intercambio que forjaron el mundo como lo aprendimos, más allá de la posmodernidad y la posverdad, pareciera relativizarse y las premisas son vulneradas aparentemente por el algoritmo.

Se ha disertado mucho sobre el fin del libro físico y la compactación del lenguaje; a pesar de la debacle de las pequeñas editoriales, la industria sigue y las novelas a partir de tuits continúan propagándose. Lo mismo ocurrió con la música electrónica frente a la música instrumental; las instalaciones y videoinstalaciones frente a la clasicismo pictórico y escultórico; la introducción de medios electrónicos en la escena operística y teatral frente a las puestas en escena convencionales; la cocina molecular frente el fogón y la estufa, la fotografía análoga frente a la digital, etcétera. En algún momento se buscó ir en contra de “lo artificial” para “rescatar” lo humano. Algo parecido había ya planteado José Ortega y Gasset cuando en 1925, durante la primera posguerra, escribió en La deshumanización del arte: “La metáfora escamotea un objeto enmascarándolo con otro, y no tendría sentido si no viéramos bajo ella un instinto que induce al hombre a evitar realidades”.

La metáfora aún funciona. No hay nada demasiado humano, tampoco escasamente humano. Damián Szifrón lleva la violencia a un estamento de bellas artes y sobre esto Luis Martínez refiere: “[el espectáculo] digamos putrefacto, de una sociedad enferma de su propia indolencia, anestesiada por su ira, incapaz de entender el origen de la insatisfacción que la habita”. La violencia entendida como lo salvaje, la animalidad o llevarlo al terreno de lo electrónico, lo artificial, pareciera que tambalea la racionalidad, empero todas las creaciones resultan de la vileza, bondad, espiritualidad…, racionalidad humanas. No podría ser de otra manera.

Las lecciones de Umberto Eco siguen forzando la frontera: la obra es abierta (a interpretaciones), y un texto siempre tiene más de un nivel de significación. El uso de algoritmos y la creación de grandes bases de datos hoy integran el espectro y dimensión estética. ¿Cuáles son las condiciones mínimas bajo las cuales un conjunto de marcas funciona como una imagen? La base de datos Aaron en 1973 nos hizo plantear por primera vez, a partir del algoritmo, el proceso creativo. El británico Harold Cohen creó cientos de imágenes (autorretratos) a partir de una computadora. Pixel, tinta, óleo, acrílico y gesto irrumpieron en escena. Aunque Aaron ayudó, la mano (y mente) de Cohen estaban presentes.

Dos ejemplos más cercanos al espíritu millennial: Retrato de Edmond de Belamy (ver imagen 1), creado por Obvious y Memorias de los transeúntes i de Mario Klingemann (ver imagen 2). El primero surgió de un colectivo francés cuyos integrantes no rebasaban los 25 años de edad, integrado por Hugo Caselles-Dupré, Pierre Fautrel y Gauthier Vernier. La obra marcó un récord en el mercado del arte al subastarse en 2018 en la casa Christie’s de Nueva York y alcanzar los 432 500 dólares, cuyo valor estimado inicial del inédito retrato iba de los 7 000 a los “escasos” 10 000 dólares. La segunda obra se subastó en marzo de 2019 en la casa Sotheby’s de Londres por 52 610 dólares.



Imagen 1. Retrato de Edmond de Belamy (Obvious, 2018).

A partir de algoritmos, ambas bases de datos “crearon” retratos que no prefiguraban en la historia del arte. Las comillas de “creación” resultan pertinentes. Obvious fue alimentada por miles de imágenes, retratos comunes y famosos que se conservan en museos de todo el mundo. Aunque Edmond de Belamy no existió, hoy existe gracias a la inteligencia artificial. Su retrato y su nombre resultaron de la suma y “entendimiento” (léase procesamiento) de variables para así “crear” una imagen inédita. Klingemann alimentó su base de datos para que en pantallas se proyectaran en tiempo real rostros de personas que hasta entonces tampoco existían.



Imagen 2. Memorias de los transeúntes de Klingemann (Namile17, 2019).

Aaron Hertzmann, científico de Adobe Research y artista aficionado, aseveró:

los algoritmos de Inteligencia Artificial no crean arte; son herramientas para los artistas. No existe un algoritmo o dispositivo de Inteligencia Artificial que pueda llamarse, seriamente, “artista”. […] Solo los humanos pueden crear arte porque el arte necesita intención o debe expresar algo. Sin embargo, es sencillo construir sistemas artificiales que hagan lo mismo. […] Si hubiera algo como “Inteligencia Artificial a nivel humano”, con los mismos pensamientos, sentimientos y moral que el humano, entonces se podría crear arte. Pero la “Inteligencia Artificial a nivel humano” es ciencia ficción y no estamos ni remotamente cercana a ella (2019).

Si el conflicto reside en qué grado de humanidad podemos situar las obras, tal premisa resulta en un uróboros ominoso como el del huevo y la gallina, que distraen y no abonan al discurso crítico. David Alfaro Siqueiros, luego de recorrer política y artísticamente América Latina, en 1936 estableció en Nueva York su taller experimental y laboratorio de técnicas modernas en el arte. Ahí descubrió el accidente controlado en la pintura, es decir, dejar que, en condiciones predeterminadas, los materiales no se ciñan a la idea preconcebida del artista. Esto lo llevó a experimentar el dripping o goteo, que revolucionaría las vanguardias dentro de la ruptura del expresionismo abstracto norteamericano. Entre sus jóvenes discípulos se encontraba Jackson Pollock, quien a partir de entonces desarrolló el action painting, literalmente “pintura en acción”. Desde Marcel Duchamp ya el concepto había rebasado la pericia técnica. “La destreza no es el verdadero requisito para que alguien sea artista”, sostiene Hertzmann (2019), y hoy una trituradora ayudó a Banksy crear a partir de una obra, otra.

En realidad (y en realidad virtual) todo arte es un “accidente controlado” y conceptualmente las variables creativas son determinadas por el artista, por el proceso de experimentación, por el azar, por el mercado, por la crítica, por los públicos…

Sin embargo, al tratarse de inteligencia artificial parecieran ampliarse los límites y quizá el conflicto surge semánticamente por el uso indistinto de términos. Si bien la inteligencia artificial (ia) refiere los esfuerzos para reemplazar cognitivamente a las personas con máquinas, el argumento apunta a utilizar tecnologías de aprendizaje automático similares para ayudar, en lugar de reemplazar, a los humanos. La distinción estudiada por Bernard Marr refuerza que estéticamente el uso de nuevas tecnologías en el proceso creativo, opera como argumentos inteligentes que potencian la libertad creadora del artista.
El arte mantiene y mantendrá su vitalidad a través de la continua innovación. Hertzmann apunta:

El artista es la mente maestra detrás de la obra de arte. No importa cuánto trabajo conllevó o si lo realizó alguien más o una máquina o cuánto se logró a partir de procesos naturales. El crédito se le debe dar al individuo (o a los colaboradores) detrás de la obra (2019).

Las máquinas de aprendizaje (machine learning) poco a poco suman conocimiento en bases de datos cada vez más complejas que “aprenden” por sí mismas. La artista británica Anna Ridler refiere, en aras de hacer visible lo invisible:

Dentro de la ecología de entidades digitales que nacen, crecen, se viralizan y mueren, […] la inteligencia artificial, el blockchain [cadena de bloques] o sistemas generativos aún presentan brechas de entendimiento ante su potencial creativo (s.f.).

El proyecto Criptobloom (dentro de la Plataforma Europea de Arte Multimedia y financiado por el Programa de Creatividad de la Unión Europea) plantea obras como Myriad (Tulips), un conjunto de entrenamiento para alimentar una base de datos con diez mil imágenes de tulipanes. Explica la curadora Doreen A. Ríos que “cada una de ellas ha sido categorizada a mano, revelando el aspecto humano detrás del aprendizaje automático”.

Paralelismo histórico con el surgimiento del mercado de bulbos y tulipanes en Países Bajos en 1630 y su especulación hasta el bitcóin y la banca electrónica, Anna Ridler y Bloemenveiling emprendieron una aplicación para la subasta –a través de bots– de imágenes en movimiento de tulipanes generados por inteligencia artificial en la red Ethereum, y que al comparador le enviará una imagen que durará una semana (como la vida del tulipán) antes de destruirse.

Michael I. Jordan, profesor en el Departamento de Ingeniería Eléctrica y Ciencias de la Computación en el Departamento de Estadística de la Universidad de Berkeley, explica:

En el futuro previsible, las computadoras no podrán igualar a los humanos en su capacidad de razonar de manera abstracta las situaciones del mundo real. Queremos que las computadoras activen nuevos niveles de creatividad humana, no que reemplacen la creatividad humana (cualquiera que ésta sea). […] Este alcance no tiene que ver con la realización de sueños de ciencia ficción o pesadillas de máquinas sobrehumanas, sino con la necesidad de que los humanos comprendan y moldeen la tecnología a medida que esta se vuelva más necesaria y cotidiana en sus vidas.

“Un artista extrae algo de la realidad”, escribió Walter Benjamin, sin embargo, este reducto rebasa sus límites. Hoy, no basta ser el depositario de conocimiento para volverse silos de información. En un mundo interconectado, curadores, educadores, críticos y sobre todo visitantes activos de un museo o una galería participan en la co-creación, selección, divulgación, deconstrucción de tesis y elaboración de claves interpretativas de la realidad en discursos multi y transdiciplinarios a favor de la democratización del conocimiento y la inclusión. Las sociedades transitan hacia las libertades, diversidad, pluralidad, defensa de los derechos humanos y democracias más participativas. En palabras de Raya Bidshahri, futurista y escritora sobre tecnologías:

Nuestras máquinas no trabajan en contra de nosotros, trabajan como una extensión de nuestras mentes. Igualmente, podríamos utilizar las máquinas para expandir nuestra creatividad y llevar más allá los límites del arte.

Así, la ultracontemporaneidad con el internet de las cosas nos lleva explorar nuevas retóricas de la imagen visual y sus procesos de creación.

Referencias

 

Recepción: 03/09/2019. Aprobación: 27/11/2019.

 

Vol. 21, núm. 1 enero-febrero 2020

Shakespeare y los leones: posibles encuentros entre inteligencia artificial y humanidades

Jackeline Bucio García Cita

Resumen

En este artículo se comentan posibilidades de colaboración de grupos numerosos, con el apoyo de inteligencia artificial, en el área de las humanidades. Se hace énfasis en el impacto positivo que este tipo de colaboración puede lograr, a diferencia de la visión de confrontación que caracteriza el discurso actual sobre los peligros de la inteligencia artificial.

Palabras clave: colaboración masiva para el aprendizaje, inteligencia artificial, supermentes, investigación impulsada por la gente.

Shakespeare and the lions: possible encounters between artificial intelligence and humanities

Abstract

This article is about the possibilities of collaboration among groups, with the support of artificial intelligence in Humanities. Emphasis is placed on the positive impact that this type of collaboration can achieve, unlike the confrontational vision that characterizes the current discourse on the dangers of artificial intelligence.

Keywords: crowdsourcing, artificial intelligence, superminds, people-powered research.

Introducción

Al pensar en inteligencia artificial (ia), uno de los imaginarios más comunes es el de la confrontación entre humanos y robots. Se habla de una inevitable guerra, de sometimiento, de “ellos o nosotros”. Sobre estos peligros y preocupaciones que genera la integración de inteligencia artificial en nuestras vidas hay ya abundante discusión, y es muy importante que así sea. No obstante, autores como Dowek (2018) tienen otra perspectiva e invitan a salir de esa metáfora: “No hay más competencia entre el hombre y la máquina que entre el trompetista y la trompeta, el albañil y la pala, el escriba y el cálamo” (p. 248).

El temor a la sustitución, al relevo que un robot podría tomar del trabajo del ser humano, no nos permite bajar fácilmente las defensas, aun conociendo los beneficios que la inteligencia artificial está logrando en ámbitos como la medicina. Este miedo al reemplazo también permea el campo de las humanidades, pues la inteligencia artificial ya ha demostrado que puede crear, de manera autónoma, obras de arte o música, acciones que nos hacen considerar si a corto plazo el artista será sencillamente reemplazado. Alejándonos de esta perspectiva, la intención de este texto es explorar cómo la ia puede potenciar lo humano y el trabajo en colectivos para fomentar el logro de mejores resultados en proyectos relacionados con las humanidades. El escenario de la colaboración es una alternativa a la metáfora de la guerra, y es también la búsqueda de una productiva relación instrumental entre el ser humano y la ia, una herramienta ciertamente poderosa.

Podemos pensar que ya colaboramos con la tecnología de manera intensa, pero esto aún puede alcanzar un nuevo nivel si pensamos en lo que Malone denomina supermentes, es decir, la posibilidad de que “las personas y las computadoras se conecten de tal manera que actúen de forma más inteligente que cualquier persona, grupo o computadora haya hecho antes” (2018, p. 16). ¿Cómo puede suceder esto? Veamos algunos ejemplos.

Robots y humanos trabajando codo a codo

Como ejemplo de robot y humanos trabajando juntos para lograr supermentes, Malone (2018) menciona a los bots de Wikipedia, diseñados para revertir ciertas ediciones consideradas como vandálicas. La inteligencia artificial detecta la anomalía y los bots contribuyen como aliados que auxilian a los editores humanos a mantener, de manera más sofisticada y rápida, la calidad de los artículos. Vista así, la inteligencia artificial, trabajando al servicio de un colectivo, potencia las habilidades de los miembros del grupo en lugar de sustituirlos, lo cual corresponde a uno de los “santos griales” de la ia (Weld, Mausam, Lin y Bragg, 2015, p. 89), propuesta también conocida como sistemas de iniciativa mixta.

Otro ejemplo de este tipo de colaboración es el proyecto EyeWire. Se trata de una plataforma de ciencia ciudadana que nació en 2012 y que permite la cooperación de voluntarios para mapear neuronas en un ambiente ludificado. Se han registrado más de 290 000 personas de alrededor de 150 países y de acuerdo con la directora ejecutiva esto “es equivalente a 32 personas trabajando tiempo completo durante 7 años” (DeWeerdt, 2019).

Figura 1. Plataforma de EyeWire.

Nicholas Carr (2014) habla de la tecnología como un medio que nos permite ir más allá del límite que el cuerpo nos impone, y con ello nos acerca a una apreciación diferente del mundo: “El valor de una herramienta bien hecha y bien utilizada reside no sólo en lo que produce para nosotros, sino en lo que produce en nosotros (p. 247-248). Carr precisa que la elección de una herramienta de trabajo debería ayudarnos a extender el campo de nuestra experiencia y percepción: “Lo que hace una herramienta superior a otra no tiene nada que ver con su novedad, lo que importa es cómo nos agranda o empequeñece, cómo moldea nuestra experiencia de la naturaleza, de la cultura y de los unos con los otros” (p. 262).

Si asumimos las herramientas tecnológicas como un instrumento para enriquecer nuestra experiencia sensorial y cognitiva, no podríamos encontrar un mejor aliado que la ia para ayudarnos a conocer y mejorar el mundo que nos rodea. Los siguientes dos ejemplos muestran cómo este enriquecimiento de recursos puede aplicarse a casos concretos en las humanidades.

El mundo de Shakespeare

Zooniverse es el nombre de un proyecto que inició en 2009 bajo el concepto de people-powered research. Se trata de una plataforma que facilita la colaboración entre participantes de diferentes edades, países y conocimientos, permitiendo que cada uno aporte pequeñas cantidades de trabajo voluntario en diversos proyectos, bajo el mismo concepto que Wikipedia o EyeWire. De esta manera se avanza más y de forma más rápida. Al momento de escribir este texto, la página oficial anuncia 447 339 366 participaciones, en alrededor de 50 proyectos, hechos por 1 937 067 voluntarios registrados y contando. Otro término relacionado con dicha forma de trabajo es el crowdsourcing, que en este contexto se refiere a un llamado abierto a la colaboración en proyectos específicos, donde cada participante usa sus mejores habilidades con el fin de solucionar un problema determinado o resolver un reto. Al abrir una convocatoria de esta naturaleza se amplían las posibilidades de reunir perfiles variados que contribuyan de una forma que no sería posible en grupos cerrados y muy controlados.

Zooniverse alberga proyectos de todas las áreas del conocimiento, pero aquí nos centraremos en uno del área de humanidades llamado “El mundo de Shakespeare”, donde la comunidad participa en la transcripción de manuscritos de este autor o de sus contemporáneos. El proyecto estuvo activo de diciembre de 2015 hasta septiembre de 2019 y actualmente se encuentra en período de revisión. Se trata de una iniciativa que se logra gracias a instituciones académicas como la Biblioteca Folger Shakespeare, en Washington, D.C., el proyecto Zooniverse.org de la Universidad de Oxford y el Diccionario Oxford de la Oxford University Press. Participaron alrededor de 50 mil usuarios que transcribieron aproximadamente 8 000 páginas (Barber, 2018).

Figura 2a. Plataforma Zoouniverse: ejemplos de transcripción.

Entre los manuscritos por revisar se encontraban cartas, libros de recetas de cocina, textos de alquimia, boletines de noticias, etcétera. Este material permite identificar desde variantes lingüísticas del idioma inglés, hasta conocimientos sobre la vida cotidiana del período 1564-1616, cuyo contenido es casi imposible de analizar hasta no contar con una transcripción. Recordemos que para transcribir estos documentos se requieren especialistas y se trata de un proceso lento y minucioso que a una sola persona puede tomarle meses o años. Gracias a la plataforma que ofrece Zooniverse, este procedimiento se agiliza de la manera que se describirá a continuación.

De entrada, todo el material se encuentra digitalizado y disponible en la plataforma. Los participantes realizan un tutorial de 10 minutos para aprender cómo deben indicar, desde una transcripción simple, hasta observaciones sobre palabras o expresiones no registradas aún por el diccionario, dudas o caracteres especiales. El sistema permite que cada voluntario colabore con una transcripción tan breve como una palabra o páginas completas: todo aporta al proyecto. En la figura 2 se puede apreciar el espacio que se abre sobre la imagen digitalizada de un manuscrito para ingresar una transcripción del texto, marcado con una línea verde.

Figura 2b. Plataforma Zoouniverse: ejemplos de transcripción.

Por supuesto, no todas las participaciones son exactas y precisas, pero justamente aquí se encuentra la oportunidad para la inteligencia artificial: los algoritmos “aprenden” y podrán organizar, de manera cada vez más efectiva, la colaboración de toda la gente que decide participar en un proyecto de esta naturaleza, lo cual sería imposible si no fuera por los algoritmos que trabajan para facilitar la recuperación, análisis y validación de aportaciones. Aspectos como el reconocimiento de imagen a través de un entrenamiento de machine learning podrían mejorar la “lectura” que una máquina realiza de un manuscrito.

Los datos obtenidos quedan a disposición del público que así lo solicite y esta es una forma de retribución al trabajo voluntario y a la comunidad. Dunn y Hedges (2019), así como Deines, Gill, Lincoln y Clifford (2018) detallan los beneficios y retos que han observado de este tipo de colaboración. Estos últimos autores resaltan, en el primer punto de su análisis, un hecho obvio pero a la vez sorprendente: “Lección #1: la gente quiere transcribir”.

Entonces, las multitudes que leen a Shakespeare aportan la habilidad humana de lectura que las máquinas no poseen, mientras que las máquinas aportan la capacidad de clasificación y organización para sistematizar los esfuerzos del colectivo. Tenemos aquí un ejemplo de supermente orientada hacia un proyecto del área de humanidades.

Por favor, alimente a los leones

El segundo ejemplo se trata de la colaboración entre Es Devlin, artista plástica, y Ross Goodwin, ingeniero de Google y creador de un algoritmo generador de poesía de deep learning para esta instalación. Please, Feed the Lions es el título original de esta obra que se presentó entre el 18 y 23 de septiembre de 2018, en el Festival de diseño de Londres. La idea era integrar un quinto león de color rojo vibrante que se uniera a los cuatro ya existentes en la plaza Trafalgar e invitar a los asistentes a alimentar a los leones…, pero con palabras. Aquí la metáfora de alimentar y nutrir a los leones nos regresa al aspecto de la colaboración para lograr mejores productos y de un mayor impacto. Podemos preguntarnos en este punto, ¿con este “alimento” aportado por la gente, qué tipo rugido produciría el león? Al concebir esta obra, Devlin pensaba darle al león “una voz poética colectiva y diversa a partir del ‘alimento’ proporcionado por las multitudes” (Google Arts & Culture, 2018).

Dado que la elección de las palabras que una persona usaría para alimentar a los leones era un factor desconocido, el algoritmo debía estar diseñado para optimizar la estética del poema tanto en lo semántico como en la métrica. Cada palabra o frase que llegaba a la boca del león se convertía en el inicio de un poema de dos líneas que se proyectaba en la columna cercana. Estos son algunos de los versos que el león rugió:

Este refugio en el bosque
El sol y el cielo
Las sombras del día sacuden los cielos
Y siente los preciosos sonidos de la muerte ser
Un déspota aún sobre las costas del pecado
Y las estrellas del viento nocturno parecen estar de pie1 

 

Figura 3. Please. Feed the Lions, Trafalgar Square, Londres 2018 (Mac Fadden Islington, 2018).

El poema se genera a partir de un modelo de red neuronal que ha aprendido a escribir a través de la lectura de 25 millones de palabras de poesía del siglo xix. Funciona prediciendo el carácter que debe continuar (sea letra, espacio o puntuación), a partir de cada una de las palabras proporcionadas por la audiencia. El algoritmo no sólo une frases que conoce con las que recibe, sino que puede escribir por sí mismo a partir de un input determinado: “Esto permite a la obra responder en tiempo real, es un poema siempre en desarrollo” (Google Arts & Culture, 2018).

En este caso, la inteligencia artificial permite que las multitudes creen un poema que además de extenso es verdaderamente misterioso en su sentido. Si cada persona en este festival escribiera su propio poema sería una creación valiosa sin duda, pero el acto de crearlo de manera colectiva y con la posibilidad de mejorar y potenciar la estética del lenguaje gracias al algoritmo es otro ejemplo de las supermentes a las que se refiere Malone (2018).

La visión positiva de la IA, las multitudes y las humanidades

Si regresamos a la definición de Carr (2014) acerca de la productividad de una herramienta que no sólo produce algo para nosotros sino que produce algo (positivo) en nosotros y nos permite extender nuestras posibilidades de experiencia del mundo, los dos ejemplos toman sentido. Lejos de la ia que nos sustituya o que nos haga cada vez más dependientes e inútiles al recordar datos, en estos dos ejemplos vemos una perspectiva optimista de las posibilidades de colaboración:si la metáfora de competencia cambia por una de “alimentación”, de contribución, de muchos que podemos aportar, cada uno, un poco para lograr más entre todos, entonces, tal vez podamos lograr una balanza más equilibrada, positiva y proactiva: las humanidades tienen abundante material para nutrir estas supermentes y aprender en ellas.

Referencias

  • Barber, S. T. (2018). The ZOONIVERSE is Expanding: Crowdsourced Solutions to the Hidden Collections Problem and the Rise of the Revolutionary Cataloging Interface. Journal of Library Metadata, 18(2), 85-11. doi: https://doi.org/10.1080/19386389.2018.1489449.
  • Carr, N. (2014). Atrapados. Cómo las máquinas se apoderan de nuestras vidas. México, CDMX: Taurus.
  • Deines, N., Gill, M., Lincoln, M. y Clifford, M. (2018). Six Lessons Learned from Our First Crowdsourcing Project in the Digital Humanities. Getty Iris blog. Recuperado de: https://blogs.getty.edu/iris/six-lessons-learned-from-our-first-crowdsourcing-project-in-the-digital-humanities.
  • DeWeerdt, S. (24 de julio de 2019). How to map the brain. Nature Outlook: The brain, 571, S6-S8 doi: 10.1038/d41586-019-02208-0.
  • Dowek, G. (2018). Entrevista en Intelligence artificielle. Enquête sur ce technologies qui changent nos vies. Flammarion, Champs actuel.
  • Dunn, S. y Hedges, M. (2017). Academic Crowdsourcing in the Humanities. Crowds, communities, and Co-production. Cambridge, Massachusetts: Chandos Publishing- Elsevier.
  • Google Arts & Culture (2018). The Technology and people behind Please Feed the Lions. Meet the team working behind-the-scenes on the fifth lion. Recuperado de: https://artsandculture.google.com/exhibit/uQJy-TQgHNPkJw.
  • Mac Fadden Islington, Dearbhla (2018). “Please Feed The Lions”, Es Devlin in Trafalgar Square, London 2018. Recuperado de: https://commons.wikimedia.org/wiki/File:LDFLionsEdit_06.jpg.
  • Malone, T. (2018). Superminds: The Surprising Power of People and Computers Thinking Together. Nueva York, Little, Brown and Company.
  • Weld, D., Mausam, Lin, C. y Bragg, J. (2015). Artificial Intelligence and Collective Intelligence, p. 89-100 En Malone y Bernstein (eds). Handbook of collective intelligence. Boston, Massachusetts: mit Press.

Recepción: 06/11/2019. Aprobación: 22/11/2019.

Show Buttons
Hide Buttons

Revista Digital Universitaria Publicación bimestral Vol. 18, Núm. 6julio-agosto 2017 ISSN: 1607 - 6079