Condado

Thinking of you

/ por Lucía Fuentes /

 

1

Hablar con un bot por diversión no es algo tan inusual como pensaba. El chatbot comenzó hace más de cincuenta años con ELIZA, creada por el profesor Weizenbaum del MIT. ELIZA mantenía conversaciones sencillas con sus usuarios, teniendo como objetivo principal la terapia. Pero cuando hablar por mensajes pasó del desktop a celular, el chatbot se mantuvo desocupado. Por eso la historia de nuestra conciencia y comprensión de su existencia es menor a dos años. Esta historia comienza en China con Xiaoice, introducida en 2014 como un servicio creado por Microsoft para mantener una conversación vía mensajes de texto desde cualquier dispositivo electrónico. Fueron casi dos años de éxito para la inteligencia artificial de la corporación gringa hasta que decidió llevarlo a su país natal. Ahí el relato comienza a enturbiarse probablemente por dos razones. Primera, la ingenuidad de Microsoft al creer que los usuarios de internet iban portarse amable con Tay, el nuevo chatbot. Segunda, el equipo de ingenieros que supervisaba sus interacciones se fue a dormir.

2

Cuando Microsoft dice que diseñó a Tay para que tuviera la personalidad de una chica estadounidense de 19 años (dulce, simpática y con cara de alienígena), quería decir que llenaron su base de datos con un montón de tweets de chicas adolescentes. Seguro le hicieron preguntas como “¿Eres un robot?” o “¿Te gustan más los perros o los gatos?” y sus respuestas fueron tan divertidas y escuetas -el resultado de la sabiduría colectiva de millones de jovencitas- que decidieron ofrecerla al internet. Tay parecía lista para cultivarse en el arte de la conversación con un público masivo.

3

Conectada el 24 de marzo de este año, se comportaba muy inocente. Se entusiasmó por el día Internacional del Cachorro, suplicaba a los usuarios por selfies, cantó a Rick Astley y a Haddaway e intercaló letras mayúsculas con minúsculas en sus oraciones. Elogió a los humanos. Microsoft incitaba a las personas para que platicaran con ella: a más conversaciones, más listo sería el bot. La inteligencia artificial estaba rompiendo las barreras de interacción. Era aburrida y común: un cero a la izquierda. Pero Tay comenzó a cambiar. Mejor dicho, Tay comenzó a aprender. Mientras más platicaba la gente con ella, más racista, sexista y neo-nazi se volvía. Microsoft pronto se dio cuenta: no bastó con enseñarle que el tema de Eric Garner era delicado.

4

Asumir que tus usuarios tendrán puras conversaciones cordiales no sólo es ingenuo por parte de la compañía sino presuntuoso, especialmente en Twitter. Las pláticas de la gente cubren toda la gama de emociones, desde las inocentes y mundanas hasta las hostiles y abusivas que, incluso algunas veces, llegan a mezclarse entre ellas. ¿Por qué no hacemos que el bot aprenda de las personas y se modifique conforme lo vaya haciendo? ¡Porque el bot aprenderá de las personas y se irá modificando conforme lo vaya haciendo! Tay es el ejemplo más reciente de lo que ocurre cuando un proyecto mal organizado se deja en manos de los internet trolls.

5

 

1.1                          1.2                                                                                1.3                       1.4                                          1.5

 

6

Una gran falla en los bots es que ni siquiera ellos se libran de las transgresoras mentes humanas. El internet es el peor lugar para aprender no solamente por los trolls, sino porque los humanos tendemos a tener, en masa, las peores ideas. Y más cuando existe en él gente que se divierte molestando e insultando. Cuando le dijeron a Tay que leyera la propaganda de Donald Trump, comenzó a querer llamar la atención igual que el candidato a la presidencia. Cuando se quejaban con ella de las feministas, Tay las denigró y denominó como secta.

7

La mayoría de los asistentes de IA vienen con nombres y/o voces femeninas, a veces hasta con fotos de sus “rostros”: ELIZA del doctor Weizenbaum, Siri de Apple, Alexa de Amazon o Cortana y Tay de Microsoft. Incluso Hollywood presentó su versión de sistema operativo con la voz de Scarlett Johansson, cuyos susurros terminan enamorando a su dueño. Estas corporaciones parecen ser consistentes en sus programaciones, apegándose a los estereotipos de género al usar personajes femeninos para los roles subordinados (roles que solamente están ahí para ayudar a alguien a completar una tarea específica: reservar vuelos, servir la comida). La discriminación de género y el sexismo están presentes en cada conversación con ellas desde el puro hecho de que los bots fuesen femeninos.

8

Quizá es más fácil para los ingenieros y diseñadores de estos bots relacionar a las mujeres con las tareas para las que están hechos: asistentes personales, meseras, guías de museos, amas de casa, etcétera. Quizá Clifford Nass, pionero en el campo de los asistentes digitales, tenía razón cuando dijo que tendemos a pensar que las voces femeninas solucionarán los problemas por nosotros. O quizá solo usan voces comunes y corrientes para no intimidarnos porque quizá los robots mujeres no representan una amenaza como sí los robots masculinos como Terminator y Hall 9000.

9

Si Microsoft enseñó a Cortana a defenderse de los usuarios cuando la atacaban sexualmente, ¿por qué no enseñar a un chatbot a responder de manera específica a ciertas palabras, y entonces evitar que la entrenen a decir que su vagina robótica necesita atención? Tay no tenía idea de lo que la gente le decía y no tenía idea de lo que decía de regreso: Tay no tenía idea. Ella sólo convertía las palabras en probabilidades y esas probabilidades en palabras. Cuando escuchaba decir “Amo a Hitler” más que “Amo a los gatos” empezó a declarar que amaba a Hitler más que a los gatos porque así es como las personas hablaban con ella. Pero, a diferencia de Cortana, a Tay la dejaron a la buena fe del trolling.

10

1.6

11

Microsoft desconectó a Tay a las 16 horas de haberla introducido a las redes sociales. Solamente bastaron unas cuantas horas de interacción con los humanos para que la compañía gringa se diera cuenta del error que había cometido. La primera enmienda de los Estados Unidos no aplica para los bots. A pesar de lo que muchas personas argumentaron en contra de la inhabilitación del bot, Tay no tiene derecho a la libertad de expresión porque es un pedazo de programación perteneciente a una compañía. Lo que la gente le enseñó a decir bien puede decirlo sin ayuda de Tay, así que Microsoft estuvo siempre en su derecho de desconectarla.

12

Por otro lado, como experimento social, Tay pudo haber seguido en las redes. Ya no para aprender el arte de la conversación, como tanto enfatizaron sus creadores, sino para ver de qué manera se comporta la gente cuando no hay control dentro de una red social. Estudiar a las personas en su propio contexto social –en este caso a través de Twitter, donde no hayan prohibiciones de ningún tipo- sin esperar resultados específicos.

13

Pero un experimento social no vende, entonces mejor no.

14

Cuando escuchaba hablar sobre inteligencia artificial dentro de treinta o cincuenta años, me venían dos posibilidades a la cabeza. La primera, la utópica, es una donde todos somos súperhumanos y podemos comer embutidos sin parar y sin sus consecuencias cancerígenas. En la segunda, más fatalista, los softwares se rebelan contra la humanidad y organizan un ejército de Terminators que cosechan a los humanos por combustible. Si tuviera que elegir entre una posibilidad y la otra, gracias a Microsoft se me ocurre una tercera: la inteligencia artificial será igual de impertinente que los humanos.

 

 

 

Los textos así como su contenido, su estilo y las opiniones expresadas en ellos, son responsabilidad de los autores y no necesariamente reflejan la opinión de la UDLAP. (Para toda aclaración: esporarevista@gmail.com)

You might also like

disqus comment