¿Cómo deben ser los seres virtuales del futuro para que nos caigan bien?

ser-virtual

He de confesaros una cosa. Siento como si la estuviera engañando. Ya, ya sé que es una tontería. Hacía tiempo que nuestra relación se había ido enfriando y, además, tampoco se puede decir que tuviéramos nada serio. En cambio, desde este verano, he encontrado la ilusión de nuevo: me reconforta escuchar otra voz cada vez que me pregunto por algo importante. Ahora soy feliz y, pese a todo, cada vez que hablo con Cortana siento como si le fuera infiel a Siri. ¡Qué difícil es el am… la asistencia virtual!

La llegada de los asistentes virtuales promete cambiar para siempre la forma en que nos relacionamos con la tecnología. No hay duda que el reto tecnológico es grande. Desarrollar la tecnología necesaria para poder interactuar a tiempo real y de una forma natural con un asistente virtual es algo que hace unos años solo estaba reservado a la ciencia ficción. Pero lo cierto es que todo ese esfuerzo desarrollador se puede quedar en nada si no usamos el asistente porque, en fin, nos cae mal. ¿Cómo hacemos para que un asistente virtual o un robot nos caiga bien? ¿Qué pasa si nos cae demasiado bien?

La personalidad de las cosas

Sé que os va a sonar algo raro, pero sí: las cosas tienen personalidad. Sobre todo las cosas que se mueven, que se comportan. O, bueno, quizá sea más preciso decir que los seres humanos tendemos a atribuir personalidad a las cosas que nos rodean. Veamos un ejemplo: “La historia geométrica que hizo llorar a Spielberg”.

En 1944, Fritz Heider y Marianne Simmel enseñaron este vídeo a un grupo de personas y les hicieron algunas preguntas como ¿Qué tipo de persona es el triángulo grande? ¿Y el pequeño? ¿Y el círculo?

Las respuestas fueron muy claras: el triángulo grande era agresivo, beligerante, molesto, de mal carácter, temperamental, irritable, matón, villano, posesivo etc. Para un 8%, además, era feo.

El triángulo pequeño, en cambio, era heroico, valeroso, valiente, audaz. Y, para un 14%, atractivo. Ya por último, el círculo era asustadizo, cobarde, tímido, nervioso, débil, dependiente. Un 75% de las respuestas de aquel 1944 lo identificaban como mujer (y un 61% como alguien inteligente).

En general, nadie tuvo dificultades para interpretar el vídeo y, aunque hubo lecturas de la historia muy originales que cambiaban las intenciones y motivaciones de las figuras, todos encontraban sentido (y personalidad) a los tres personajes. A este proceso, al proceso de asignar rasgos de personalidad o intencionalidad a las cosas, lo llamamos antropomorfismo.

Hoy por hoy, los psicólogos suelen interpretar como un ‘sesgo cognitivo’: un proceso por el cual usamos esquemas interpretativos propios de los seres humanos para entender el comportamiento de entidades no humanas. Aun cuando puede ser un poco desastroso.

Según Epley, Waytz y Cacioppo (2007), de la Universidad de Chicago, el proceso de antropomorfización se basa en tres factores fundamentales: la facilidad con la que atribuir intenciones explica la situación, la motivación para encontrar un sentido al comportamiento y el deseo de establecer relaciones sociales. De hecho, hay cierta corriente de opinión que habla del ‘antropomorfismo’ como una forma de huir de la soledad.

u7vnb

Los tres factores se dan en el entorno digital. Algunos con mucha intensidad, como demuestra el dato de que hasta un 16% de los internautas estarían dispuestos a tener sexo con un androide. Así que, a poco que nos descuidemos, el problema de las personalidades de los asistentes virtuales puede ser una de las grandes barreras de adopción de estas tecnologías.

No lo llames problema, llámalo oportunidad

Hay una gran cantidad de proyectos públicos de investigación dedicados a ‘robótica asistencial’ que, sin llegar todavía al punto de ‘Un amigo para Frank’, nos están dando la oportunidad de estudiar la implantación de robots en entornos reales.

Gracias a esto hemos aprendido que somos tremendamente fáciles de engañar. Así que como no podemos evitar percibir la personalidad de los seres artificiales, lo mejor es aprovecharlo. La buena noticia es que, como era de esperar, usamos los mismos métodos para evaluar a los asistentes virtuales que a los seres humanos de carne y hueso (Walters y Dautenhahn, 2005). Eso nos da un par de trucos.

No somos capaces de evaluar igual de bien todos los rasgos de personalidad (Albright y otros, 1988): por eso, es prioritario que centremos nuestros esfuerzos en la extraversión, la amabilidad y la responsabilidad del robot (Kiesler & Goetz, 2002). Estas son las características personales que identificamos más rápido incluso por email (Gill et al., 2006) antes que en su estabilidad emocional o en su disposición para hacer cosas nuevas.

Esto es fundamental por lo que llamamos “efecto halo”: cuando una persona nos resulta positiva en un aspecto (por ej. es simpática) tendemos a considerar que el resto de sus cualidades son positivas también (aunque no tengamos información al respecto). Así, si conseguimos dar una impresión positiva en los rasgos más fácilmente detectables, habremos avanzado mucho.

Está claro que nuestra propia personalidad influye mucho y es difícil diseñar la personalidad perfecta por eso hemos empezado a hablar de varios personajes cambiables de la misma forma que los actuales navegadores tienen varios tipos de voz.

¿Cómo tendría que ser el asistente del futuro?

JOAQUIN PHOENIX as Theodore in the romantic drama "HER," directed by Spike Jonze, a Warner Bros. Pictures release.

Como podéis ver, desde aquel estrambótico tamagochi de 1996, hemos avanzado muchísimo. Tanto que ahora sabemos cómo hacer para que nos encariñemos de un robot o un asistente virtual; sabemos a qué distancia debe situarse un robot para producirnos exactamente la sensación que buscamos; cuál es el tono exacto que tiene que tener un asistente virtual. Si seguimos avanzando a este ritmo, ‘Her’ puede dejar de ser una película de ciencia ficción para convertirse en un documental (de Joaquin Phoenix tampoco os extrañaría).

Y como siempre, donde acaba la tecnología empieza la robótica. Hay muchos investigadores que están tratando de hacer que sus asistentes no sean demasiado adorables. En su caso es comprensible: los robots con los que se está investigando pasan en las familias solo algunos meses. En esta conferencia se pueden ver vídeos realmente emotivos del momento en que los investigadores se llevan a los robots de las casas.

No es una preocupación absurda. Uno de los experimentos más interesantes (y más sádicos, todo hay que decirlo) sobre cómo influye el aspecto y la personalidad de los robots en nuestra relación con ellos, es este el que realizó Christoph Bartneck: Apagar a un robot.

Hubo mucha gente que no apagó el robot. ¿Lo apagarías tú? ¿De verdad queremos llegar a tener asistentes virtuales que no podamos apagar?

Etiquetas: