La VR no quiere llegar a nuestras casas, quiere llegar a nuestro cerebro

controlaremos la realidad virtual con el pensamiento

Que la realidad virtual (VR, por sus siglas en inglés) llegará al entorno doméstico o que campará a sus anchas por las aulas de enseñanza no es ninguna novedad, y prácticamente no se pone en duda que formarán parte importante de nuestro futuro (aunque tardará en asentarse, ya que algunas veces marea).

En los últimos años hemos visto novedades que nos señalan que la realidad virtual, aunque despacio, sigue avanzando. Pero pocos sospechan que las gafas VR, accesibles hoy para todos los bolsillos, pronto empezarán a leernos la mente, con la que controlaremos la simulación. En otras palabras, sentiremos que tenemos telequinesia.

Antecedentes del control mental de la realidad virtual

La idea de manejar objetos virtuales con la mente no es nueva, al menos para la ciencia ficción. En los libros de la Saga Heechee (1977-2004) algunas personas podían trasladarse a entornos simulados controlados por su mente; en El Cortador de césped (1992), una máquina permite a una persona modelar un mundo virtual a su antojo; en Matrix (1999) o San Junipero (Black Mirror 3×04, 2016) vemos cómo la gente puede acceder a una realidad virtual y desenvolverse en ella. La última versión la encontramos en ¿Dónde está mi cuerpo? (En un millón de años, 1×03, 2017), producido por National Geographic.

En un entorno más interactivo, el videojuego Ingress (2012) permitía colocar una capa virtual sobre la realidad. Realidad aumentada, más que virtual, pero es que por aquel entonces las gafas VR todavía estaban en pañales y los videojuegos o los capítulos interactivos de las series todavía no habían ganado lo suficiente.

El control de las máquinas con el cerebro

Fuera de la ciencia ficción o del infoentretenimiento, el control de objetos con la mente tuvo dos vertientes: los charlatanes que dicen doblar cucharas y los laboratorios en los que se experimenta con control de prótesis.

Estos últimos surgieron por necesidad, y gracias al avance de la tecnología, para ayudar a personas con faltas de movilidad a desenvolverse en su día a día. Es la biónica de control mental, y hay muchos casos documentados.

Uno de los primeros casos de éxito fue el de Gudmundur Olafsson, quien pasó años con un tobillo robótico tras perder pie y tobillo, y en 2015 se instaló una articulación controlada desde el cerebro con un chip.

También en 2015, Les Baugh se instaló dos brazos robóticos controlados desde su cerebro. La tecnología ha avanzado lo suficiente en dos años como para que las noticias apenas se hagan eco de estos experimentos.

Lo que sí fue noticia es cómo un año después los humanos éramos capaces de controlar drones con el pensamiento e incluso hacer carreras de drones mentales. Una vez somos capaces de controlar máquinas, ¿por qué no volver a la ciencia ficción y controlar la VR?

Así controlaremos la VR usando nuestras capacidades mentales

Imagina colocarte unas Daydream Standalone, las gafas VR que Lenovo y Google están desarrollando juntos, y prescindir completamente del mando a la hora de desplazarte por la simulación, interactuar con ella e incluso volar. Que un conjunto de sensores lea tu actividad cerebral y la plasme en el visionado VR.

Eso es lo que compañías como Neurable están consiguiendo: jugar a videojuegos sin joysticks o mandos. Manejar al jugador o la simulación con nuestros pensamientos. ¿Cómo de cerca estamos de lograrlo?

Interpretar nuestras señales mentales

Un tipo te pide que pases a una sala en la que se ve una silla, un ordenador y un casco, que te pones en la cabeza. Mirando al ordenador, te comenta «Piensa que aplastas la pelota que se ve en la imagen», y tú lo haces. ¿Por qué? Porque el casco tiene células que leen y analizan tus patrones mentales.

Lo primero que necesita la VR de nosotros para que podamos controlar el entorno de una simulación es comprender qué significan las diferentes señales de nuestro cerebro. Aunque hemos mejorado mucho a lo largo de los años, todavía queda un gran camino por responder, por varios motivos.

Por un lado, los sensores no invasivos (los que no necesitan abrirnos la cabeza para ver cómo funcionamos por dentro) todavía requieren de varias generaciones para ser óptimos. Por otro, todavía no sabemos del todo cómo funciona el cerebro, qué áreas corresponden a qué acciones.

Esta primera generación de cascos (en laboratorio, no comerciales) nos ayudarán a interpretar esas señales.

Calibrar las señales cerebrales

Una vez interpretadas y localizadas las áreas de activación cerebral para cada pensamiento, es necesario calibrarlas. Imaginemos que estamos jugando a un videojuego en el que paseamos por el peto de un edificio, levantamos la mano para equilibrarnos y eso produce una señal que el juego interpreta como un salto. El personaje muere, y nos enfadamos con razón.

mujer usando unas gafas de VR

Uno de los grandes problemas de leer el cerebro con cascos que incluyen electrodos es que en nuestro cerebro hay mucho ruido. Demasiadas señales no filtradas que pueden hacer que el dispositivo se equivoque y malinterprete nuestras decisiones.

Para solucionar esto hay varias alternativas, aunque todas ellas pasan por un aprendizaje por parte de algoritmos y de un aumento en la potencia de los equipos para que puedan seguirnos la pista (cerebral).

 

Dicho esto, todavía quedan años para que juguemos en nuestro salón sin ayuda de mandos. Probablemente más de una década. Una vez desarrollada, la tecnología se extiende como la pólvora, pero trabajar en ella lleva su tiempo.

Además, una vez resueltos los problemas técnicos asociados, literalmente, a leernos la mente, tendremos que contar con ordenadores con altas capacidades conectados a las gafas a la hora de procesar la información cerebral de manera óptima y fina.

 

En Lenovo | Juega a la Realidad Virtual en tu portátil sin fallos por 1.600 euros

Imágenes | iStock/fergregory, iStock/max-kegfire

Etiquetas: