Resumen de todas las presentaciones sobre accesibilidad en XR del "2024 XR Access Symposium. Insights from XR Assistive Technology"
Hay un evento que espero con mucho interés todos los años, el XR Access Symposium. XR Access es un consorcio de investigación con sede en la Universidad de Cornell (New York) que lidera una comunidad comprometida con hacer la realidad virtual, aumentada y mixta (XR) accesible para las personas.
XR Access se ha reestructurado recientemente y elabora prototipos y recursos de accesibilidad de realidad virtual y aumentada que otros desarrolladores puedan usar para que sus aplicaciones sean más accesibles.
El congreso de este año tuvo lugar la semana pasada (6 y 7 de junio de 2024) y no ha decepcionado. Se presentaron proyectos de investigación y desarrollos muy interesantes que resumo en este artículo.
Índice
- XR Access Stories: Why Access Matters, mesa redonda con el feedback de usuarios con discapacidad usando entornos VR (Realidad Virtual), entre ellos Jesse Anderson, un youtuber bastante conocido, jugador de videojuegos ciego.
- Unseen Sound, una experiencia virtual para navegar solo con el sonido.
- Design Interactive AI Visual Guides for Blind and Low Vision People, avances en la guía intérprete para discapacidad visual en entornos VR de la que os hablé el año pasado, que ahora es una guía IA (Inteligencia Artificial) capaz de poner balizas de audio.
- Using Surface Electromyography (sEMG) to create a new XR Human-Computer UI, presentación del dispositivo de Meta que utiliza las señales neuromotoras para generar entradas, por ejemplo, de texto o para guiar objetos.
- ASL Champ! Learning ASL in VR with AI-powered feedback, una aplicación VR para aprender lengua de signos.
- XR for individuals with hearing impairment, una aplicación VR para entrenar la conciencia espacial, gamificada para los niños con un implante coclear.
- Proyectos de investigación de XR Access, por ejemplo, un estudio sobre buenas audiodescripciones en los vídeos 360 grados; o un estudio sobre la autopresentación de personas con discapacidades invisibles en VR.
- The Wheeled Experience vs. The Walking Experience in VR, ¿qué pasaría si una interfaz accesible para sillas de ruedas no fuera una alternativa, y si fuera simplemente la mejor opción disponible para todos los usuarios?
- StoryTrails: XR in the wild. Accessibility standards for mixed-reality live experiences, presentación de la experiencia XR StoryTrails.
- Do you see what I’m Saying? The Design of Owlchemy Labs’ Subtitle System, todos los secretos de los subtítulos de los juegos VR Job Simulator, Vacation Simulator o Cosmonious High, de la mano de sus creadores.
- Virtual Steps: The Experience of Walking for a Lifelong Wheelchair User in Virtual Reality, Atieh Taheri, investigadora con atrofia muscular espinal, nos cuenta su experiencia de andar por primera vez gracias a un entorno VR.
- Accessibility as a guide for equity and sustainability in virtual conferences, aspectos de accesibilidad a tener en cuenta en conferencias VR.
- Co-Designing Products with People With Disabilities, buenas prácticas y errores a evitar en el proceso de codiseñar productos con personas con discapacidad.
- A machine-learning-powered visual tour guide for attentional disorders, guía visual para optimizar el aprendizaje usando la transferencia de atención para ayudar a aprender material educativo en entornos VR.
Consultar todos los artículos de Usable y Accesible sobre accesibilidad en entornos de realidad virtual
XR Access Stories: Why Access Matters
XR Access recopila historias de personas con discapacidad que hablan de las dificultades que tienen para utilizar la realidad aumentada o virtual, pero también de cómo esta les ha cambiado la vida. La gente recuerda mejor las historias que los datos o los hechos, y tienen el poder de que las personas sientan, recuerden y experimenten empatía.
El evento comenzó con una mesa redonda en la que participaron personas con distintos tipos de discapacidad, como ceguera, sordera y movilidad reducida.
Por ejemplo, participó Jesse Anderson, conocido por su canal de YouTube “Illegally Sighted”, en el que explica su experiencia como jugador de videojuegos ciego.
Jesse es usuario de Oculus. Destaca que, actualmente, el principal problema es que no existen herramientas o software de accesibilidad disponibles comercialmente que agreguen elementos como una lupa de pantalla, un lector de pantalla o alto contraste, que sí existen para el móvil o el PC.
Aunque el juego pueda ofrecer opciones de configuración de accesibilidad, a menudo no se puede llegar hasta a ellas, debido a que la interfaz y los menús son en gran medida inaccesibles.
Por ejemplo, para empezar a usar las Oculus necesitas introducir un código, una acción imposible a día de hoy para una persona ciega. Imagina que, en vez de eso, un asistente IA te da la bienvenida y te pregunta si tienes alguna necesidad de accesibilidad, activando automáticamente las opciones según tu discapacidad, como el lector de pantalla, sin que tengas que revisar toda la configuración. Ese el futuro hacia el que debemos avanzar.
En la entrevista “¿Cómo puede una persona ciega utilizar la realidad virtual?” Jesse enumeraba las características básicas que debería tener una aplicación VR para que sea accesible para las personas ciegas o con baja visión, entre las que resalta:
- Ofrecer opciones de tamaño de texto, preferiblemente con un control deslizante. Esta opción sería de mucha utilidad también para las personas que usamos gafas, así podríamos usar las gafas de realidad virtual sin las gafas de ver, que es mucho más cómodo.
- Funciones de ampliación y narración de menús. Las personas ciegas no solo necesitan un lector de pantalla o una narración de menús, sino también un método para localizar y usar los controles de realidad virtual. Debería haber opciones básicas de ampliación y lector para todo el sistema y ser compatibles con las aplicaciones.
- No establecer una distancia fija para gran parte de su interfaz de usuario, que es lo que ocurre a menudo en muchas aplicaciones de realidad virtual. Si la pantalla de opciones está a un metro de ti, siempre está a un metro, no puedes acercarte más. Si intentas acercarte se aleja y es muy frustrante cuando la letra es muy pequeña. Cualquier persona miope que se haya conectado sin las gafas de ver puede dar fe de ello.
Enlaces de interés:
Unseen Sound
Sammy Viehler y Andy Slater presentaron la experiencia virtual “Unseen sound”.
El artista ciego Andy Slater ha creado esta experiencia virtual que invita a navegar por un espacio no visual enteramente por el sonido. Se utiliza el audio espacial como herramienta de orientación para reasignar y reorientar las experiencias vividas en el espacio real y virtual.
A medida que los jugadores deambulan y exploran, encuentran y desencadenan eventos sonoros que parecen emanar de mundos desconocidos, usando el audio como material para la construcción de mundos de ciencia ficción.
Design Interactive AI Visual Guides for Blind and Low Vision People
Este trabajo lo presentan los mismos autores de “AI Scene Descriptions” que investigan el potencial de la IA para describir escenas para las personas ciegas y con baja visión.
El equipo desarrolló la aplicación Eyevisor que simulaba el uso de SeeingAI para recopilar datos sobre por qué, cuándo y cómo las personas usan la IA para describir escenas.
Los resultados reflejaban casos únicos en los cuales preferían usar una IA antes que la asistencia humana para que les describiera algo: para detectar cosas repugnantes, sucias o peligrosas; resolver disputas entre amigos ciegos o con baja visión; o evitar situaciones incómodas, como tocar a una persona.
El estudio presentado en el congreso de este año sigue esta línea, estudiando el uso de la descripción de escenas en el mundo real y abordando la importancia de la exactitud de la descripción. Se concluye que la exactitud de la descripción no es el aspecto más relevante de la descripción de escenas. Lo más importante es el modelo en bucle basado en la retroalimentación constante para que el algoritmo tenga nuevas herramientas al realizar su trabajo (lo que se denomina human-in-the-loop).
¿Por qué están investigando qué hace bueno un AI Visual Interpreter?
El año pasado hablaron de su proyecto de guía intérprete para personas ciegas en XR, que expliqué con detalle en el artículo "Guía para personas ciegas y con baja visión en entornos de realidad virtual social" y que me impactó bastante.
En la versión inicial, la guía era un voluntario humano. Bien, hora están trabajando en una guía intérprete IA que utiliza para describir las escenas la API de ChatGPT4.
Actualmente, la guía IA ya puede responder preguntas visuales sobre la escena en la que se encuentra. También puede guiar a alguien a objetos particulares alrededor de la escena.
La guía puede poner balizas de audio. Me pareció una idea fantástica, que me recordó a las migas de pan que os comenté en Migas de pan sonoras en Blind Burners de AltSpace.
Una baliza de audio es un pequeño efecto de sonido que el guía pone en cualquier objeto de la escena cuando el usuario lo solicita, de modo que el sonido le permite guiarse hacia ese objeto.
Los presentes pudieron probar la demo. Estoy deseando ver qué avances presentan el año que viene en este proyecto.
Enlaces de interés:
- Artículo: Investigating Use Cases of AI-Powered Scene Description Applications for Blind and Low Vision People (PDF)
Using Surface Electromyography (sEMG) to create a new XR Human-Computer UI
Meta presentó su prototipo de pulsera EMG:
El dispositivo utiliza las señales neuromotoras de los músculos. Se detecta la actividad y transforma los comandos neuromotores intencionales en entradas, como la entrada de texto que se observa en la imagen anterior. O escribir a máquina sobre cualquier superficie; o manejar un avatar en un juego.
La recopilación de datos de entrenamiento de miles de personas ha permitido desarrollar modelos genéricos de decodificación sin necesidad de calibración individual. Es la primera interfaz neuromotora de gran ancho de banda que aprovecha directamente las bioseñales con una generalización eficaz lista para ser usada.
Vídeo de presentación de la pulsera EMG de Meta
Este tipo de dispositivos puede ser de gran ayuda para las personas con parálisis, miembros amputados, temblores y rangos de movimiento limitados, por ejemplo, personas con distrofia muscular.
Enlaces de interés:
ASL Champ! Learning ASL in VR with AI-powered feedback
Lorna Quandt y Shahinur Alam del VL2 Center, en la Gallaudet University de Washington, presentaron una aplicación VR para aprender lengua de signos.
Muchas personas sordas tienen padres oyentes que necesitan nuevas formas de aprender lengua de signos, como podría ser en un entorno VR.
El proyecto está en fase de prototipo de prueba de concepto y, de momento, solo permite aprender palabras.
Utilizan el MiVRy Unreal Engine plugin para reconocimientos de signos, y un modelo IA que entrena automáticamente en función de los datos proporcionados. En total contaron con 15 personas usuarias de lengua de signos.
He hablado varias veces de la lengua de signos en entornos VR:
- Lengua de signos estándar VR, Usable y accesible
- Aprender la lengua de signos alemana en Realidad Virtual, Usable y accesible
Enlaces de interés:
- Estudiar los aspectos corporales del lenguaje de señas, en Action & Brain Lab
- Motion Light Lab
XR for individuals with hearing impairment
Esta presentación se hizo desde la Universidad de Copenhagen.
Stefania Serafín nos explicó que en Dinamarca hay una ley reciente por la cual los niños que lo necesitan reciben un implante coclear de forma gratuita. El juego VR que han desarrollado permiten a los niños de entre 8 y 12 años entrenar la conciencia espacial.
En el juego van ganando trofeos, por ejemplo, en el Museo de la Música tienen que reconocer diferentes instrumentos musicales.
Vídeo de presentación de la aplicación VR: LYT IGEN Teaser Video
Enlaces de interés
- Artículo: Self-reported social well-being of children with hearing loss in 2023 (PDF)
- Artículo: A Concert-Based Study on Melodic Contour Identification among Varied Hearing Profiles—A Preliminary Report, PDF
- Proyecto Lyt Igen, ME Lab Aalborg University
Proyectos de investigación de XR Access
Comenzamos el segundo día de congreso enumerando diferentes proyectos de investigación que se llevan a cabo en el XR Access.
Por ejemplo:
- Cómo realizar buenas audiodescripciones en los vídeos 360 grados preservando su naturaleza inmersiva
- Explorando la autopresentación para personas con discapacidades invisibles en realidad virtual (condiciones de salud crónicas, condiciones de salud mental, …) Los participantes estaban interesados en activar y desactivar la representación en distintos contextos y compartieron ideas para la representación a través del diseño de avatares. Por ejemplo, usar logotipos y patrones relacionados con la discapacidad en la ropa, o usar barras energéticas flotantes que se correlacionan con sus niveles de energía.
The Wheeled Experience vs. The Walking Experience in VR
Justin Berry, de la Universidad de Yale, nos presentó un estudio que nos dio que pensar… ¿qué pasaría si una interfaz accesible para sillas de ruedas no fuera una alternativa, y si fuera simplemente la mejor opción disponible para todos los usuarios?
Vídeo: "A Concrete Interface: Creating an interface for virtual reality powered by wheelchair users"
Enlaces de interés:
- Artículo: Creating an interface for virtual reality powered by wheelchair users (PDF)
- Artículo: "Navigation in immersive virtual reality: a comparison of 1:1 walking to 1:1 wheeling"
StoryTrails: XR in the wild. Accessibility standards for mixed-reality live experiences
Angela Chan, de CoSTAR, nos presentó la experiencia “StoryTrails” que, sinceramente, tampoco ofrecía muchas opciones de accesibilidad.
Básicamente, ofrece la opción de acceder sentado y de pie, y rutas de distinta duración. Pero, por ejemplo, no tiene subtítulos.
Como está disponible en un espacio físico concreto, el personal ofrece ayuda para colocar el visor. También ofrece información sobre las experiencias, por ejemplo, si es o no adecuada para personas con epilepsia fotosensible, mareos o ansiedad.
Do you see what I’m Saying? The Design of Owlchemy Labs’ Subtitle System
Los juegos VR de Owlchemy Labs (Job simulator, Vacation Simulator y Cosmonious High) se citan a menudo como ejemplo de las posibles características de accesibilidad que se pueden incluir en VR.
Yo misma hice una reseña de mi experiencia jugando a Cosmonious High.
Bien, pues tuvimos la suerte de que Peter Galbraith, de Owlchemy Labs, que ha trabajado en la accesibilidad de estos juegos, nos hablara sobre los subtítulos accesibles, un tema de mucha actualidad como comenté hace unas semanas en: Subtítulos inmersivos. Informe final del grupo de trabajo del WAI-W3C "Immersive Captions Community Group"
Explico algunas de las características que han tenido en cuenta a la hora de crear los subtítulos en estos juegos:
- Colocan los subtítulos en una ubicación del espacio virtual donde tus ojos puedan enfocarlos para leerlos.
- Los ojos son músculos que se cansan con el uso repetido, por eso hay que ubicar los subtítulos a la misma profundidad que el hablante, de este modo, no es necesario reenfocar los ojos.
- Posicionan los subtítulos sobre los personajes, así es menos probable que oscurezcan elementos visuales valiosos, como sus gestos o los objetos entre el usuario y el hablante. De todas maneras, si pueden cubrir contenido importante, los desarrolladores tienen la capacidad de colocarlos en otras posiciones.
- El tamaño del texto escala según la distancia de los subtítulos al usuario, esto tiene el efecto de que nos parece que su aspecto es constante y permite ofrecer opciones de tamaño de texto.
- Bloquear un objeto en la cabeza de un usuario causa mareos. Por ello, en estos juegos los subtítulos siguen al jugador, pero se retrasan respecto a sus movimientos. Esto reduce el mareo, pero permite tener los subtítulos allí dónde mires.
- A menudo, el mareo es el resultado de que hay un desajuste entre lo que tus ojos ven y lo que tu oído interno te dice que ve. En consecuencia, es importante que los subtítulos permanezcan en posición vertical en relación con el mundo, para ayudar a proporcionar estabilidad. Esta es la razón por la cual los subtítulos siguen a la cabeza, pero no siguen su balanceo.
- Los subtítulos se mantienen en el centro de la visión del usuario porque siguen a su cabeza, de lo contrario, nunca podrías mirarlos directamente. Mantener los subtítulos en el centro de la visión del usuario también reduce la fatiga visual y hace los subtítulos más accesibles para muchas personas con campos de visión reducidos.
- Se identifica al hablante con un ícono o un nombre, y se pone una pequeña flecha que apunta al hablante. Hay aspectos más sutiles que permiten dirigir al usuario hacia el hablante e identificar la fuente del audio. Por ejemplo, se desplaza ligeramente la caja de los subtítulos en la dirección del hablante. O, por ejemplo, la caja de subtítulos se ajusta a la ubicación del hablante cuando el usuario casi lo está mirando.
- La oclusión de los subtítulos es un problema, es decir, qué hacemos si un objeto tapa los subtítulos cuando te mueves. La solución puede parecer sencilla, que la caja de los subtítulos sea sólida y esté siempre por encima de todo lo demás. Sin embargo, eso llevaría a una discrepancia en tu cerebro. Tus ojos te dicen que los subtítulos están al frente del todo, pero la convergencia estereoscópica (1) le dice al cerebro que los subtítulos están lejos. Esto puede causar fatiga visual y dolor de cabeza.
Por esta razón, la caja de los subtítulos es semitransparente. Se utiliza el brillo y la opacidad para ayudar a mantener el texto legible, pero manteniendo la sensación de profundidad. Cuando están ocultos, detrás de un objeto, en lugar de ocultarlos, se aumenta su transparencia y se agrega un brillo sutil, que da la ilusión de que se proyectan desde detrás de un objeto.
Siempre se mantiene cierta transparencia activa, incluso cuando no están ocultos por el resto del entorno. Todo ello permite mantener los subtítulos sin ser demasiado intrusivos o bloqueando otros contenidos visuales.
- Cuando llevas las Oculus puedes retransmitir lo que tú ves, por ejemplo, en el móvil o la televisión, para que lo vean otras personas. Bien, pues en estos juegos, se puede activar una cámara con movimiento suave para los espectadores externos que están viéndote jugar. También muestra una vista de subtítulos más tradicional.
- Las necesidades de las personas son muy diferentes y, aunque han abarcado las necesidades de muchas personas, no se puede pensar que ésta es la solución que funciona perfectamente para todas ellas. Por esta razón, es importante dar opciones de personalización: proporcionar una opción de subtítulos tradicional; personalización del tamaño del texto, el color, la opacidad, la fuente o la indicación de los hablantes; personalizaciones únicas de VR, como la velocidad de seguimiento o la fuerza con la que los subtítulos siguen tu cabeza, o el ángulo o la posición en el que se fijan. Hay que tener en cuenta que las configuraciones predeterminadas deben priorizar la experiencia de tantos usuarios como sea posible.
Peter Galbraith terminó resaltando que esta charla no es una doctrina. Los proyectos deben hacer pruebas con usuarios y, si innovan y encuentran mejores soluciones, compartirlas. Una persona que se sienta mareada, incómoda o que no es bienvenida puede que nunca vuelva a ponerse las gafas VR, y eso nos perjudica a todos.
Os incluyo un vídeo personal jugando a Cosmonius High en el que se observa cómo trabajan los subtítulos en estos juegos:
Subtítulos en Cosmonius High. Fuente: vídeo capturado por Olga Carreras
(1) Visión estereoscópica: es la capacidad que tiene el ser humano de integrar en una sola imagen tridimensional, en relieve y con suficiente profundidad, las imágenes que llegan al cerebro de cada uno de los dos ojos.
Virtual Steps: The Experience of Walking for a Lifelong Wheelchair User in Virtual Reality
Atieh Taheri es una investigadora de la Universidad de California con atrofia muscular espinal. Su estudio versa sobre la experiencia de caminar en realidad virtual desde el punto de vista de una persona que nunca ha caminado ni estado de pie.
Las personas que no han caminado nunca han desarrollado un modelo mental de caminar observando a los demás. ¿Pero sabemos si es exactamente la misma experiencia? Este conocimiento es importante para hacer experiencias realistas para estas personas, ¿cómo se recrea la sensación de algo que nunca han sentido? Si se hace bien, puede abrir nuevas posibilidades para quienes nunca han caminado.
Atieh usó un diario para reflejar sus emociones y sus percepciones caminando por un entorno VR creado específicamente para esta investigación. Afinaron el diseño en diferentes iteraciones para hacer la experiencia completamente inmersiva para ella y que le diera la autonomía para explorar a su propio ritmo.
Por ejemplo, añadieron, entre otras cosas:
- comandos de voz, porque no puede usar los controladores manuales;
- un avatar virtual que proporciona la sensación de encarnación física y que incluye piernas (en muchas aplicaciones tu avatar no tiene piernas);
- retroalimentación auditiva de pasos sincronizados;
- velocidad de caminata ajustable;
- la oscilación de la cabeza asociada con la acción de caminar, que también era ajustable.
Es resumen, se creo una experiencia realista de caminar que se puede personalizar ajustando los parámetros asociados. En una iteración, Atieh llegó a caminar más de un kilómetro
Fue hipnótico escucharla porque su diario también cuenta la historia de experimentar un nuevo mundo. La primera entrada mezclaba la emoción y un toque de miedo por el experimento. Al principio hubo un desajuste de las señales auditivas y visuales que experimentó. El reconocimiento de voz y el control de la velocidad eliminaron la sensación de monotonía, de que estaba en realidad en la silla y alguien la empujaba.
En la tercera iteración pudo ver sus piernas moviéndose, confirmando la importancia del feedback para la encarnación. Según avanzaban las iteraciones, el sentimiento de caminar realmente se desarrolló en su mente, y amplificó su sentido de presencia dentro del entorno virtual.
A pesar de la inmersión y de los giros, que continuamente ocurren, dice que no sintió mareos.
Concluye, como ideas principales:
- la importancia de la personalización en la realidad virtual, especialmente para individuos con discapacidades motoras congénitas.
- es esencial alinear los parámetros de la realidad virtual con los modelos mentales de los usuarios, especialmente si no han experimentado el escenario simulado en su vida real.
- VR no es solo una herramienta de entretenimiento, puede mejorar la experiencia de vida, ofrecer nuevas formas de experimentar el mundo.
Como limitación del estudio, los hallazgos, aunque informativos, se basan en un solo participante, lo que limita inherentemente la capacidad de generalizar estas percepciones a una población más amplia.
Accessibility as a guide for equity and sustainability in virtual conferences
En esta ponencia se trató las ventajas y desventajas de las conferencias desarrolladas en entornos VR.
Lo ideal es un modelo mixto, ya que no todas las personas pueden acceder a la experiencia inmersiva. El hardware es caro, se necesita una buena conexión, pueden ser inaccesibles y agotadoras, o el huso horario puede ser un problema.
Sin embargo, pueden participar personas que, de lo contrario, no asistirían. Los gastos de desplazamiento pueden ser muy altos según tu ubicación geográfica, puedes tener compromisos profesionales o personales que te lo impidan, una discapacidad física que te dificulte desplazarte, o no sentirte cómodo en estos eventos si eres muy introvertido o tienes dificultad para relacionarte.
Hoy en día, el modelo mixto es habitual hacerlo mediante videoconferencia, pero tienes esa sensación de no estar completamente presente y no poder interactuar igual.
La conferencia VR no debe ser una copia de la experiencia del mundo físico, sino que debe ampliar el rango de experiencia.
Se exploraron claves para que las conferencias VR fueran más cómodas y accesibles, como por ejemplo:
- seleccionar tu nivel de inmersión;
- personalizar cómo se rastrean y representan tus movimientos;
- poder acceder e interactuar a tu ritmo para abordar la flexibilidad temporal;
- contar con espacios para descansar, filtrar las experiencias y controlar el ritmo de lo que está sucediendo;
- poder socializar en múltiples modalidad y representar nuestras señales en múltiples canales;
- la capacidad de personalizar tu avatar y las señales sociales, fomentando conexiones sociales más equitativas.
Enlaces de interés:
Co-Designing Products with People With Disabilities
En esta ponencia de Meta se habló sobre el proceso de codiseñar los productos con personas con discapacidad, en comparación con otros métodos, como la investigación UX tradicional o las sesiones en las que los usuarios te ofrecen su feedback. Repasaron todas las buenas prácticas, qué hay que hacer y qué hay que evitar.
El codiseño con personas con discapacidad impulsa la innovación, evita prejuicios, añade credibilidad a los productos y ayuda a crear relaciones con las comunidades para las que estás diseñando.
La mayor diferencia con otros métodos es que los participantes son colaboradores que toman decisiones de diseño junto con los equipos de producción. Para ello, es importante generar confianza, construir una asociación equitativa y comunicarse abiertamente y de forma frecuente.
Listaron decenas de errores habituales, como tener un objetivo vago, pensar que todos tienen el mismo contexto, incluir demasiadas actividades sin descansos o obsesionarse con alcanzar el prototipo perfecto discutiendo ideas sin llegar a construir.
A machine-learning-powered visual tour guide for attentional disorders
Las personas prefieren patrones simétricos o formas curvas, sin embargo, esto no explica en la mayoría de los casos las preferencias individuales en relación con una misma imagen. ¿Por qué a unos nos gusta y a otros no? La respuesta es que quizás nos estamos fijando en partes o aspectos diferentes.
La psicóloga Hong B. Nguyen nos presentó un experimento en el que miras una imagen muy bonita en su conjunto a través de un pequeño círculo. Según en qué parte de la imagen te centras, ésta parece bonita o fea. En base a esto, ¿inducir a una persona a prestar atención de manera similar a otra persona puede hacer que le guste la imagen de manera similar?
Están experimentando la transferencia de atención para ayudar a las personas con déficit de atención, igual que un guía turístico nos proporcionan información, pero también guía nuestra atención a cosas relevantes o curiosas.
En otro experimento similar, comprobaron si la atención influye en la predicción de lo que ocurre a continuación. Los resultados han mostrado que el participante que veía los patrones de atención que más le gustaban era significativamente mejor anticipando qué vista venía a continuación en comparación con el patrón de atención que menos le gustaba.
Concluyen que las guías de atención ayudan a que te gusten más las imágenes, y que el patrón de atención que más te gusta mejora las preferencias, pues nos permite predecir qué viene después. Sin embargo, en este estudio, solo trasplantamos la atención de una persona a la vez, lo que significa que nuestros resultados dependen en gran medida de las particularidades de cómo se enfocaron los participantes en particular. Para crear una guía que apunte de manera más confiable a la región que hará que a uno le guste más la imagen, a veces un grupo de personas puede ser más sabio que un individuo.
Entonces, a continuación intentaron aprovechar la sabiduría de la multitud entrenando una guía de aprendizaje automático basada en la trayectoria del cuartil superior de las personas que más les gustan las imágenes dadas. Para cada uno de estos modelos, realiza una predicción basada en todas las trayectorias anteriores y siempre predice hacia dónde irá la persona que más le gusta la imagen.
En este sistema, el participante receptor se mueve libremente alrededor de la imagen. En lugar de obligarlos a mirar a un lugar, el modelo de aprendizaje automático les mostrará una flecha para sugerir dónde deberían mirar para disfrutar de una imagen.
Pues vamos más allá, construyamos una "guía turística VR" para optimizar el aprendizaje usando la transferencia de atención, con el objetivo de ayudar a aprender material educativo en entornos VR a estudiantes con problemas de deficit de atención. Se desarrolla en una galería virtual, donde hay obras de artes y exhibiciones de física.
Artículos relacionados
- General - Diferentes discapacidades
- Accesibilidad en XR, metaverso accesible e inclusivo. Guía de accesibilidad en entornos de Realidad Virtual (VR), 2022
- Ejemplos de opciones de accesibilidad en entornos de realidad virtual (VR) 2023. Metaverso accesible e inclusivo, 2023
- Accesibilidad de formularios en entornos de realidad virtual. Metaverso inclusivo, 2023
- Discapacidad auditiva
- Análisis de aplicaciones VR concretas
- Probando las características de accesibilidad de Cosmonious High (Realidad Virtual), 2023
- Opciones de accesibilidad en un laboratorio de química en Realidad Virtual (VR), accesibilidad en entornos de aprendizaje , 2023
- Viajar en Realidad Virtual. Opciones de accesibilidad. Metaverso y turismo inclusivo, 2024
- Reseñas de libros
- Cursos y ponencias