¿Cómo evaluar la experiencia de personas mayores en servicios digitales masivos?

¿Cómo evaluar la experiencia de personas mayores en servicios digitales masivos?

La evaluación de la experiencia de las personas mayores en servicios digitales masivos requiere un enfoque multidimensional: técnico, humano y ético. La creciente proporción de población mayor obliga a diseñar, medir y mejorar plataformas (banca, salud, comercio, transporte, administración pública) de manera que sean seguras, útiles y fáciles de usar para quienes presentan diversidad funcional asociada a la edad.

Por qué es urgente medir esta experiencia

  • Demografía: según Naciones Unidas, la proporción de personas de 60 años o más aumentará notablemente durante las próximas décadas, por lo que los servicios masivos deben responder a ese segmento.
  • Impacto social: exclusión digital genera barreras al acceso a prestaciones, salud y derechos.
  • Riesgos financieros y de seguridad: errores o confusiones en transacciones pueden traducirse en pérdidas económicas o exposición a fraudes.

Componentes clave de la evaluación

  • Accesibilidad técnica: observancia de las pautas de accesibilidad web, ajustes de contraste, ampliación tipográfica, uso adecuado de etiquetas semánticas y compatibilidad con herramientas de asistencia.
  • Usabilidad: sencillez para llevar a cabo acciones esenciales como crear una cuenta, acceder, efectuar pagos o pedir una cita.
  • Comprensibilidad: empleo de un lenguaje directo, mensajes de error orientativos y ausencia de tecnicismos, además de instrucciones claramente delineadas.
  • Sostenibilidad de uso: provisión de soporte, capacitación y ayudas contextuales que faciliten la continuidad en la utilización del servicio.
  • Seguridad percibida y confianza: sensación de resguardo de la privacidad y de protección ante posibles fraudes.

Métricas cuantitativas recomendadas

  • Tasa de éxito de tareas: proporción de personas mayores que logran finalizar una actividad sin apoyo.
  • Tiempo medio por tarea: duración empleada por cada usuario para completar acciones esenciales, útil para identificar puntos de fricción.
  • Tasa de abandono: porcentaje de individuos que comienzan un procedimiento pero no lo concluyen, como un pago o un registro.
  • Errores por tarea: cantidad de fallos repetidos, como clics en áreas incorrectas o campos completados de forma errónea.
  • Índice de satisfacción: valoraciones tras una tarea o sesión, generalmente en escalas de 1 a 5 o equivalentes.
  • Uso de ayuda: regularidad con la que las personas mayores solicitan asistencia por teléfono, chat o material tutorial.

Métodos cualitativos imprescindibles

  • Pruebas con usuarios representativos: sesiones guiadas en las que adultos mayores de diversos perfiles llevan a cabo tareas auténticas, dando prioridad tanto a la observación directa como a los comentarios expresados en el momento.
  • Entrevistas en profundidad: indagar expectativas, inquietudes y situaciones de uso, por ejemplo cuando interactúan con la plataforma con apoyo de familiares.
  • Diarios de uso: anotaciones recogidas durante varias semanas que revelan rutinas reales, momentos de mayor actividad y fallos que aparecen con frecuencia.
  • Estudios etnográficos: visitas al domicilio para analizar el contexto digital, los dispositivos disponibles y las fuentes habituales de asistencia.
  • Grupos focales segmentados: investigar percepciones compartidas, términos que prefieren y obstáculos recurrentes.

Segmentación y criterios de muestreo

  • Edad y subgrupos: 60–69, 70–79, 80+. En cada franja la autonomía y el desempeño cotidiano pueden cambiar de forma notable.
  • Capacidades funcionales: limitaciones visuales, dificultades auditivas, destreza manual reducida, así como variaciones en memoria y concentración.
  • Nivel de alfabetización digital: desde quienes se incorporaron tardíamente al mundo digital hasta usuarios muy básicos; también considerar a quienes requieren apoyo de terceros.
  • Contexto socioeconómico: disponibilidad de dispositivos, estabilidad de la conexión a internet y presencia de redes de apoyo familiar.

Diseño de tareas de evaluación

  • Definir tareas realistas y relevantes: iniciar sesión, recuperar contraseña, realizar pago, reservar cita médica, consultar historial.
  • Incluir escenarios con interrupciones: llamada entrante, desconexión de red, comprobante impreso no disponible.
  • Medir desde la primera interacción: tiempo hasta entender la función, no solo la ejecución.
  • Permitir asistencia simulada en algunos escenarios para medir cuánto y qué tipo de ayuda requieren.

Accesibilidad y diseño específico para edad

  • Tipografía y disposición: fuente legible, tamaño escalable por el usuario, buen interlineado y separación entre elementos táctiles.
  • Contraste y color: colores con contraste alto y alternativas para daltónicos; evitar depender solo del color para transmitir información.
  • Navegación simplificada: caminos cortos, opciones claras, evitar menús anidados profundos.
  • Lenguaje claro: instrucciones directas, evitar abreviaturas, ejemplos concretos y confirmaciones explícitas.
  • Protecciones ante errores: guardado automático, confirmaciones antes de acciones críticas, opciones de deshacer.

Aspectos éticos y de reclutamiento

  • Consentimiento informado: explicar claramente el propósito de la prueba, la grabación de datos y derechos del participante.
  • Privacidad: anonimizar datos y proteger grabaciones que muestren información personal.
  • Compensación y accesibilidad del lugar: cubrir desplazamiento, adaptar instalaciones físicas o virtuales y ofrecer apoyo técnico previo.
  • Representatividad: evitar sesgos por reclutar solo usuarios ya activos; incluir quienes han abandonado el servicio.

Análisis de resultados y priorización

  • Clasificar fricciones por impacto y frecuencia: problemas críticos que impiden transacciones tienen prioridad alta; problemas menores de usabilidad, prioridad media.
  • Mapas de recorrido y puntos de dolor: identificar etapas con mayor abandono o confusión.
  • Propuestas de solución testables: prototipos de baja fidelidad para validar cambios antes de lanzar a producción.
  • Medir efecto de las mejoras: comparar métricas antes y después con cohortes equivalentes (personas mayores).

Casos prácticos ilustrativos

  • Banca digital: un banco masivo identificó 40% de abandonos en transferencia por confusión en selección de cuentas. Tras simplificar el formulario, aumentar tamaño de campo y añadir confirmación hablada opcional, la tasa de éxito subió 25% entre usuarios mayores y las llamadas al centro de ayuda se redujeron 30%.
  • Portal de salud: una plataforma de citas detectó que personas de más de 75 años no finalizaban el proceso por no entender ventanas emergentes. Rediseñaron con lenguaje directo y un flujo lineal; la tasa de cita confirmada aumentó 18% en ese segmento.
  • Comercio electrónico: una tienda implementó un modo «versión para mayores» con botones más grandes y soporte por teléfono visible. La conversión en usuarios de 70+ mejoró, pero surgió dependencia del soporte telefónico; se decidió entrenar a usuarios con microvideos y ofrecer asistencia por videollamada guiada.

Indicadores de éxito a mediano plazo

  • Reducción sostenida de la tasa de abandono en procesos críticos.
  • Aumento en la frecuencia de uso sin asistencia externa.
  • Mejora en el índice de confianza y percepción de seguridad.
  • Descenso en llamadas al soporte por tareas básicas.

Sugerencias útiles para optimizar el trabajo de los equipos

  • Incluir a las personas mayores desde la fase inicial del diseño y en cada ciclo de revisión.
  • Incorporar evaluaciones de accesibilidad dentro del proceso continuo de desarrollo.
  • Establecer indicadores diferenciados por edad y nivel de capacidad para identificar posibles desigualdades.
  • Capacitar a los equipos de atención con un lenguaje empático y procedimientos ajustados.
  • Registrar las modificaciones y difundir los aprendizajes para facilitar la réplica de soluciones en otros servicios.

Al analizar cómo las personas mayores interactúan con servicios digitales de gran escala se integran datos, observación directa y una mirada social atenta; esta medición no solo destapa fallas técnicas, sino que también pone en evidencia vacíos en diseño, comunicación y apoyo. Ajustes que hacen más sencillo el uso para este grupo suelen repercutir positivamente en toda la comunidad de usuarios y refuerzan la equidad digital, de modo que la evaluación debe mantenerse constante, ser inclusiva y orientarse a soluciones precisas y verificables.

Por José Padron