¿Cómo evaluar la experiencia de personas mayores en servicios digitales masivos?
La evaluación de la experiencia de las personas mayores en servicios digitales masivos requiere un enfoque multidimensional: técnico, humano y ético. La creciente proporción de población mayor obliga a diseñar, medir y mejorar plataformas (banca, salud, comercio, transporte, administración pública) de manera que sean seguras, útiles y fáciles de usar para quienes presentan diversidad funcional asociada a la edad.
Por qué resulta apremiante evaluar esta experiencia
- Demografía: de acuerdo con Naciones Unidas, la cantidad de personas con 60 años o más crecerá de manera considerable en las próximas décadas, lo que exige que los servicios de gran alcance atiendan adecuadamente a ese grupo.
- Impacto social: la exclusión digital provoca obstáculos que dificultan el acceso a beneficios, atención sanitaria y derechos esenciales.
- Riesgos financieros y de seguridad: fallos o malentendidos durante operaciones pueden derivar en pérdidas económicas o en mayor vulnerabilidad frente a fraudes.
Componentes clave de la evaluación
- Accesibilidad técnica: observancia de las pautas de accesibilidad web, ajustes de contraste, ampliación tipográfica, uso adecuado de etiquetas semánticas y compatibilidad con herramientas de asistencia.
- Usabilidad: sencillez para llevar a cabo acciones esenciales como crear una cuenta, acceder, efectuar pagos o pedir una cita.
- Comprensibilidad: empleo de un lenguaje directo, mensajes de error orientativos y ausencia de tecnicismos, además de instrucciones claramente delineadas.
- Sostenibilidad de uso: provisión de soporte, capacitación y ayudas contextuales que faciliten la continuidad en la utilización del servicio.
- Seguridad percibida y confianza: sensación de resguardo de la privacidad y de protección ante posibles fraudes.
Métricas cuantitativas recomendadas
- Tasa de éxito de tareas: proporción de personas mayores que logran finalizar una actividad sin apoyo.
- Tiempo medio por tarea: duración empleada por cada usuario para completar acciones esenciales, útil para identificar puntos de fricción.
- Tasa de abandono: porcentaje de individuos que comienzan un procedimiento pero no lo concluyen, como un pago o un registro.
- Errores por tarea: cantidad de fallos repetidos, como clics en áreas incorrectas o campos completados de forma errónea.
- Índice de satisfacción: valoraciones tras una tarea o sesión, generalmente en escalas de 1 a 5 o equivalentes.
- Uso de ayuda: regularidad con la que las personas mayores solicitan asistencia por teléfono, chat o material tutorial.
Métodos cualitativos imprescindibles
- Pruebas con usuarios representativos: sesiones guiadas en las que adultos mayores de diversos perfiles llevan a cabo tareas auténticas, dando prioridad tanto a la observación directa como a los comentarios expresados en el momento.
- Entrevistas en profundidad: indagar expectativas, inquietudes y situaciones de uso, por ejemplo cuando interactúan con la plataforma con apoyo de familiares.
- Diarios de uso: anotaciones recogidas durante varias semanas que revelan rutinas reales, momentos de mayor actividad y fallos que aparecen con frecuencia.
- Estudios etnográficos: visitas al domicilio para analizar el contexto digital, los dispositivos disponibles y las fuentes habituales de asistencia.
- Grupos focales segmentados: investigar percepciones compartidas, términos que prefieren y obstáculos recurrentes.
Segmentación y criterios de muestreo
- Edad y subgrupos: 60–69, 70–79, 80+. La capacidad funcional varía dentro de cada rango.
- Capacidades funcionales: visión reducida, audición, movilidad de manos, memoria y atención.
- Nivel de alfabetización digital: desde nativos digitales tardíos hasta usuarios mínimos; incluir quienes dependen de intermediarios.
- Contexto socioeconómico: acceso a dispositivos, calidad de internet, soporte familiar.
Diseño de tareas de evaluación
- Establecer tareas prácticas y pertinentes, como acceder a la cuenta, recuperar una contraseña, efectuar un pago, agendar una cita médica o revisar el historial.
- Agregar situaciones con posibles interrupciones, por ejemplo una llamada imprevista, una caída de la conexión o la ausencia del comprobante impreso.
- Registrar desde el primer contacto cuánto tardan en comprender la función, y no únicamente el tiempo de ejecución.
- Autorizar ayuda simulada en ciertos casos para identificar la cantidad y el tipo de apoyo que necesitan.
Accesibilidad y diseño orientado a la edad
- Tipografía y disposición: uso de una fuente clara, tamaños ajustables por la persona usuaria, interlineado amplio y adecuada distancia entre zonas táctiles.
- Contraste y color: paletas con contraste elevado y variantes aptas para daltónicos; se recomienda no basar la comunicación únicamente en el color.
- Navegación simplificada: recorridos breves, alternativas visibles y evitar menús demasiado profundos.
- Lenguaje claro: indicaciones precisas, sin abreviaturas, con ejemplos sencillos y avisos de confirmación explícitos.
- Protecciones ante errores: guardado en segundo plano, avisos previos a acciones sensibles y posibilidad de revertir cambios.
Aspectos éticos y de reclutamiento
- Consentimiento informado: detallar con claridad la finalidad del test, cómo se registrarán los datos y cuáles son los derechos del participante.
- Privacidad: asegurar la anonimización de la información y resguardar cualquier grabación que revele datos personales.
- Compensación y accesibilidad del lugar: cubrir los traslados, adecuar los espacios físicos o virtuales y brindar asistencia técnica previa.
- Representatividad: reducir sesgos evitando reclutar únicamente a usuarios activos e incorporando también a quienes dejaron de utilizar el servicio.
Análisis de resultados y priorización
- Clasificar fricciones por impacto y frecuencia: problemas críticos que impiden transacciones tienen prioridad alta; problemas menores de usabilidad, prioridad media.
- Mapas de recorrido y puntos de dolor: identificar etapas con mayor abandono o confusión.
- Propuestas de solución testables: prototipos de baja fidelidad para validar cambios antes de lanzar a producción.
- Medir efecto de las mejoras: comparar métricas antes y después con cohortes equivalentes (personas mayores).
Casos prácticos ilustrativos
- Banca digital: un banco masivo identificó 40% de abandonos en transferencia por confusión en selección de cuentas. Tras simplificar el formulario, aumentar tamaño de campo y añadir confirmación hablada opcional, la tasa de éxito subió 25% entre usuarios mayores y las llamadas al centro de ayuda se redujeron 30%.
- Portal de salud: una plataforma de citas detectó que personas de más de 75 años no finalizaban el proceso por no entender ventanas emergentes. Rediseñaron con lenguaje directo y un flujo lineal; la tasa de cita confirmada aumentó 18% en ese segmento.
- Comercio electrónico: una tienda implementó un modo «versión para mayores» con botones más grandes y soporte por teléfono visible. La conversión en usuarios de 70+ mejoró, pero surgió dependencia del soporte telefónico; se decidió entrenar a usuarios con microvideos y ofrecer asistencia por videollamada guiada.
Indicadores de éxito a mediano plazo
- Reducción sostenida de la tasa de abandono en procesos críticos.
- Aumento en la frecuencia de uso sin asistencia externa.
- Mejora en el índice de confianza y percepción de seguridad.
- Descenso en llamadas al soporte por tareas básicas.
Sugerencias útiles para optimizar el trabajo de los equipos
- Incluir a las personas mayores desde la fase inicial del diseño y en cada ciclo de revisión.
- Incorporar evaluaciones de accesibilidad dentro del proceso continuo de desarrollo.
- Establecer indicadores diferenciados por edad y nivel de capacidad para identificar posibles desigualdades.
- Capacitar a los equipos de atención con un lenguaje empático y procedimientos ajustados.
- Registrar las modificaciones y difundir los aprendizajes para facilitar la réplica de soluciones en otros servicios.
Al evaluar la experiencia de las personas mayores en servicios digitales masivos se combinan datos, observación directa y sensibilidad social. Medir no solo revela problemas técnicos, sino también brechas en diseño, comunicación y acompañamiento. Las mejoras que facilitan el acceso a este segmento suelen beneficiar a todos los usuarios y fortalecen la equidad digital; por eso la evaluación debe ser continua, inclusiva y orientada a soluciones concretas y mensurables.
