Reduciendo los accidentes de montaña a través de Machine Learning y Design Thinking.

Julio Siñeriz
11 min readJun 1, 2022

--

Alpamayo (5947m)

El Servicio de Montaña de la Guardia Civil (GREIM) realizó 974 y 981 rescates en 2018 y 2019. Este año van 285 rescates en montaña, 44 rescates de agua, 9 en cuevas y otros 44 en zonas de difícil acceso.

Realizando un desk research, cada día te puedes encontrar noticias como estas de las fotos. Demasiado normalizadas a día de hoy y demasiadas pocas, diría yo.

Pero ojo, que no solamente pasa con gente que no va preparada para las actividades, sino también a gente experta como deportistas, alpinistas o escaladores, tanto aficionados como de élite.

¿Sabemos el coste de estos rescates? Por poner una media estimada, ya que depende de cada comunidad autónoma, podemos decir:

  • 57,08 €/por cada agente que participe en el operativo.
  • 69,85€/ por cada médico sanitario.
  • 59,14 € por cada vehículo.
  • 2.155,79 € por helicóptero.

Total aprox. de un rescate: 3000€

[ Reto ]

La comunidad alpinista depende siempre de muchos factores como la climatología, alojamientos, regulaciones, cantidad de gente… para poder desarrollar sus actividades con seguridad.

Es necesario estar muy actualizado, ya que la información que se puede encontrar puede variar o no servir de unos días para otros.

Actualmente, no existe modo alguno de estar al día de una manera sencilla, salvo compartir la información por grupos o consultar muchas páginas webs de todas partes.

Mejorar la UX en la información de montaña. Ayudar a recabar, comprobar y mantener al día la información

[ Metodología Design Thinking]

_ Explorar y descubrir

Necesitamos saber qué quiere para poder ayudarle, y para ello me planteé una serie de research questions sobre todos los problemas que plantea una salida de montaña: normativas, equipamiento, información, legislaciones en comunidades autónomas, rescates, climatología, comunicación con refugios, webcams, accidentes, etc…

Aproveché estas preguntas y realicé una entrevista a Joaquín Colorado, guía de alta montaña, especialista en climatología, aperturista de muchas ascensiones por España y escritor de varios libros sobre riesgo en la escalada y alpinismo.

Pude extraer unos “verbatines” realmente interesantes de la amena entrevista:

“El ego. La mayoría de accidentes suceden porque no se hace caso de la climatología o de las recomendaciones de otras personas.”

“A día de hoy prácticamente tienes toda la información en internet, solo tienes que saber buscarla y entenderla. No es como antes. El problema es que está desperdigada, hay demasiada y no te puedes fiar.”

La imprudencia, como causa principal de accidentes, impera sobre el despiste, el error técnico, el riesgo objetivo o la mala suerte. Pero la imprudencia no es producto de nuestra condición de montañero o alpinista, sino de nuestra naturaleza humana, seamos lo que seamos, nos guste lo que nos guste. En buena parte dependemos de la atención y concentración que pongamos durante nuestras prácticas: no es fácil detectar algo de lo que no estás pendiente.”

Con toda la información que recopilé en la entrevista, pasé a realizar unos cuestionarios, enfocados a saber la forma en que actualmente se preparan las personas las salidas a la montaña, los cuáles distribuí por canales especializados en estos deportes.

Fuente: formulario creado con Google Docs.

Menos del 50% de las personas buscan información en medios analógicos.

Fuente: formulario creado con Google Docs.

Toda la información que los usuarios consideran importante la pude dividir en 3 grandes bloques:

  • DATOS FIJOS: Cordillera montañosa, ruta, altura, distancia, dificultad, orientación, recorrido, croquis, desniveles, material, accesos…
  • DATOS CLIMA Y WEBCAM: Mapas y climatología general (lluvia, nieve, viento…) y webcams.
  • DATOS SENSIBLES O CAMBIANTES: Comentarios recientes de la gente como huella, estado de la nieve o hielo, cantidad de gente que había…
Fuente: formulario creado con Google Docs.
  • Solo un 20% usa un medio analógico.
  • Un 40% consulta las webcams del lugar a través de internet.
  • Los modelos climatológicos se pueden reducir a 2 principales: AEMET y Meteoblue.
Fuente: formulario creado con Google Docs.
  • Un 93% querría saber rutas alternativas posibles a su actividad en el lugar debido a la posible masificación.
  • Un 78% estaría interesado en otras actividades en el lugar aunque no fueran de este deporte.

En este punto, decidí adentrarme en el mundo de los datos, y quiénes mejor que los “data scientist” para saber qué hacer y cómo manejar los datos y sus ubicaciones o almacenamiento.

Entrevista a Sergio Gámez

Entrevisté primeramente a Sergio Gámez, data scientist en Amazon, del cuál tengo que decir que tuvo una paciencia enorme para hacerme comprender el complejo mundo de los algoritmos y la estructura de datos.

Extraje una serie de puntos muy interesantes entorno a todo este mundo:

  • Existen Web Service: Es una colección de protocolos y estándares usados para intercambiar datos.
  • Un algoritmo informático es un conjunto de instrucciones definidas para resolver un problema o desarrollar una tarea.
  • Se puede realizarweb scraping” con algoritmos y extraer los datos que queramos de cualquier sitio, para almacenarlos en nuestra base de datos.
  • “Los algoritmos, a través del texto, pueden segmentar información, lo que llamamos: ENTITY RECOGNITION”.
Jaime Roquero Giménez, Data Scientist especializado en Machine Learning

La segunda entrevista fue realizada a Jaime Roquero Giménez, Data Scientist especializado en Machine Learning para la gestión de proteínas en el ámbito de la bioquímica.

Saber diferenciar entre algoritmos y machine learning, y las múltiples aplicaciones que pueden tener no fue una tarea fácil, pero obtuve otra serie de puntos muy importantes para encaminar mi investigación y saber hacia dónde podía ir mi idea:

  • Un machine learning es un modelo que intentan aprender algo e iterarlo.
  • Existen dos modelos de ML: predicción o inferencia. Predicción: qué cantidad de abrigos se van a vender el año que viene. Inferencia: tienes muchos datos y quieres relacionarlos.
  • Entre 2000 y 5000 datos estructurados son necesarios para crear un modelo.

_ Fase de definición

Empecé a hacerme una serie de preguntas que eran propias de un usuario, así que definí mi “user persona” para poder entender mejor las metas, frustraciones y su “journey”.

User persona desarrollado en FIgma
  • “Paso más de 1 semana buscando y comparando información.”
  • “Tengo que entrar en varias webs de reseñas, materiales y modelos climatológicos para compararlos y estar al día.”

Realicé un benchmark comparativo de las webs que los usuarios comentaron en los formularios. Las dividí en: webs y apps, rrss y blogs y foros. Así pude averiguar la calidad de la fuentes, en función de los 3 tipos de datos que necesita mi proyecto.

Fuente: Benchmark propio desarrollado en Figma
  • Ninguna de las fuentes de los usuarios es 100% completa.
  • Las webs/blogs de calidad, tienen incorporadas API´s de climatología.
  • Los datos “cambiantes o sensibles” son los más difíciles de localizar y únicamente están en las redes y blogs.

_ Elección del reto e ideación

Tras valorar todas las pruebas realizadas y con las conclusiones de nuestra investigación definidas, obtuvimos una ideas muy claras:

  • Nuestra solución no puede ser analógica sino digital.
  • Debe aunar, comparar y mantener actualizada toda la información de los principales sitios de alpinismo de consulta.
  • Los modelos metereológicos del lugar deben estar integrados con las consultas, ser de fácil acceso y estar correlacionados.
  • Permitir o traer comentarios de actualidad de usuarios que hayan realizado la actividad, para así valorar el estado o riesgo de la misma.

MOUNTAIN INFO: Una web responsive que centralizará toda la información necesaria y actualizada para preparar tus salidas de alpinismo y hielo.

Desarrollamos nuestra idea, basándonos en los comentarios de los data scientist para poder recopilar los datos de los tres grupos que necesitamos, utilizando los servicios de AMAZON WEB SERVICE: una colección de servicios públicos de computación en la nube ofrecidos a través de Internet por Amazon.com. Empresas populares como Dropbox, Foursquare, HootSuite utilizan sus servicios de datos.

Logotipo de Amazon Web Service

Dentro de los numerosos servicios que ofrece AWS utilizaremos varios para nuestro propósito:

  1. Amazon Kendra: es un servicio de búsqueda inteligente basado en machine learning (ML) para scrappear webs.

Hará “web scrapping” de todas las webs útiles y así los usuarios podrán encontrar fácilmente el contenido que buscan, aun cuando se encuentre esparcido entre distintos lugares y repositorios. Introduciremos todos los datos en una base de datos propia donde se realizará la comparación y actualización de dicha información.

Utilizamos todas las comentadas por los usuarios en los cuestionarios y aún así siempre podremos añadirle más sites para la búsqueda de información

Webs especializadas con contenido estructurado que nos interesa sobre reseñas y ascensiones.

De Amazon Kendra obtenemos varios puntos inportantes en cuanto a su comportamiento:

  • Encuentra los datos y respuestas pertinentes de manera rápida.
  • Centralizará el acceso al conocimiento.
  • Ajusta los resultados de la búsqueda de los usuarios a la información etiquetada.
  • La implementación de dicho servicios se realiza con unos pocos clics, es altamente sencilla.

2. Blazing Text: Un MACHINE LEARNING de Amazon Sagemaker, que es útil para muchas tareas de procesamiento de lenguaje natural (NLP) posteriores, como por ejemplo el reconocimiento de una entidad nombrada.

El ML recogerá todos los comentarios de los sitios que le indiquemos y a través de una estructura de “inputs” y “outputs” le iremos enseñando a extraer la información necesaria y transformarla por ejemplo en un sistema de puntuaciones del estado de la nieve, accesos, descensos, estado de la huella, etc…

Ejemplos de etiquetado según el reconocimiento del NPL

Algúnos ejemplo de como funcionaría:

{“source”:”la nieve a la entrada del corredor era escasa y la que había más adelante estaba muy papa”, “label”:”nieve de mala calidad”, “1”}

{“source”:”Cascadas formadas en varias líneas”, “label”:”hielo en buenas condiciones”, “5”}

{“source”:”Aproximación al refugio bastante penosa”, “label”:”Acceso en malas condiciones”, “2”}

El uso de este MACHINE LEARNING nos permitirá:

  • Una Capacitación acelerada del clasificador de texto, una vez le hayamos expuesto entre 2000 y 5000 inputs de ejemplo.
  • Creará relaciones semánticas entre palabras, como los lugares y su estado.

3. Integración API´s y webcams

Una API (del inglés: Application Programming Interface), es el conjunto funciones y procedimientos que ofrece un ente para ser utilizado por un software de un tercero para la obtención de datos, información, documentos…

Para nuestro proyecto usaremos las indicadas por preferencia de los usuarios respecto al tiempo (aemet y meteoblue) y Windy Api para las webcams.

Desarrollé la propuesta de valor y el modelo de negocio a través de un “business model cavas, dejando muy claros nuestros puntos fuertes en base al usuario.

Business Model Canvas creado en Figma
  • Claridad: aportar información de calidad y contrastada.
  • Climatología: centralizamos todos los estudios meteorológicos del lugar.
  • Actualidad: los datos/comentarios más actuales podrás verlos todos juntos sin tener que recorrer por horas otras webs.
  • Socialización: búsqueda de personas para hacer tu actividad y cambiar material. Creación de comunidad.

Además contemplé la posibilidad de monetizar por distintos socios como: marcas de montaña, aseguradoras de accidentes, federaciones, alojamientos o empresas de aventuras, mediante “branded content” por ejemplo.

También previamente, en los cuestionarios, me adelanté con 2 preguntas acerca de la publicidad de terceros y el pago directo por suscripción mensual o anual sobre la web/app, siendo ambos resultados muy positivos.

- Publicidad de marcas y empresas. Más del 50% aceptaría esta publicidad.

  • Pagos por uso de la web/app, pasado un tiempo de uso, creada una comunidad y teniendo una base de datos muy potente. Un 77% estaría dispuesto a pagar alguna cantidad entre 1€ y 15€.

_ Fase de Prototipado

Comenzamos con la imagen corporativa, buscando una imagen representativa de la función de nuestro producto: LOCALIZAR VÍAS DE ASCENSIONES A MONTAÑAS POR TODO EL MUNDO. Aunque en esta primera fase nos centremos en España.

Para los colores hice un análisis de distintas fotografías de montañas y las introduje en Figma, con los plugins Image Palette, Color Compass y también la web https://colors.eva.design/”. Así obtener unos colores primarios, secundarios, sus gamas y colores semánticos de la aplicación.

Para las tipografías, buscaba una combinación elegante de formas rectas y fuertes. Una principal para encabezados y destacadas, con palo de gran peso y con serifas, así que tras una investigación y pruebas me decanté por la Zilla Slab. Contemporánea y redonda, con gran variedad dentro de su familia. Para el texto regular quería otro tipografía, pero esta vez sin serifas. Y tras varias comparaciones me decanté por la Ralewey, una tipografía geométrica con unas ligaduras discretas y también gran variedad de pesos dentro de la familia.

Una vez ya definidos colores, las tipografías, el peso de las mismas y los tamaños a utilizar… Era momento de hacer un “site map”, así que traté de ceñirme a la Ley de Miller para crear un menú que no superara los 7 elementos y conseguí organizar la arquitectura de toda la información en tan solo 6 menús principales: Actividades (alpinismo y hielo), Reseñas, Webcams, Salidas o Compañeros, Mercadillo y Contacto.

Sitemap creado en https://octopus.do/

Crear el sitemap me permitió comprender que a la hora de realizar los wireframes no iba a poder hacerlos de golpe, sino que tendría que ir analizando el contenido sección por sección para poder organizar los datos a mostrar ya que son una cantidad muy grande y de diferentes fuentes.

También pude pensar en su estructura y la mejor forma para poder visualizarlos, tanto en “mobile” como en “desktop”, y valorar el uso de distintas soluciones como “dropdowns”, “tabs”, “tags”, el flujo de navegación de los usuarios, etc…

Wireframes desktop y mobile hechos a mano.

Os dejo unos videos funcionales de ciertos apartados.

Prototipo desktop: Home > Alpinismo > Página final contraída > Página final desarrollada.

Prototipo mobile: Página final desarrollada > Secciones interiores (descripción, webcam y meteo, reseñas)

Imágenes del prototipo realizado en Figma

_ Futuribles y Conclusiones

Como futuribles hemos dejado ciertas posibilidades:

  • Aumentar a otros deportes, ya que hemos visto que los usuarios si estarían dispuestos a recoger información relacionada con el lugar de actividad principal, incluso anuncios.
  • Aumentar lugares e idiomas fuera de España, porque tampoco hemos encontrado competencia al respecto.

Conclusiones:

  • Creamos una comunidad de alpinistas mejor y más informados, reduciendo así los posibles accidentes y rescates.
  • Utilizamos tecnología que aprende y mejora por si sola, para ayudar a las personas.
  • Centramos la última información sobre cualquier ascensión y el estado de la ruta, lo que aporta seguridad.
  • Unificamos y conectamos con la búsqueda los modelos meteorológicos más usados.

Espero que os haya gustado tanto como a mi poder aportar algo a la comunidad tanto de ux/ui como a la alpina. Gracias a todos los que han participado en las encuestas.

--

--

Julio Siñeriz

UX/UI Designer & Project Manager at Kreativework.com. As Hannibal Smith would say: “I love when plans go well.”