Understanding how well your business keeps customers engaged is crucial for success. Retention rate is a key metric to measure this success, but there's no one-size-fits-all approach. Depending of your goals and therefore your KPIs you can choose one of them to measure strategies or tactics. Let's explore three common retention methodologies:
Classic Retention (Day N)
This method tracks the percentage of new users who return on a specific day. For example, if 3 out of 10 new users return on the second day, your Day 2 retention rate is 30%.
Benefits: Daily granularity, easy to explain and calculate.
Limitations: Sensitive to daily fluctuations.
Best for: Measuring the immediate impact of short-term campaigns or analyzing day-to-day retention trends.
Range Retention
This measures retention over a specific time interval, like a week or a month. For instance, if 9 out of 50 new users return within the first week, your first-week retention rate is 18%.
Benefits: Smooths out daily noise, easy to explain, good for long-term trend analysis.
Limitations: Less granular, longer lag time for results.
Best for: Monitoring overall business health and identifying weekly or monthly behavioral patterns.
Rolling Retention
This calculates the percentage of new users who return on or after a specific day. It provides a single metric representing long-term customer engagement.
Benefits: Fast to calculate, reflects overall stickiness.
Limitations: Open-ended, can be constantly changing, doesn't differentiate between frequent and infrequent users.
Best for: Supplementing other KPIs and understanding long-term customer relationships.
Choosing the Right Method
Classic Retention: Ideal for tracking short-term campaigns and daily engagement.
Range Retention: Best for monitoring overall business health and identifying behavioral patterns.
Rolling Retention: Useful for supplementing other metrics and understanding long-term customer relationships.
Dentro de la metodología de innovación en design thinking se puede hacer uso del diagrama de Ishikawa.
El Diagrama de Ishikawa, también conocido como Diagrama de Espina de Pescado, una herramienta visual poderosa que te ayudará a navegar por las complejidades del proceso creativo y a asegurar que tu producto final sea un éxito rotundo.
El Diagrama de Ishikawa es una herramienta versátil y valiosa para cualquier equipo de desarrollo de productos. Al utilizarlo de manera efectiva, podrás anticipar y superar obstáculos, optimizar tus procesos y, en última instancia, crear productos que deleiten a tus clientes y impulsen el éxito de tu negocio.
¿Qué es el Diagrama de Ishikawa?
Imagina el esqueleto de un pez: la cabeza representa el problema o efecto que quieres analizar (en este caso, un producto fallido o con margen de mejora), y las espinas son las posibles causas que contribuyen a ese resultado. Estas causas se clasifican en categorías principales, como:
Métodos: Procesos de diseño, desarrollo, producción.
Mano de Obra: Habilidades, capacitación, motivación del equipo.
Materiales: Calidad, disponibilidad, costo de los insumos.
Medio Ambiente: Condiciones de trabajo, factores externos.
Mediciones: Métricas, sistemas de control de calidad.
¿Cómo Aplicarlo en la Creación de Productos?
Define el Problema: ¿Qué quieres lograr con tu producto? ¿Qué desafíos o problemas potenciales anticipas?
Identifica las Categorías Principales: Adapta las categorías tradicionales (6M) a tu contexto específico. Por ejemplo, en desarrollo de software, podrías considerar "Código", "Diseño UX/UI", "Requisitos", etc.
Lluvia de Ideas: Reúne a tu equipo y genera ideas sobre las posibles causas que podrían afectar el éxito del producto, asignándolas a las categorías correspondientes.
Profundiza en las Causas Raíz: Analiza cada causa y busca subcausas más específicas. Utiliza preguntas como "¿Por qué sucede esto?" para llegar al fondo del asunto.
Prioriza y Actúa: Identifica las causas más impactantes y desarrolla soluciones concretas para abordarlas.
Beneficios del Diagrama de Ishikawa:
Fomenta la Colaboración: Involucra a todo el equipo en la identificación y resolución de problemas.
Visualiza las Relaciones: Permite ver claramente cómo las diferentes causas interactúan y afectan el resultado final.
Promueve el Pensamiento Crítico: Estimula el análisis profundo y la búsqueda de soluciones efectivas.
Previene Problemas Futuros: Al identificar y abordar las causas raíz, se reducen las posibilidades de que los mismos problemas vuelvan a surgir.
Si quieres tener más información. Desde esta página puedes encontrar una template para trabajar este modelo:
ehhhh (se pronuncia taidivers) Hace ya varios año se dio un movimiento en la comunidad de R para que se utilizaran una serie de paquetes para unificar estos y que fuera más consistente el análisis de datos. De aquí se crearon varios paquete cad auno con una funcionalidad diferente. Para hacerlo más a menos aquí tienes un video directo al grano.
Datos Tidy
Ya sea en R, como en Python como en una hoja de cáculo tipo Google Drive o Excel antes de empezar a analizar nuestros datos tenemos que conseguir que los datos cumplan una determinada extructura. en resumen una forma de tabla o tabular. De no ser así algo puede salir mal y darnos unos resultados que los programas no van a comprender. Condiciones que deben cumplir los datos Tidy
- Cada columna es nua variable
- Cada fila es una observación
- Cada celda es un valor
Cumpliendo estos tres mmmm valores universales, podemos saber que estamos en el buen camino. Aunque muchas veces nos va a tocar transformar los datos para que tengan esta forma.
Paquete que nos ayudan a transformar datos para cumplir con el Data Tidy
Si usamos R, tenemos un paquete que se llama TidyR con su cheetshet Si usamos Python, pandas cumple nuestro papel. Y para muestra esta cheetshet de pandas para data wrangling Y para terminar un éxito de ventas de cuando esa joven de Tabular Bells (o algo así)
Hace unas semanas empecé un curso para repasar pandas y me topé con un curso muy claro y que explica a muy bajo nivel como funciona así que para principiantes viene al pelo. Una vez terminado tienes incluso un certificado de realización por Kaggle al que puedes acceder
Conforme aumenta la madurez en datos en las empresas y el uso de Machine Learning se hace más común el uso de framework e intentar buscar standares para que la colaboración dentro de la empresa y el self'service de datos sea más rápido y ágil. Cualquier que haya trabajado en un equipo de Data o de Analytics, o incluso haya tenido que trbajar creando modelos con Data Scientifics (Científicos de datos) se habrá dado cuenta que Scrum u otros frameworks de desarrollo de software no funcionan tan bien como en un proyecto puramente de desarrollo. Muchas veces se crean cuellos de botella o se tienen que rehacer tareas continuamente y el equipo dependen continuamente de DevOps para las release de los modelos y bueno, un largo etcétera.
Las grandes tecnológicas parece que han estado trabajando en como unir Operations y Machine Learning y han creado un framework para unirlo. Ya el año pasado comentaba el caso de DataOps manifiesto. Sin embargo, aquí se va un paso más alla y se especifica que es para equipos de Machine Learning o Aprendizaje Automático, ya que estos requieren de releases para los modelos y da esa agilidad que encontramos en Devops a los equipos de Data.
Esto, es algo bastante novedoso así que todavía esta todo un poco en pañales pero parece que tiene un gran futuro. Así que es mejor que nos informemos de como podemos empezar a usar este framework gracias al cloud computing
Qué tiene en común DevOps y MLOps
Si pensamos en un equipo de Devops, debemos fijarme en las prácticas ágiles que siguen.
Las dos tareas principales que ambos tienen en común son
- Integración continua (CI)
- Entrega continua (CE)
Sin embargo, según el equipo de GCP que han creado una introdución a MLOps y las fases de maduración de las empresas o equipos, MLOps además tienen otras fases que los distintgue de DevOps
Para una introducción y saber como llevan esto las grandes empresas de tecnología, aquí puedes ver un video introductorio de Google sobre Best Practices
Y otro video de Microsoft de introducción de Machine Learning- Operations
Una de las cosas que más me ha impactado sobre Google Cloud y los demás proveedoras en la nube como Amazon AWS y Azure es la cantidad de servicios que ofrece sobre Machine Learning. Durante mi carrera profesional siempre he encontrado que la democratización del acceso a diferentes datos siempre ha sido bastante complicada desde un punto de vista técnico y los proyectos duraban annos, así que mucha empresas, aburridos por el pace de estos directamente abandonaban los esfuerzos puestos en ello y se dejaban de priorizar estos. Estos últimos dos annos GCP se ha propuesto que sea cada vez más facil tener acceso a la automatización de procesosy nos ofrecen diferentes formas de desarrollar y usar estos algoritmos sin tener que saber muy bien que hacen. Además el hecho de poder pagar por los recursos que necesitemos, sólo cuando los necesitamos y sin necesidad de tener un ordenador super potente, quita muchas barreras a usuarios que tienen ordenadores lentos.
Que soluciones ofrece Google Cloud Platform en materia de aprendizaje automatico.