Saltar al contenido
1. Haga que sus datos estén disponibles, accesibles y alineados
Evalúe los mejores casos de uso para sus datos. Su organización debe preguntar:
- ¿Están disponibles sus datos? ¿Sabes dónde están los datos?
- ¿Son accesibles sus datos? Es probable que sepa qué sistemas contienen sus datos. ¿Puedes acceder a él tanto para el entrenamiento del modelo como para la puntuación?
- ¿Están sus datos alineados? ¿Sus activos de datos se alinean con los casos de uso que desea resolver?
Cuando pueda responder “sí” a todas estas preguntas, es hora de analizar si sus datos tienen potencial predictivo.
2. Establece objetivos para tus datos
Determine la variable de resultado que le gustaría que lograran sus datos. ¿Qué es exactamente lo que estás tratando de predecir? Muy a menudo, es un área de gran valor para el negocio, pero una métrica que no se rastrea.
Piense en las preguntas más críticas para el negocio que su equipo de ventas quiere que se respondan para impulsar los ingresos de primera línea. ¿Están analizando la propensión de un cliente a repetir una compra dentro de un período de tiempo? ¿O para que se apruebe una cotización con descuento en su primer intento? Cada uno de estos requiere diferentes enfoques de la IA.
Para determinar el mejor enfoque, recomendamos etiquetar los datos con precisión desde el principio. Incluso si sus datos no son perfectos, las mejores herramientas de inteligencia artificial aún podrán guiarlo hacia información procesable.
3. Mantenga sus datos éticos y protegidos contra sesgos
La tercera pregunta se relaciona con qué tan adecuados son sus datos al implementar un modelo predictivo para su base de usuarios en la naturaleza. Esto se relaciona específicamente con la IA ética . Los datos en los modelos predictivos de IA son conocidos por su artificial-intelligence/recognize-bias-in-ai»>sesgo implícito si no se abordan desde el principio.
Si no aborda la IA equitativa, el potencial de futuras implicaciones negativas es enorme. Los sistemas impulsados por IA pueden perpetuar el sesgo al amplificar la discriminación presente en los conjuntos de datos históricos. Tomemos, por ejemplo, las empresas de servicios financieros que migran de los sistemas basados en reglas a la toma de decisiones automatizada basada en algoritmos en las aprobaciones de préstamos. Estos modelos conllevan un mayor riesgo de discriminación inadvertida debido a patrones en los datos existentes. Una vez que haya establecido cómo mitigar el riesgo, puede implementar herramientas que lo ayudarán a predecir la próxima mejor acción para su tarea en particular.
IDC estima que el 40 % de las 2000 principales empresas públicas del mundo necesitarán reinventar sus estrategias para una IA responsable para 2025. A ese ritmo, puede ser fácil perderse en los cambios frenéticos. Al anclar sus pivotes a los conceptos básicos de recopilación, alineación y protección de sus datos, estará seguro de que las nuevas opciones se basan en un marco en el que puede confiar.