Análisis de Sesiones del Navegador: La Clave para la Detección de Fraudes

Rate this content
Bookmark

Esta charla mostrará cómo se ha desarrollado un modelo de detección de fraudes basado en los datos de las sesiones de navegación de los diferentes usuarios. Se han utilizado herramientas como PySpark y Spark ML en esta iniciativa debido a la gran cantidad de datos.


El modelo creado fue capaz de identificar un grupo de características que cubrían el 10% de las sesiones totales, de las cuales el 88% se consideraron fraudulentas. Esto permite a los analistas dedicar más tiempo a los casos de mayor riesgo.

This talk has been presented at ML conf EU 2020, check out the latest edition of this Tech Conference.

FAQ

Blue Tab Solutions se especializa en análisis avanzado y big data, ofreciendo soluciones de machine learning para ayudar a los clientes con proyectos relacionados con estos temas.

Blue Tab Solutions utilizó un conjunto de datos de Adobe Omniture con 80 millones de registros y aplicó la metodología CRISPM para crear modelos precisos de detección de fraudes en una plataforma de big data usando Spark.

Utilizaron la metodología CRISPM, que incluye fases de comprensión del negocio, comprensión de los datos, preparación de los datos, modelado, validación y despliegue.

Identificaron que el 70% de las sesiones fraudulentas accedían a la página de transmisión móvil desde la aplicación web y que el 90% de las sesiones desde el dispositivo UMI plus eran fraudulentas, representando el 15% de los fraudes detectados.

Se seleccionaron variables clave basadas en el análisis inicial, luego se limpiaron los datos y se aplicaron transformaciones matemáticas para mejorar la distribución, resultando en un conjunto de datos con más de 200 características.

Emplearon algoritmos como árboles de decisión, clasificadores de bosques aleatorios y clasificadores de aumento de gradiente a través de las bibliotecas de SparkML.

Se utilizó el área bajo la curva ROC como métrica de validación debido a la naturaleza desequilibrada del objetivo en el conjunto de datos, lo que hace que métricas como la precisión no sean adecuadas.

Los modelos se implementan en la plataforma de big data del cliente basada en HDFS y Spark, ejecutándose diariamente con los datos del día anterior. Además, los modelos se actualizan regularmente, generalmente cada dos meses, para mantener su eficacia.

El clasificador GVT obtuvo la mejor puntuación con 0.94 en el área bajo la curva, permitiendo identificar un grupo de sesiones que incluía el 90% de los fraudes, optimizando así el enfoque de los analistas hacia los casos de mayor riesgo.

Javier Alcaide Pérez
Javier Alcaide Pérez
7 min
02 Jul, 2021

Comments

Sign in or register to post your comment.
Video Summary and Transcription
Blue Tab Solutions se especializa en análisis avanzado y big data, y recientemente mejoró la detección de fraudes financieros utilizando Spark y la metodología CRISPM. Descubrieron ideas como la correlación entre las sesiones fraudulentas y la página de lanzamiento móvil a la que se accede desde la aplicación web. Los modelos creados utilizando árboles de decisión, clasificadores de bosques aleatorios y clasificadores de aumento de gradiente fueron validados utilizando el área bajo la curva ROC. El clasificador GVT obtuvo el mejor resultado con una puntuación de 0.94. Es necesario un entrenamiento regular para obtener modelos precisos, y los próximos pasos implican una acción en tiempo real cuando se detecta fraude.

1. Financial Fraud Detection with CRISPM Methodology

Short description:

Hola, soy Javier Arcaide, un científico de datos en Blue Tab Solutions. Nos especializamos en análisis avanzado y big data. Recientemente trabajamos en mejorar la detección de fraudes financieros para un cliente en el sector financiero. Utilizando Spark y la metodología CRISPM, analizamos los conjuntos de datos y descubrimos información valiosa, como la correlación entre las sesiones fraudulentas y la página de transmisión móvil accedida desde la aplicación web. Al seleccionar las mejores características y limpiar los datos, creamos modelos más precisos para detectar transacciones fraudulentas.

Trabajo como científico de datos en Blue Tab Solutions, diseñando y desarrollando soluciones de machine learning. En Blue Tab, somos expertos en análisis avanzado y big data, lo que nos permite ayudar a nuestros clientes en este tipo de proyectos. En los últimos años, el fraude financiero ha aumentado drásticamente, y esta tendencia ha empeorado con la situación de la pandemia. A principios de año, uno de nuestros clientes en el sector financiero nos pidió que mejoráramos la forma en que detectaban fraudes financieros en sus aplicaciones bancarias en línea. Para resolver este problema, nos proporcionaron un conjunto de datos de Adobe Omniture, que contenía alrededor de 80 millones de registros de las diferentes sesiones de la aplicación bancaria en línea, cada una con 45 campos de información, junto con un conjunto de datos que contenía los fraudes detectados por su equipo de fraude en los últimos meses. Abordamos el problema utilizando la plataforma de big data de nuestro cliente, y debido al tamaño de los conjuntos de datos, decidimos utilizar Spark para el procesamiento y análisis de los datos. Nuestro enfoque utiliza una metodología de minería de datos bien conocida, CRISPM. Este proceso divide la solución en cinco fases principales. La primera es la comprensión del negocio. El objetivo de esta fase es alinear los objetivos del proyecto con los objetivos comerciales. Nos centramos en comprender las expectativas del cliente y los objetivos del proyecto. Con este conocimiento del problema, diseñamos una planificación preliminar para alcanzar los objetivos. La segunda fase es la comprensión de los datos. Consideramos que esta es la fase más importante de la metodología. En ella, el objetivo es conocer los datos. Su estructura, distribución y calidad. Comenzamos con un análisis univariado de las columnas de los conjuntos de datos en relación con el objetivo. Nuestras conclusiones de este análisis fueron cruciales para decidir qué variables se incluirían en el entrenamiento del modelo. En esta fase, descubrimos, por ejemplo, que en el 70% de las sesiones fraudulentas, se accedía a la página de transmisión móvil desde la aplicación web. El 90% de las sesiones abiertas desde este dispositivo en particular, UMI plus, eran fraudulentas. Esto cubría alrededor del 15% de los fraudes. En alrededor del 75% de las sesiones fraudulentas, el sistema operativo que utilizamos fue Windows 8.1. La extracción de estos conocimientos es el valor diferencial que un científico de datos puede ofrecer en la creación de modelos. A través de este conocimiento adquirido y seleccionando las mejores características, pudimos crear modelos mucho más precisos para la detección de transacciones fraudulentas. La tercera fase es la preparación de los datos. Cuando se seleccionan las variables, es hora de preparar el conjunto de datos para entrenar los diferentes modelos. Por lo general, es necesario limpiar los datos, asegurándose de identificar nuevos valores y valores atípicos Esto, combinado con transformaciones matemáticas como funciones exponenciales o logarítmicas puede mejorar la dispersión de la distribución, lo que ayuda a entrenar mejor el modelo. La limpieza y transformaciones completas resultan en un nuevo conjunto de datos con más de 200 características.

2. Modelado, Validación e Implementación

Short description:

Utilizamos la Matriz de Correlación de Pearson para agrupar las características y seleccionar la mejor para el modelo. Se utilizaron árboles de decisión, clasificadores de bosques aleatorios y clasificadores de aumento de gradiente para crear los modelos. La fase de validación utilizó el área bajo la curva ROC como métrica. La fase de implementación involucró el uso de la plataforma de big data de los clientes basada en HDFS y Spark. El clasificador GVT obtuvo el mejor resultado con una puntuación de 0.94. El modelo identificó un grupo de sesiones que cubría el 10% del total de sesiones, incluyendo el 90% de los fraudes. Trabajar con herramientas de big data como PySpark es esencial para obtener modelos precisos. Es necesario realizar entrenamientos regulares ya que estos modelos se vuelven obsoletos rápidamente. Los próximos pasos implican trabajar con el modelo en tiempo real para una acción rápida cuando se detecte fraude.

Utilizamos la Matriz de Correlación de Pearson para agrupar las características en familias correlacionadas, donde podemos elegir la mejor para el modelo. La cuarta fase es el modelado y la validación. Una vez construido el conjunto de datos de entrenamiento, utilizamos el algoritmo contenido en las bibliotecas de SparkML. Específicamente, utilizamos árboles de decisión, clasificadores de bosques aleatorios y clasificadores de aumento de gradiente para crear nuestros modelos.

Para la validación, decidimos utilizar el área bajo la curva ROC como métrica porque el objetivo no estaba equilibrado en el conjunto de datos, lo que implica que no se pueden utilizar métricas como la precisión. En la fase de implementación, la última, utilizamos la plataforma de big data de nuestros clientes basada en HDFS y Spark para implementar el modelo. Se ejecuta una vez al día con los datos del día anterior, que tiene alrededor de seis millones de registros. Dado que el modelo está diseñado y desarrollado utilizando Spark, es posible implementarlo en cualquier plataforma, en la nube o en las instalaciones, capaz de implementar aplicaciones de Spark.

Después de la validación del modelo, encontramos que el clasificador GVT obtuvo el mejor resultado, con una puntuación de 0.94 en el área bajo la curva. El modelo creado fue capaz de identificar un grupo de sesiones que cubría el 10% del total de sesiones, donde se incluía el 90% de los fraudes. Esto permite a los analistas dedicar más tiempo a los casos de mayor riesgo. En conclusión, para tener modelos más precisos, es importante utilizar la población completa de los datos. Esto sería imposible sin trabajar con herramientas de big data como PySpark. Estos excelentes resultados se basan en el estudio previo de las variables y en las ideas obtenidas durante el análisis. Por otro lado, este tipo de modelo se vuelve obsoleto bastante rápido, por lo que es necesario entrenarlo regularmente, generalmente cada dos meses. Los próximos pasos serían trabajar con este modelo en tiempo real, para que los clientes puedan tomar medidas rápidamente cuando se detecte fraude, como solicitar una doble autenticación o bloquear las transacciones si el modelo predice acciones fraudulentas. Muchas gracias y cualquier pregunta es bienvenida.

Check out more articles and videos

We constantly think of articles and videos that might spark Git people interest / skill us up or help building a stellar career

TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
ML conf EU 2020ML conf EU 2020
41 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
TensorFlow.js enables machine learning in the browser and beyond, with features like face mesh, body segmentation, and pose estimation. It offers JavaScript prototyping and transfer learning capabilities, as well as the ability to recognize custom objects using the Image Project feature. TensorFlow.js can be used with Cloud AutoML for training custom vision models and provides performance benefits in both JavaScript and Python development. It offers interactivity, reach, scale, and performance, and encourages community engagement and collaboration between the JavaScript and machine learning communities.
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
React Advanced 2021React Advanced 2021
21 min
Uso de MediaPipe para Crear Aplicaciones de Aprendizaje Automático Multiplataforma con React
Top Content
MediaPipe is a cross-platform framework that helps build perception pipelines using machine learning models. It offers ready-to-use solutions for various applications, such as selfie segmentation, face mesh, object detection, hand tracking, and more. MediaPipe can be integrated with React using NPM modules provided by the MediaPipe team. The demonstration showcases the implementation of face mesh and selfie segmentation solutions. MediaPipe enables the creation of amazing applications without needing to understand the underlying computer vision or machine learning processes.
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
JSNation Live 2021JSNation Live 2021
39 min
TensorFlow.js 101: Aprendizaje automático en el navegador y más allá
JavaScript with TensorFlow.js allows for machine learning in various environments, enabling the creation of applications like augmented reality and sentiment analysis. TensorFlow.js offers pre-trained models for object detection, body segmentation, and face landmark detection. It also allows for 3D rendering and the combination of machine learning with WebGL. The integration of WebRTC and WebXR enables teleportation and enhanced communication. TensorFlow.js supports transfer learning through Teachable Machine and Cloud AutoML, and provides flexibility and performance benefits in the browser and Node.js environments.
Observabilidad con diagnostics_channel y AsyncLocalStorage
Node Congress 2023Node Congress 2023
21 min
Observabilidad con diagnostics_channel y AsyncLocalStorage
Observability with Diagnostics Channel and async local storage allows for high-performance event tracking and propagation of values through calls, callbacks, and promise continuations. Tracing involves five events and separate channels for each event, capturing errors and return values. The span object in async local storage stores data about the current execution and is reported to the tracer when the end is triggered.
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
ML conf EU 2020ML conf EU 2020
32 min
Una introducción al aprendizaje por transferencia en NLP y HuggingFace
Transfer learning in NLP allows for better performance with minimal data. BERT is commonly used for sequential transfer learning. Models like BERT can be adapted for downstream tasks such as text classification. Handling different types of inputs in NLP involves concatenating or duplicating the model. Hugging Face aims to tackle challenges in NLP through knowledge sharing and open sourcing code and libraries.

Workshops on related topic

Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
JSNation 2024JSNation 2024
108 min
Aprovechando LLMs para Construir Experiencias de IA Intuitivas con JavaScript
Featured Workshop
Roy Derks
Shivay Lamba
2 authors
Hoy en día, todos los desarrolladores están utilizando LLMs en diferentes formas y variantes, desde ChatGPT hasta asistentes de código como GitHub CoPilot. Siguiendo esto, muchos productos han introducido capacidades de IA integradas, y en este masterclass haremos que los LLMs sean comprensibles para los desarrolladores web. Y nos adentraremos en la codificación de tu propia aplicación impulsada por IA. No se necesita experiencia previa en trabajar con LLMs o aprendizaje automático. En su lugar, utilizaremos tecnologías web como JavaScript, React que ya conoces y amas, al mismo tiempo que aprendemos sobre algunas nuevas bibliotecas como OpenAI, Transformers.js
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
C3 Dev Festival 2024C3 Dev Festival 2024
48 min
¿Pueden los LLM aprender? Personalicemos un LLM para chatear con tus propios datos
WorkshopFree
Andreia Ocanoaia
Andreia Ocanoaia
Sientes las limitaciones de los LLMs? Pueden ser creativos, pero a veces carecen de precisión o se basan en información desactualizada. En esta masterclass, desglosaremos el proceso de construir y desplegar fácilmente un sistema de Generación con Recuperación Mejorada. Este enfoque te permite aprovechar el poder de los LLMs con el beneficio adicional de precisión factual e información actualizada.
Deja que la IA sea tu Documentación
JSNation 2024JSNation 2024
69 min
Deja que la IA sea tu Documentación
Workshop
Jesse Hall
Jesse Hall
Únete a nuestro masterclass dinámico para crear un portal de documentación impulsado por IA. Aprende a integrar ChatGPT de OpenAI con Next.js 14, Tailwind CSS y tecnología de vanguardia para ofrecer soluciones de código e resúmenes instantáneos. Esta sesión práctica te equipará con el conocimiento para revolucionar la forma en que los usuarios interactúan con la documentación, convirtiendo las búsquedas tediosas en descubrimientos eficientes e inteligentes.
Aspectos destacados:
- Experiencia práctica en la creación de un sitio de documentación impulsado por IA.- Comprensión de la integración de la IA en las experiencias de usuario.- Habilidades prácticas con las últimas tecnologías de desarrollo web.- Estrategias para implementar y mantener recursos de documentación inteligente.
Tabla de contenidos:- Introducción a la IA en la documentación- Configuración del entorno- Construcción de la estructura de documentación- Integración de ChatGPT para documentación interactiva
Prácticas con TensorFlow.js
ML conf EU 2020ML conf EU 2020
160 min
Prácticas con TensorFlow.js
Workshop
Jason Mayes
Jason Mayes
Ven y descubre nuestro masterclass que te guiará a través de 3 recorridos comunes al usar TensorFlow.js. Comenzaremos demostrando cómo usar uno de nuestros modelos predefinidos, clases de JS muy fáciles de usar para trabajar rápidamente con ML. Luego veremos cómo volver a entrenar uno de estos modelos en minutos utilizando el aprendizaje por transferencia en el navegador a través de Teachable Machine y cómo se puede usar en tu propio sitio web personalizado. Finalmente, terminaremos con un hola mundo escribiendo tu propio código de modelo desde cero para hacer una regresión lineal simple y predecir los precios ficticios de las casas en función de sus metros cuadrados.
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
ML conf EU 2020ML conf EU 2020
112 min
La Guía del Autoestopista de la Galaxia de Ingeniería de Aprendizaje Automático
Workshop
Alyona Galyeva
Alyona Galyeva
¿Eres un Ingeniero de Software al que se le asignó la tarea de implementar un modelo de aprendizaje automático o aprendizaje profundo por primera vez en tu vida? ¿Te preguntas qué pasos seguir y cómo se diferencia el software impulsado por IA del software tradicional? Entonces este es el masterclass adecuado al que asistir.
Internet ofrece miles de artículos y cursos gratuitos que muestran lo fácil que es entrenar e implementar un modelo de IA simple. Al mismo tiempo, en la realidad es difícil integrar un modelo real en la infraestructura actual, depurarlo, probarlo, implementarlo y monitorearlo correctamente. En este masterclass, te guiaré a través de este proceso compartiendo consejos, trucos y herramientas de código abierto favoritas que te facilitarán mucho la vida. Así que al final del masterclass, sabrás por dónde empezar tu viaje de implementación, qué herramientas utilizar y qué preguntas hacer.
Introducción al Aprendizaje Automático en la Nube
ML conf EU 2020ML conf EU 2020
146 min
Introducción al Aprendizaje Automático en la Nube
Workshop
Dmitry Soshnikov
Dmitry Soshnikov
Este masterclass será tanto una introducción suave al Aprendizaje Automático, como un ejercicio práctico de uso de la nube para entrenar modelos de aprendizaje automático simples y no tan simples. Comenzaremos utilizando ML Automático para entrenar el modelo para predecir la supervivencia en el Titanic, y luego pasaremos a tareas de aprendizaje automático más complejas como la optimización de hiperparámetros y la programación de series de experimentos en el clúster de cómputo. Finalmente, mostraré cómo Azure Machine Learning se puede utilizar para generar pinturas artificiales utilizando Redes Generativas Adversarias, y cómo entrenar un modelo de preguntas y respuestas de lenguaje en documentos de COVID para responder preguntas relacionadas con COVID.