Kaggle competition: Springleaf Marketing Response

Overview

PruebaEnel

Prueba Kaggle-Springleaf-master

Prueba Kaggle-Springleaf

Kaggle competition: Springleaf Marketing Response

Competencia de Kaggle: Marketingarketing de Springleaf por parte del equipo KarolCastillo

Introduccion

Este repositorio contiene cuadernos de ipython preparados para la competencia Kaggle: Springleaf Marketing Response. Springleaf ofrece a sus clientes préstamos personales y para automóviles que los ayudan a tomar el control de sus vidas y sus finanzas. El correo directo es una forma importante en que el equipo de Springleaf puede conectarse con los clientes que pueden necesitar un préstamo. Para mejorar su esfuerzo específico, a Springleaf le gustaría centrarse en los clientes que probablemente respondan y sean buenos candidatos para sus servicios.

Usando un gran conjunto de funciones y Data anonimizada anonimizadas, Springleaf nos pide que predigamos qué clientes responderán a una oferta de correo directo.

Data

Contamos con un conjunto de datos anonymized cse proporciona información del cliente. Cada entrada (fila) corresponde a un cliente. la variable de respuesta es binaria. Hay más de 140.000 entradas tanto en el conjunto de prueba como en el de entrenamiento.

Guia Proyecto

Procesamiento de la Data

En la carpeta de preprocesamiento, los datos de características se procesaron de manera diferente en función de los diferentes tipos de datos.

  1. Los datos numéricos se preprocesaron en data_preprocessing_SL_Feb2022_train_test_th60.ipynb. El procesamiento clave incluye imputación de valores perdidos, detección de valores atípicos, transformación logarítmica de columnas sesgadas a la derecha, estandarización de columnas numéricas, etc. Además de las columnas numéricas básicas, se derivaron 10 columnas numéricas. Las columnas categóricas con un número limitado de valores se transformaron utilizando DictVectorizer (codificación OneHot). Las columnas numéricas con muy pocos valores se separan de otras columnas numéricas, al igual que las columnas de series temporales.

  2. Los datos de series temporales se procesaron en data_preprocessing_SL_Feb2022_time_series_normalization.ipynb

  3. Las columnas categóricas con demasiados valores, así como las columnas numéricas con muy pocos valores, se procesaron en data_preprocessing_SL_Feb2022_cat_num_normalization.ipynb

  4. Todas las demás columnas categóricas se preprocesaron con la codificación OneHot en data_preprocessing_SL_Feb2022_th60_cat_label_encoding.ipynb

Caracteristicas de la seleccion

Estas Caracteristicas de Seleccion estan en la carpeta seleccion_característicascaracterísticas. Se escogieron multiples metodos, incluyendo RFECV, greedy forward selection, backward selection and the SelectKBest from sklearn. Entrada de los Modelos:

  1. Modelo Lineal (Logistic, SVM, Passive aggressive): numerical variables
  2. A´rbol de Busqueda (xgBoost, random forest, scikit learn gradient boosting): numerical + veriables categoricas

Optimizacion Modelos

Entrenamiento de Modelos gridsearchCV o el home-built método que genera predicción en el conjunto de prueba durante la validación cruzada, la predicción se puede usar más adelante como metacaracterísticas. La búsqueda en cuadrícula se realizó con diferentes algoritmos, como xgboost, random forest, online svm y regresión logística.

Prediccion Final

Las predicciones finales se realizan con modelos de nivel 0 y nivel 1 utilizando características básicas, características derivadas y metacaracterísticas, utilizando modelos que incluyen xgBoost, RandomForest, regresión logística SGD, máquinas de vectores de soporte SGD, clasificador pasivo-agresivo SDG.

Modelos

La idea es selecccionar el Modelo más optimo

The Pytorch implementation for "Video-Text Pre-training with Learned Regions"

Region_Learner The Pytorch implementation for "Video-Text Pre-training with Learned Regions" (arxiv) We are still cleaning up the code further and pre

Rui Yan 0 Mar 20, 2022
MEND: Model Editing Networks using Gradient Decomposition

MEND: Model Editing Networks using Gradient Decomposition Setup Environment This codebase uses Python 3.7.9. Other versions may work as well. Create a

Eric Mitchell 141 Dec 02, 2022
The code from the paper Character Transformations for Non-Autoregressive GEC Tagging

Character Transformations for Non-Autoregressive GEC Tagging Milan Straka, Jakub Náplava, Jana Straková Charles University Faculty of Mathematics and

ÚFAL 5 Dec 10, 2022
[2021][ICCV][FSNet] Full-Duplex Strategy for Video Object Segmentation

Full-Duplex Strategy for Video Object Segmentation (ICCV, 2021) Authors: Ge-Peng Ji, Keren Fu, Zhe Wu, Deng-Ping Fan*, Jianbing Shen, & Ling Shao This

Daniel-Ji 55 Dec 22, 2022
SAS: Self-Augmentation Strategy for Language Model Pre-training

SAS: Self-Augmentation Strategy for Language Model Pre-training This repository

Alibaba 5 Nov 02, 2022
Drslmarkov - Distributionally Robust Structure Learning for Discrete Pairwise Markov Networks

Distributionally Robust Structure Learning for Discrete Pairwise Markov Networks

1 Nov 24, 2022
Solutions of Reinforcement Learning 2nd Edition

Solutions of Reinforcement Learning, An Introduction

YIFAN WANG 1.4k Dec 30, 2022
Cosine Annealing With Warmup

CosineAnnealingWithWarmup Formulation The learning rate is annealed using a cosine schedule over the course of learning of n_total total steps with an

zhuyun 4 Apr 18, 2022
[TPDS'21] COSCO: Container Orchestration using Co-Simulation and Gradient Based Optimization for Fog Computing Environments

COSCO Framework COSCO is an AI based coupled-simulation and container orchestration framework for integrated Edge, Fog and Cloud Computing Environment

imperial-qore 39 Dec 25, 2022
Datasets and source code for our paper Webly Supervised Fine-Grained Recognition: Benchmark Datasets and An Approach

Introduction Datasets and source code for our paper Webly Supervised Fine-Grained Recognition: Benchmark Datasets and An Approach Datasets: WebFG-496

21 Sep 30, 2022
HHP-Net: A light Heteroscedastic neural network for Head Pose estimation with uncertainty

HHP-Net: A light Heteroscedastic neural network for Head Pose estimation with uncertainty Giorgio Cantarini, Francesca Odone, Nicoletta Noceti, Federi

18 Aug 02, 2022
Workshop Materials Delivered on 28/02/2022

intro-to-cnn-p1 Repo for hosting workshop materials delivered on 28/02/2022 Questions you will answer in this workshop Learning Objectives What are co

Beginners Machine Learning 5 Feb 28, 2022
Jremesh-tools - Blender addon for quad remeshing

JRemesh Tools Blender 2.8 - 3.x addon for quad remeshing. Currently it is a wrap

Jayanam 89 Dec 30, 2022
PySLM Python Library for Selective Laser Melting and Additive Manufacturing

PySLM Python Library for Selective Laser Melting and Additive Manufacturing PySLM is a Python library for supporting development of input files used i

Dr Luke Parry 35 Dec 27, 2022
Course content and resources for the AIAIART course.

AIAIART course This repo will house the notebooks used for the AIAIART course. Part 1 (first four lessons) ran via Discord in September/October 2021.

Jonathan Whitaker 492 Jan 06, 2023
Tensorflow 2 implementation of the paper: Learning and Evaluating Representations for Deep One-class Classification published at ICLR 2021

Deep Representation One-class Classification (DROC). This is not an officially supported Google product. Tensorflow 2 implementation of the paper: Lea

Google Research 137 Dec 23, 2022
Directed Greybox Fuzzing with AFL

AFLGo: Directed Greybox Fuzzing AFLGo is an extension of American Fuzzy Lop (AFL). Given a set of target locations (e.g., folder/file.c:582), AFLGo ge

380 Nov 24, 2022
Image-to-Image Translation in PyTorch

CycleGAN and pix2pix in PyTorch New: Please check out contrastive-unpaired-translation (CUT), our new unpaired image-to-image translation model that e

Jun-Yan Zhu 19k Jan 07, 2023
Neural Factorization of Shape and Reflectance Under An Unknown Illumination

NeRFactor [Paper] [Video] [Project] This is the authors' code release for: NeRFactor: Neural Factorization of Shape and Reflectance Under an Unknown I

Google 283 Jan 04, 2023
Iran Open Source Hackathon

Iran Open Source Hackathon is an open-source hackathon (duh) with the aim of encouraging participation in open-source contribution amongst Iranian dev

OSS Hackathon 121 Dec 25, 2022