Curso práctico: NLP de cero a cien 🤗

Overview

Curso Práctico: NLP de cero a cien

Comprende todos los conceptos y arquitecturas clave del estado del arte del NLP y aplícalos a casos prácticos utilizando una de las bibliotecas más populares en este campo: Hugging Face. Independientemente de tus conocimientos actuales, terminarás el curso hablando tranquilamente de Transformers, Word Embeddings, modelos secuenciales, mecanismos de atención y modelado del lenguaje.

➡️ Versión web: https://somosnlp.org/nlp-de-cero-a-cien

Calendario

El curso está dividido en 7 sesiones que se impartirán cada dos martes a las 18h CET a partir del 13 de Julio. Dependiendo de tu nivel actual puedes unirte al curso en la sesión que quieras.

  • 13 Jul: Introducción al NLP y Word Embeddings
  • 27 Jul: Modelos secuenciales (RNNs, LSTMs)
  • 10 Ag: Transformers I. Arquitectura Transformer y mecanismo de atención
  • 24 Ag: Transformers II. Aprendizaje por transferencia
  • 7 Sep: Transformers III. Generación de texto
  • 21 Sep: Transformers IV. Modelado del lenguaje
  • 5 Oct: Demos de NLP con 🤗 Spaces

Cada sesión durará 30 minutos y habrá 10 minutos extra dedicados a resolver dudas de los asistentes.

¿Te has perdido una sesión? ¡No pasa nada!

  • Subimos las grabaciones a esta playlist de YouTube.
  • En este repositorio puedes consultar todo el material del curso y recursos extra.
  • Puedes preguntar tus dudas en el canal #nlp-de-cero-a-cien de nuesta comunidad de Discord.

Formadores

Por orden alfabético:

María Grandury: María es una Ingeniera e Investigadora de Machine Learning enfocada en NLP y en la fiabilidad de la IA (i.e. XAI, ataques adversarios). Estudió el doble grado de Matemáticas y Física y actualmente trabaja en neurocat, donde desarrolla una herramienta para explicar y evaluar la estabilidad de cualquier modelo de ML. María forma parte de Women in AI & Robotics cuya misión es promover una IA inclusiva y responsable. También fundó la comunidad Somos NLP con el objetivo de acelerar el avance del NLP en español.

Manuel Romero: Manuel tiene una "mente inquieta y un alma emprendedora". Estudió ingeniería informática y cuenta con casi 10 años de experiencia como desarrollador back-end y arquitecto de software. Además, es un SCRUM Master y Product Owner certificado. Actualmente trabaja en Narrativa como Ingeniero Senior de Inteligencia Artificial especializado en NLP/NLG y es el mayor contribuidor del Model Hub de Hugging Face con más de 200 modelos.

Omar Sanseviero: Omar es un Ingeniero de Machine Learning con 7 años de experiencia en la industria de la tecnología. Actualmente trabaja en Hugging Face en el equipo de open-source democratizando el uso de Machine Learning. Previamente, Omar trabajó como Ingeniero de Software en Google en Suiza en el equipo de Assistant. Omar es un apasionado de la educación y co-fundó AI Learners, una comunidad de personas que buscan aprender y discutir temas sobre Inteligencia Artificial y sus diferentes aplicaciones.

Lewis Tunstall: Lewis es Ingeniero de Machine Learning en el equipo de open-source de Hugging Face. Tiene varios años de experiencia construyendo aplicaciones de Machine Learning para startups y empresas en los dominios de NLP, análisis de datos topológicos y series temporales. Tiene un doctorado en física teórica y ha ocupado puestos de investigación en Australia, Estados Unidos y Suiza. Su trabajo actual se centra en el desarrollo de herramientas para la comunidad de NLP y en la formación de las personas para que las utilicen de forma eficaz.

Inscripción

El curso es gratuito y via online. Al registrarte en Eventbrite recibirás un email de confirmación y otro el día de cada sesión para poder entrar en el workshop.

Organizan Somos NLP 🤗 y Spain AI

Somos NLP 🤗

Somos NLP es la red internacional de profesionales, investigadores y estudiantes acelerando el avance del NLP en español. Nació como la comunidad de hispanohablantes de la iniciativa "Languages at Hugging Face" con el objetivo de democratizar el NLP en español:

  • ¿Cómo? Creando y compartiendo recursos que posibiliten y aceleren el desarrollo del NLP en Español.
  • ¿Por qué? La investigación en NLP está centrada en el inglés y descuida las dificultades particulares del NLP en español. Creemos que un idioma tan extendido como el español debería tener una representación acorde en el ámbito del NLP y vamos a hacer esto realidad.

¡Únete a la comunidad en Discord y síguenos en YouTube, Twitter y LinkedIn!

Spain AI

Spain AI es una red nacional y asociación sin ánimo de lucro, con la finalidad de crear una comunidad colaborativa dentro del ámbito de la Inteligencia Artificial en España.

26 ciudades ya y creciendo. Únete a nosotros o crea tu propia comunidad en spain-ai.com y @Spain_AI. ¡Síguenos!

Owner
Somos NLP
Comunidad de profesionales, investigadores y estudiantes acelerando el avance del NLP en Español.
Somos NLP
This is a project of data parallel that running on NLP tasks.

This is a project of data parallel that running on NLP tasks.

2 Dec 12, 2021
Count the frequency of letters or words in a text file and show a graph.

Word Counter By EBUS Coding Club Count the frequency of letters or words in a text file and show a graph. Requirements Python 3.9 or higher matplotlib

EBUS Coding Club 0 Apr 09, 2022
Conditional Transformer Language Model for Controllable Generation

CTRL - A Conditional Transformer Language Model for Controllable Generation Authors: Nitish Shirish Keskar, Bryan McCann, Lav Varshney, Caiming Xiong,

Salesforce 1.7k Dec 28, 2022
Use Google's BERT for named entity recognition (CoNLL-2003 as the dataset).

For better performance, you can try NLPGNN, see NLPGNN for more details. BERT-NER Version 2 Use Google's BERT for named entity recognition (CoNLL-2003

Kaiyinzhou 1.2k Dec 26, 2022
CredData is a set of files including credentials in open source projects

CredData is a set of files including credentials in open source projects. CredData includes suspicious lines with manual review results and more information such as credential types for each suspicio

Samsung 19 Sep 07, 2022
⚡ Automatically decrypt encryptions without knowing the key or cipher, decode encodings, and crack hashes ⚡

Translations 🇩🇪 DE 🇫🇷 FR 🇭🇺 HU 🇮🇩 ID 🇮🇹 IT 🇳🇱 NL 🇧🇷 PT-BR 🇷🇺 RU 🇨🇳 ZH ➡️ Documentation | Discord | Installation Guide ⬅️ Fully autom

11.2k Jan 05, 2023
A programming language with logic of Python, and syntax of all languages.

Pytov The idea was to take all well known syntaxes, and combine them into one programming language with many posabilities. Installation Install using

Yuval Rosen 14 Dec 07, 2022
SurvTRACE: Transformers for Survival Analysis with Competing Events

⭐ SurvTRACE: Transformers for Survival Analysis with Competing Events This repo provides the implementation of SurvTRACE for survival analysis. It is

Zifeng 13 Oct 06, 2022
Python SDK for working with Voicegain Speech-to-Text

Voicegain Speech-to-Text Python SDK Python SDK for the Voicegain Speech-to-Text API. This API allows for large vocabulary speech-to-text transcription

Voicegain 3 Dec 14, 2022
NLP and Text Generation Experiments in TensorFlow 2.x / 1.x

Code has been run on Google Colab, thanks Google for providing computational resources Contents Natural Language Processing(自然语言处理) Text Classificati

1.5k Nov 14, 2022
To create a deep learning model which can explain the content of an image in the form of speech through caption generation with attention mechanism on Flickr8K dataset.

To create a deep learning model which can explain the content of an image in the form of speech through caption generation with attention mechanism on Flickr8K dataset.

Ragesh Hajela 0 Feb 08, 2022
IndoBERTweet is the first large-scale pretrained model for Indonesian Twitter. Published at EMNLP 2021 (main conference)

IndoBERTweet 🐦 🇮🇩 1. Paper Fajri Koto, Jey Han Lau, and Timothy Baldwin. IndoBERTweet: A Pretrained Language Model for Indonesian Twitter with Effe

IndoLEM 40 Nov 30, 2022
NLTK Source

Natural Language Toolkit (NLTK) NLTK -- the Natural Language Toolkit -- is a suite of open source Python modules, data sets, and tutorials supporting

Natural Language Toolkit 11.4k Jan 04, 2023
Protein Language Model

ProteinLM We pretrain protein language model based on Megatron-LM framework, and then evaluate the pretrained model results on TAPE (Tasks Assessing P

THUDM 77 Dec 27, 2022
Official implementations for various pre-training models of ERNIE-family, covering topics of Language Understanding & Generation, Multimodal Understanding & Generation, and beyond.

English|简体中文 ERNIE是百度开创性提出的基于知识增强的持续学习语义理解框架,该框架将大数据预训练与多源丰富知识相结合,通过持续学习技术,不断吸收海量文本数据中词汇、结构、语义等方面的知识,实现模型效果不断进化。ERNIE在累积 40 余个典型 NLP 任务取得 SOTA 效果,并在 G

5.4k Jan 03, 2023
Code for paper "Which Training Methods for GANs do actually Converge? (ICML 2018)"

GAN stability This repository contains the experiments in the supplementary material for the paper Which Training Methods for GANs do actually Converg

Lars Mescheder 884 Nov 11, 2022
Google's Meena transformer chatbot implementation

Here's my attempt at recreating Meena, a state of the art chatbot developed by Google Research and described in the paper Towards a Human-like Open-Domain Chatbot.

Francesco Pham 94 Dec 25, 2022
Simple text to phones converter for multiple languages

Phonemizer -- foʊnmaɪzɚ The phonemizer allows simple phonemization of words and texts in many languages. Provides both the phonemize command-line tool

CoML 762 Dec 29, 2022
wxPython app for converting encodings, modifying and fixing SRT files

Subtitle Converter Program za obradu srt i txt fajlova. Requirements: Python version 3.8 wxPython version 4.1.0 or newer Libraries: srt, PyDispatcher

4 Nov 25, 2022
Flexible interface for high-performance research using SOTA Transformers leveraging Pytorch Lightning, Transformers, and Hydra.

Flexible interface for high performance research using SOTA Transformers leveraging Pytorch Lightning, Transformers, and Hydra. What is Lightning Tran

Pytorch Lightning 581 Dec 21, 2022