Curso 1: Processamento de Linguagem Natural com Classificação e Espaços Vetoriais
Realize análise de sentimento de tweets usando regressão logística e Naïve Bayes, use modelos de espaço vetorial para descobrir relações entre palavras e escreva um algoritmo simples de tradução de inglês para francês usando embeddings de palavras pré-computados e hashing sensível à localidade.
Semana 1: Análise de Sentimento com Regressão Logística
Aprenda a extrair características do texto em vetores numéricos e, em seguida, construa um classificador binário para tweets usando regressão logística.
Semana 2: Análise de Sentimento com Naïve Bayes
Compreenda a teoria por trás da regra de Bayes para probabilidades condicionais e, em seguida, aplique-a para construir seu próprio classificador de tweets usando Naïve Bayes.
Semana 3: Modelos de Espaço Vetorial
Aprenda a criar vetores de palavras que capturam dependências entre palavras e, em seguida, visualize suas relações em duas dimensões usando PCA.
Semana 4: Tradução Automática e Busca de Documentos
Aprenda a transformar vetores de palavras e atribuí-los a subconjuntos usando hashing sensível à localidade para realizar tradução automática e busca de documentos.
Curso 2: Processamento de Linguagem Natural com Modelos Probabilísticos
Crie um algoritmo simples de autocorreção usando distância mínima de edição e programação dinâmica, aplique o Algoritmo de Viterbi para marcação de partes do discurso (POS), escreva um algoritmo melhor de autocompletar usando um modelo de linguagem N-gram e escreva seu próprio modelo Word2Vec usando uma rede neural.
Semana 1: Autocorreção
Aprenda sobre autocorreção, distância mínima de edição e programação dinâmica e, em seguida, construa seu próprio corretor ortográfico para corrigir palavras com erros de digitação.
Semana 2: Marcação de Partes do Discurso (POS) e Modelos Ocultos de Markov
Aprenda sobre cadeias de Markov e modelos ocultos de Markov e, em seguida, use-os para criar marcações de partes do discurso para um corpus de texto do Wall Street Journal.
Semana 3: Autocompletar e Modelos de Linguagem
Aprenda como funcionam os modelos de linguagem N-gram calculando probabilidades de sequência e, em seguida, construa seu próprio modelo de linguagem de autocompletar usando um corpus de texto do Twitter.
Semana 4: Embeddings de Palavras com Redes Neurais
Aprenda como os embeddings de palavras carregam o significado semântico das palavras, tornando-os mais poderosos para tarefas de PLN. Em seguida, construa seu próprio modelo de saco de palavras contínuo para criar embeddings de palavras a partir do texto de Shakespeare.
Curso 3: Processamento de Linguagem Natural com Modelos de Sequência
Treine uma rede neural com embeddings de palavras GLoVe para realizar análise de sentimento de tweets, gere texto sintético de Shakespeare usando um modelo de linguagem de Unidade Recorrente Gated (GRU), treine uma rede neural recorrente para realizar reconhecimento de entidades nomeadas (NER) usando LSTMs com camadas lineares e use modelos LSTM siameses para comparar perguntas em um corpus.
Semana 1: Rede Neural para Análise de Sentimento
Aprenda sobre redes neurais para aprendizado profundo e, em seguida, construa um classificador sofisticado de tweets que coloca tweets em categorias de sentimento positivo ou negativo usando uma rede neural profunda.
Semana 2: Redes Neurais Recorrentes para Modelagem de Linguagem
Aprenda sobre as limitações dos modelos de linguagem tradicionais e veja como RNNs e GRUs usam dados sequenciais para previsão de texto. Em seguida, construa seu próprio gerador de próxima palavra usando uma RNN simples em dados de texto de Shakespeare.
Semana 3: LSTMs e Reconhecimento de Entidades Nomeadas (NER)
Aprenda como as unidades de memória de curto prazo (LSTMs) resolvem o problema do gradiente desaparecido e como os sistemas de Reconhecimento de Entidades Nomeadas extraem rapidamente informações essenciais do texto. Em seguida, construa seu próprio sistema de Reconhecimento de Entidades Nomeadas usando um LSTM e dados do Kaggle.
Semana 4: Redes Siamesas
Aprenda sobre redes siamesas, um tipo especial de rede neural composta por duas redes idênticas que são eventualmente mescladas e, em seguida, construa sua própria rede siamesa que identifica perguntas duplicadas em um conjunto de dados do Quora.
Curso 4: Processamento de Linguagem Natural com Modelos de Atenção
Traduza frases completas do inglês para o alemão usando um modelo de atenção codificador-decodificador, construa um modelo Transformer para resumir texto, use modelos T5 e BERT para realizar resposta a perguntas e construa um chatbot usando um modelo Reformer.
Semana 1: Tradução Automática Neural com Modelos de Atenção
Descubra algumas das deficiências de um modelo seq2seq tradicional e como resolvê-las adicionando um mecanismo de atenção e, em seguida, construa um modelo de Tradução Automática Neural com Atenção que traduz frases em inglês para o alemão.
Semana 2: Sumarização de Texto com Modelos Transformer
Compare RNNs e outros modelos sequenciais com a arquitetura Transformer mais moderna e, em seguida, crie uma ferramenta que gera resumos de texto.
Semana 3: Resposta a Perguntas
Explore o aprendizado por transferência com modelos de última geração como T5 e BERT e, em seguida, construa um modelo que pode responder a perguntas.
Semana 4: Chatbots com Modelos Reformer
Examine alguns desafios únicos que os modelos Transformer enfrentam e suas soluções e, em seguida, construa um chatbot usando um modelo Reformer.