Uma Rede Neural Convolucional (ConvNet / Convolutional Neural Network / CNN) é um algoritmo de Aprendizado Profundo (Deep Learning) que pode captar uma imagem de entrada, atribuir importância (pesos e vieses que podem ser aprendidos) a vários aspectos / objetos da imagem e ser capaz de diferenciar um do outro. O pré-processamento exigido em uma CNN é muito menor em comparação com outros algoritmos de classificação. Enquanto nos métodos primitivos os filtros são feitos à mão, com treinamento suficiente, as CNNs têm a capacidade de aprender esses filtros / características
Ebook Desmistificando o Machine Learning produzido pelo comitê de Machine Learning I2AI , projeto realizado no intuito de ajudar no aprendizado de iniciantes
Previsão de Palavras com Base no Contexto e Visualização com PCA Teste do Modelo e Redução de Dimensionalidade com PCA.
Para testar o modelo, tudo que precisamos é dos pesos, em nosso exemplo W1 e W2. Mas visualizar os dados é desafiador, pois a dimensionalidade é alta e quanto maior o número de palavras do vocabulário, mais complicado. Uma alternativa, é reduzir a diemensionalidade dos dados. Convertemos todos os atributos em 2 componentes principais usando PCA (Principal Component Analysis) e com 2 componentes podemos visualizar os dados.
O Tensorflow é uma das bibliotecas mais amplamente utilizadas para implementar o aprendizado de máquina e outros algoritmos que envolvem grandes operações matemáticas. O Tensorflow foi desenvolvido pelo Google e é uma das bibliotecas de aprendizado de máquina mais populares no GitHub. O Google usa o Tensorflow para aprendizado de máquina em quase todos os aplicativos. Se você já usou o Google Photos ou o Google Voice Search, então já utlizou uma aplicação criada com a ajuda do TensorFlow. Vamos compreender os detalhes por trás do TensorFlow.
Matematicamente, um tensor é um vetor N-dimensional, significando que um tensor pode ser usado para representar conjuntos de dados N-dimensionais.
Agrupar os consumidores por similaridade a afim de compreender o comportamento dos clientes e sua relação com o consumo de energia.A partir de dados de consumo de energia de clientes, nosso trabalho é agrupar os consumidores por similaridade a afim de compreender o comportamento dos clientes e sua relação com o consumo de energia.
Neste notebook usaremos uma pesquisa recente nos EUA sobre o mercado de trabalho para programadores de software. Nosso objetivo é fazer uma investigação inicial dos dados a fim de detectar problemas com os dados, necessidade de mais variáveis, falhas na organização e necessidades de transformação. Pesquisa Salarial realizada pelo site https://www.freecodecamp.com/ com programadores de software nos EUA que frequentaram treinamentos Bootcamp.
Pré-processamento de Dados.Especialização em Ciência de Dados - PUC-Rio. Para este experimento, vamos utilizar o dataset Pima Indians Diabetes, que é originalmente do Instituto Nacional de Diabetes e Doenças Digestivas e Renais. Seu objetivo dé prever se um paciente tem ou não diabetes, com base em certas medidas de diagnóstico médico. Este é um subconjunto de um dataset maior e aqui, todos os pacientes são mulheres com pelo menos 21 anos de idade e de herança indígena Pima.
Pré processamento Linguagem Natural NeatText é um pacote simples de processamento de linguagem natural para limpar dados de texto e pré-processar dados de texto. Ele pode ser usado para limpar frases, extrair e-mails, números de telefone, links da web e emojis de frases. Também pode ser usado para configurar pipelines de pré-processamento de texto.
É uma das melhores bibliotecas python que o ajuda a semi-automatizar sua tarefa de aprendizado de máquina. Ele constrói muitos modelos básicos sem muito código e ajuda a entender quais modelos funcionam melhor sem qualquer ajuste de parâmetro.
Suponha que temos uma declaração de problema e realmente precisamos aplicar todos os modelos naquele conjunto de dados específico e temos que analisar como está o desempenho de nosso modelo básico. Aqui, modelo básico significa “Modelo sem parâmetros”. Portanto, podemos fazer essa tarefa diretamente usando o Lazy Predict. Depois de obter toda a precisão, podemos escolher os 5 principais modelos e aplicar o ajuste de hiperparâmetros a eles. Ele fornece um Lazy Classifier para resolver o problema de classificação e Lazy Regressor para resolver o problema de regressão.
O Pycaret executa algumas tarefas básicas de pré- processamento, como ignorar os IDs e as colunas de data, imputar os valores ausentes, codificar as variáveis categóricas e dividir o conjunto de dados na divisão de teste e treino para o restante das etapas de modelagem. Quando você executa a função configuração, ela primeiro confirma os tipos de dados e, em seguida, se você pressionar enter, criará o ambiente para você prosseguir
Sou capaz de aplicar pensamento crítico e inteligência na exploração, tratamento e manipulação, visualização e análise de dados através de algoritmos estatístico e de Machine Learning com o objetivo de encontrar padrões, realizar predições e extrair insights poderosos para resolução de problemas de negócio
Possuo um perfil curioso, flexível e dinâmico e isso me permite pesquisar, aprender, filtrar informações e compartilhá-los para decisão cooperativa.Com forte capacidade comunicativa e gerencial.
- Formação Cientista de Dados
- Visualização de Dados e Design de Dashboards
- Business Analytics
- Machine Learning
- Engenharia de Dados com Hadoop e Spark
- Big Data Real Time Analytics com Python e Spark
- Certificado AI Technologies Foundation
- Big Data Analytics com R e Microsoft Azure Machine Learning
- Scrum Web Developer
- Engenharia de Dados
- Excel
- Power BI