Sobre mim

Um pouco da minha trajetória.

Meu nome é Deivison Morais, sou formado em engenharia de produção civil e desde 2010 atuo na área de engenharia de avaliações e perícias. Entretanto, no final do ano de 2018, ao ler um livro, totalmente por acaso, se deu o início do meu processo de transição de carreira. Definitivamente, ler o livro Indústria 4.0 Conceitos e Fundamentos foi uma grande virada de chave na minha vida !! O despertar para todas as grandes transformações tecnologicas que estão ocorrendo simulteneamente desde o início da quarta revolução industrial me fez buscar um novo propósito profissional e de vida.

No livro "A Origem das Espécies", Charles Darwin detalha o conceito de Natura non facit saltum, "a natureza não dá saltos". A ideia que toda evolução de uma espécie ocorre através de um processo de adaptação é singular. O meu caminho natural de adaptação foi buscar mais conhecimento sobre essa nova revolução tecnológica e assim em março de 2019 iniciei o MBA em indústria 4.0 na PUC-Minas, sendo, na época, o primeiro curso de MBA sobre esse assunto autorizado pelo MEC no Brasil.

O MBA ofereceu um excelente overview sobre os pilares fundamentais da indústria 4.0 e os que mais despertaram a minha atenção foram inteligência artificial e big data analytics. Após finalizar o curso em junho de 2020, percebi que a minha vocação e o meu caminho natural eram continuar aprofundando nessas duas áreas e foi onde encontrei a ciência de dados como a minha nova profissão.

De 2020 para cá venho construindo esse novo capítulo da minha carreira. Durante esse processo de transformação a jornada tem sido incrível, o que me faz ter certeza do porque me tornei um cientista de dados.


Habilidades

Linguagens de Programação e Banco de Dados

  • Python com foco em análise de dados.
  • Web scraping com Python (Beautiful Soap, Scrapy).
  • SQL para extração de dados.
  • Banco de Dados SQLite.
  • Software SAS Entreprise Guide.
  • Qlik Script Language.

Engenharia de Software

  • Git, Github, Gitlab.
  • Virtual Environment.
  • Flask, Python API's.
  • Streamlit.
  • Cloud Heroku.

Machine Learning

  • Algoritmos de Regressão, classificação, clusterização.
  • Técnicas de balanceamento dos dados, seleção de atributos e redução de dimensionalidade.
  • Métricas de performance dos algoritmos (MAE, MAPE, RMSE, Precisão, Recall, Curva Roc, Curva Lift, AUC, Confusion Matrix).
  • Pacotes de Machine Learning: Sklearn e Scipy.

Visualização de Dados

  • Microsoft Power BI.
  • Qlik Sense Enterprise.
  • Matplotlib.
  • Seaborn.
  • Plotly.

Estatística

  • Estatística descritiva (Medidas de tendência central e dispersão)
  • Amostragem aleatória e víes da amostra.
  • Estatística amostral e estatística populacional.
  • Reamostragem.
  • Bootstrap.
  • Intervalos de confiança.
  • Distribuições (Normal, Binomial, T student, Poisson, Exponencial).
  • Experimentos estatísticos.
  • Teste de Significancia (A/B, permutação, Anova, Chi Quadrado, F).
  • Potência e Tamanho de amostra.
  • Pacotes de estatística: Statsmodels, pingouin, Scipy.

Experiências Profissionais

Experiência como cientista de dados no TJMG - Tribunal de Justiça do Estado de Minas Gerais

Atuação como cientista de dados no desenvolvimento de soluções de dados de ponta a ponta na área do direito.

Desenvolvimento de dashboards com a ferramenta Qlik Sense Enterprise que atendem diversos setores do Tribunal.

Construção de fluxogramas de processos com o objetivo de desenvolver soluções de dados automatizadas.

Desenvolvimento de relatórios/estudos técnicos estatísticos.

Experiência como analista de dados na Cemig - Companhia Energética de Minas Gerais

Atuação como analista de dados no setor de Planejamento Integrado de Demanda e Suprimento (S&OP).

Desenvolvimento de projetos de dados com auxílio do Software SAS que atendem a área de logística.

Desenvolvimento de dashboards com a ferramenta Power Bi que atendem a área de logística.

Mapeamento de processos e construção de fluxogramas com o objetivo de desenvolver soluções de dados automatizadas.

Experiência profissional como consultor

Projetos de consultoria para empresas do segmento de varejo e tecnologia.

Projetos de dados de ponta a ponta - segmentação de produtos ( extração, limpeza, preparação dos dados, modelagem e deploy).

Projetos de análise de dados a partir de base de dados de sistema SAP - empresa do setor de saúde.

4+ Projetos profissionais completos em ciência de dados

Elaboração de soluções de dados para problemas de negócio, simulando desafios reais, utilizando dados públicos de competições de Ciência de Dados. Os projetos foram construídos desde a interpretação análitica do problema, passando pela estruturação e execução da solução de negócio até a publicação do algoritmo treinado em produção, utilizando ferramentas de Cloud Computing.

10+ anos atuando na área de engenharia de avaliações e perícias

Hard Skills Engenharia de Avaliações e Perícias

Destaco que ao longo da minha carreira adquiri experiência na elaboração de laudos técnicos de avaliação patrimonial de imóveis urbanos e rurais inseridos na área de influencia de projetos de infraestrutura (rodovias, ferrovias, minerodutos).

Durante o meu exercício profissional também trabalhei realizando avaliações econômicas de estabelecimentos comerciais passíveis de desapropriação (Cálculo de Fundo de Comércio e Lucros Cessantes), cujo o objetivo central é facilitar a tomada de decisões estratégicas em projetos que envolvam grandes áreas a serem desapropriadas. No artigo "A Importância das Avaliações Econômicas no Estudo de Viabilidade para Projetos que Envolvam Desapropriações em Áreas Urbanas" apresentado no XX COBREAP ( XX Congresso Brasileiro de Engenharia de Avaliações e Perícias) detalho por meio de um estudo de caso um dos projetos dessa natureza no qual trabalhei.

Participei da equipe de engenheiros avaliadores da empresa de consultoria que estava assitindo a Fundação Renova no cálculo das indenizações patrimoniais e econômicas dos impactados pelo rompimendo da barragem de Fundão da Mineradora Samarco em Mariana-MG no ano de 2015. Devido a natureza dos múltiplos impactos decorrentes do evento ao longo de 40 municípios pude trabalhar com avalições dos mais variados tipos, o que posso destacar com uma experiência única.

Durante o meu processo de desenvolvimento profissional realizei perícias e vistorias técnicas com diversas finalidades em edificações novas, antigas ou em contrução. Além disso, atuei na engenharia de riscos identificando situações que pudessem colocar a segurança de usuários e de patrimônio em risco.

Soft Skills Engenharia de Avaliações e Perícias

Experiência na coordenação técnica de contratos de prestação de serviço para setores de gestão fundiária de grandes mineradoras. Ao exercer esse papel tive que relacionar com diversos stakeholders internos e externos simultaneamente, o que é bastante desafiador profissionalmente.

Entre as várias responsabilidades com os stakeholder internos menciono organizar e planejar o fluxo de trabalho das equipes em campo e escritório tendo em vista prazo, qualidade e custo estabelecidos, treinar e capacitar novos colaboradores, gerenciar pessoas, responder a diretoria tendo em vista as metas e resultados.

Com relação aos stakeholders externos saliento que era responsável por atender analistas, coordenadores e gerentes, desenvolver novos produtos técnicos ajustados para atender questões específicas, acordar prazo de entrega e realização dos serviços, apresentar resultados, coordenar trabalhos de campo em comunidades impactadas pela atividade de mineração.

Os trabalhos de natureza pericial demandam responder vários tipos de perguntas entre as quais destaco: O que é esse problema na minha edificação? Qual a causa dessa infiltração no meu apartamento? Essas fissuras e trincas colocam a minha segurança física ou patrimonial em risco? Quanto custa solucionar o problema? Para responder essas perguntas é necessário do profissional a capacidade analítica de observar uma determinada situação problema e construir uma análise fundamentada sobre a origem e a possível relação de causa e efeito sobre o fato a ser esclarecido. Além disso, todo o trabalho é formalizado através da redação de um laudo técnico que precisa ser compreendido por pessoas que são leigas em engenharia.


Projetos em Ciência de Dados

Previsão de vendas - Drogarias Rossmann.

Este projeto que compõe o meu portfolio profissional busca criar uma solução de negócio que auxiliará o CEO da empresa Rossmann, uma das maiores redes de drogarias existentes na europa, a definir quais lojas devem ser reformadas em função da receita de faturamento.
Desenvolvi um modelo machine learning em produção capaz de prever as vendas das lojas nas próximas 6 semanas. Além disso, foi disponibilizado para o CEO um bot no aplicativo Telegram capaz de acessar o modelo em produção, de modo que o CEO possa obter as previsões de vendas das lojas na palma da sua mão.

As ferramentas utilizadas

  • Python (Pandas, Matplotlib, Seaborn, Numpy).
  • Jupyter notebook.
  • Scikit Learn (Linear Regression, Lasso Regression, XGBoost, Random Forest).
  • LibreOffice Calc.
  • Git.
  • Cloud Heroku.
  • App Telegram.

Projeto Teste A/B - Eletronic House.

Este projeto busca criar uma solução de negócio que auxiliará uma empresa de e-commerce a testar se a mudança de layout de uma página web é capaz melhorar as vendas de um produto.
A proposta é desenvolver um experimento de teste A/B entre a página atual e a nova desenvolvida pela equipe de UX.
Vale destacar que o uso da técnica de teste A/B é uma poderosa ferramenta estatística no contexto da resolução de problemas de negócio envolvendo ciência de dados.

As ferramentas utilizadas

  • Python (Pandas, Matplotlib, Seaborn, Numpy).
  • Jupyter notebook.
  • Scipy.
  • Statsmodels.

Avaliação de imóveis no Condado King, Washington, USA.

Este projeto tem como objetivo criar uma solução de negócio que auxiliará o governo do condado King a tomar melhores decisões relativas ao processo de desapropriação de imóveis que possam serem diretamente impactados por novos projetos de infraestrutura.
Desenvolvi dois produtos de dados, sendo um modelo de machine Learning capaz de calcular o valor de mercado de um imóvel, além de um dashboard com a análise se os preços ofertados dos imóveis nas imobiliárias do condado estão de acordo com real o valor de mercado.
Caso esses dois produtos fossem utilizados o governo do condado King reduziria o seu custo de projeto e poderia tomar decisões estratégicas mais rápidas sobre a viabilidade econômica dos novos projetos de infraestrutura.

As ferramentas utilizadas

  • Python (Pandas, Matplotlib, Seaborn, Numpy).
  • Jupyter notebook.
  • Scikit Learn (Linear Regression, Lasso Regression, XGBoost, Random Forest).
  • LibreOffice Calc.
  • Git.
  • Cloud Heroku.
  • Streamlit Python framework web.

Projeto Health Insurance Cross Sell.

Este projeto existente no meu portfólio busca criar uma solução de negocio que auxiliará uma empresa de seguros de saúde a definir quais clientes devem ser selecionados para receberem uma oferta de lançamento de um novo serviço, um seguro veicular. A diretoria estabeleceu que a base de dados de clientes do ano anterior deveria ser utilizada como fonte de dados, pois uma pesquisa sobre intenção de contratação de seguros veicular foi realizada com esses segurados.
A partir dos dados históricos dos clientes e da pesquisa de intenção de contratação de seguro veicular, desenvolvi um modelo de machine learning capaz de realizar a ordenação de uma lista de 127 mil novos clientes tendo em vista a maior probabilidade de contratação do seguro.

As ferramentas utilizadas

  • Python (Pandas, Matplotlib, Seaborn, Numpy).
  • Jupyter notebook.
  • Modelos (KNN, Extra Tree, Logistic Regression, XGBoost, Random Forest, Naives Bayes, CatBoost e LGBM).

Notas de estudo e outros projetos em Ciência de Dados

Projeto SQL Olist Ecommerce.

Este projeto que compõe o meu portfólio profissional tem como objetivo coletar e analisar informações com as ferramentas da linguagem SQL no conjunto de dados disponibilizado pela empresa Olist. Convém mencionar que o dataset possui cerca de 100 mil pedidos realizados em vários sites de e-commerce do Brasil.

As ferramentas utilizadas:

  • SQL.
  • SQlite.
  • DBeaver.
  • Jupyter notebook.

Análise de Cohort.

Este projeto tem como objetivo realizar uma análise de retenção de clientes utilizando Cohort em um conjunto de dados disponibilizado por uma rede de e-commerce do Reino Unido. Convém mencionar que o dataset possui informações de milhares de faturas fiscais emitidas no período de dezembro de 2010 a dezembro de 2011.
Retenção de clientes corresponde a capacidade de uma organização manter seus clientes fiéis ao longo do tempo. A análise de Cohort é uma poderosa ferramenta para identificação de padrões e criação de alavancas de negócio inseridada dentro do contexto da retenção de clientes.

As ferramentas e pacotes utilizados:

  • Python (Pandas, Matplotlib, Seaborn, Numpy).
  • Jupyter notebook.

Notas de estudo de econometria.

Estas notas fazem parte dos meus estudos sobre o livro Econometria Básica 5ª edição de Damodar N. Gujarati e Dawn C. Porter. Ressalta-se que nessa obra há 13 capítulos dedicados ao estudo das regressões lineares dentro do contexto da ciência da econometria. As notas consistem em exemplos e exercícios explorados com as ferramentas do ecossistema do python.

As ferramentas e pacotes utilizados:

  • Python.
  • Jupyter notebook.
  • Scikit Learn (Linear Regression).
  • LibreOffice Calc.
  • Statsmodels.
  • Scipy.
  • Pingouin.
  • Matplotlib.
  • Seaborn.

Notas de estudo de estatística.

Estas notas fazem parte dos meus estudos sobre o livro Estatística Prática para Cientistas de Dados 1ª edição de Peter Bruce & Andrew Bruce. Ressalta-se que nessa obra há vários capítulos dedicados ao estudo da disciplina estatística com foco no que é amplamente utilizado no universo da ciência de dados. As notas consistem em exemplos explorados com as ferramentas do ecossistema do python.

As ferramentas e pacotes utilizados:

  • Python.
  • Jupyter notebook.
  • Statsmodels.
  • Scipy.
  • Pingouin.
  • Matplotlib.
  • Seaborn.

Projetos de estudo sobre Web Scraping.

Convém mencionar que umas das habilidades mais importantes dentro do universo da ciência de dados consiste na coleta de dados web, que é notoriamente conhecida como web scraping (raspagem web). Ressalta-se que as notas consistem em projetos de estudo elaborados com as ferramentas do ecossistema do python, onde coleto informações de forma automatizada de websites, e-commerces e plataformas de viagens.

As ferramentas e pacotes utilizados:

  • Python.
  • Jupyter notebook.
  • Scrapy.
  • Beautiful Soap.
  • Requests.
  • Pandas.

Contato

Sinta-se a vontade para entrar em contato !!!