Candidatar-me agora
O projeto: Estamos procurando excelentes profissionais em Engenharia de Dados para este projeto com um cliente formado por um conjunto de empresas que cria, produz e distribui conteúdos de qualidade, em todas as plataformas. Sua produção nas áreas de Jornalismo, Esporte e Entretenimento atinge 99,6% da população e a programação de seus canais lineares fala com mais de 100 milhões de brasileiros todos os dias.
O dia-a-dia:
· Colaborativamente, projetar, desenvolver e manter pipelines de dados que atendam a necessidades específicas de negócio.
· Colaborar em todo ciclo de vida de código desde a concepção até à implantação, manutenção e monitoração.
· Melhorar a experiência de desenvolvimento, aprimorando as ferramentas de desenvolvimento, cobertura de teste e / ou estrutura de código.
· Participar ativamente de discussões e decisões de design de software.
· Criar soluções escaláveis, de fácil manutenção e direcionadas ao usuário.
Os requisitos obrigatórios:
· Boa experiência em desenvolvimento com Python (p.ex., Tornado, FastAPI e Flask).
· Vivência com computação em nuvem (principalmente GCP e desejável AWS).
· Experiência com versionamento de código com GIT.
· Experiência em CI/CD moderno.
· Conhecimento em ferramentas de infraestrutura como código, principalmente Terraform.
· Prática em SQL para consultas em bancos de dados relacionais e datawarehouses (principalmente, Big Query).
· Conhecimento em sistemas para camada de cache em memória, p.ex., Redis, memcached etc.
· Conhecimento em plataformas/motores de busca textual (por exemplo, ElasticSearch, Lucene, Solr, etc).
· Conhecimento em sistemas e brokers de mensageria (por exemplo, ActiveMQ, Apache Kafka etc.).
Os requisitos diferenciais:
· Boas práticas de engenharia e arquitetura de software, como SOLID, TDD e Padrão de Projetos.
· Conhecimento em tópicos de System Design, p.ex., escalonamento vertical vs. horizontal, balanceamento de carga, replicação e particionamento de bancos de dados, proxies etc.
· Vivência com frameworks ágeis, e.g., scrum, kanban etc.
· Uso de bancos de dados para grafos, GraphDB etc.
· Conhecimento em web semântica e ontologias, além de experiência com sparql.
· Experiência com frameworks de especificação e gerenciamento de workflows de dados como Airflow, Cloud Composer, Azkaban etc.
· Conhecimento em frameworks de processamento de dados de grande escala.
· Conhecimento em bibliotecas e frameworks de Aprendizagem de Máquina (por exemplo, scikit-learn, pycaret, Keras, Pytorch, Tensorflow etc) e processamento de Linguagem Natural (por exemplo, spacy, NLTK, gensim etc).
· Conhecimento nas disciplinas de SRE e DevOps.
Formação Acadêmica:
· Superior Completo ou em fase de conclusão em TI ou áreas de exatas.
Você está em uma área do site da empresa NTConsult fornecida pela plataforma Compleo.
Ao clicar no botão Candidatar-me agora você CONCORDA com os termos de uso e a política de privacidade do COMPLEO.