Descrição

Hoje trago duas posições em uma! Um 2x1! ????

Na HAYS, estamos buscando um Data Engineer e um Data Scientist para uma multinacional do setor de TI que opera em mais de 50 países! ????

Por isso, deixo abaixo ambas as descrições de trabalho! (Posteriormente, nas perguntas de triagem, vocês poderão marcar em qual delas têm mais interesse). ✅

_________________________________________________________________________________

1) Data Scientist em IA Generativa (DS GenAI) ????????

  • Responsabilidades:
  • Desenvolver, ajustar e implantar modelos de IA Generativa usando serviços da AWS como Bedrock, SageMaker e Lambda. �
  • Trabalhar com LLMs, embeddings, transformers e modelos de difusão para aplicações em PLN, geração de imagens e automação de IA. ????️????
  • Otimizar a engenharia de prompts, ajuste fino e técnicas de Aprendizado por Reforço com Feedback Humano (RLHF). ????️
  • Construir pipelines de MLOps escaláveis para treinamento e implantação de modelos de IA Generativa usando SageMaker, ECS e Kubernetes. ????️
  • Processar e gerenciar conjuntos de dados em grande escala para treinamento de IA usando AWS Glue, Athena e Redshift. ????
  • Implementar bancos de dados vetoriais (Pinecone, Weaviate, FAISS, Amazon OpenSearch) para aplicações de geração aumentada por recuperação (RAG). ????
  • Projetar e otimizar pipelines ETL para fluxos de trabalho de dados de IA/ML. ????
  • Monitorar o desempenho dos modelos de IA e as necessidades de re-treinamento usando AWS CloudWatch, MLFlow e outras ferramentas de observabilidade. ????
  • Requisitos:
  • Forte experiência em Ciência de Dados, Aprendizado de Máquina e IA Generativa. ????
  • Proficiência em Python, SQL e frameworks de ML (TensorFlow, PyTorch, Hugging Face Transformers). ????
  • Experiência com serviços de IA/ML da AWS como SageMaker, Bedrock, Lambda e Comprehend. ☁️
  • Experiência prática com LLMs, embeddings, transformers e modelos de difusão. ????
  • Familiaridade com Geração Aumentada por Recuperação (RAG), bancos de dados vetoriais e grafos de conhecimento. ????️
  • Experiência em MLOps, conteinerização (Docker, Kubernetes, ECS) e CI/CD para pipelines de ML. ????️
  • Sólido entendimento de otimização em nuvem, computação distribuída e escalabilidade de modelos. ????
  • Conhecimento de modelos de PLN, geração de imagens ou soluções de IA multimodal. ????️
  • Desejável:
  • Experiência com ajuste fino de modelos open-source (LLaMA, Falcon, Mistral, Stable Diffusion). ????️
  • Certificações AWS, como AWS Certified Machine Learning – Specialty. ????
  • Experiência com aplicações de IA em tempo real, desenvolvimento de chatbots ou agentes autônomos. ????
  • Conhecimento de IA ética, mitigação de viés e melhores práticas de segurança em IA. ⚖️

_________________________________________________________________________________

2) Join our Team as Data Engineer ????????

We are seeking talented Data Engineers to join our team and work on a innovative project.

  • Daily Tasks:
  • ???? Design and implement scalable data pipelines using AWS services such as Glue, Lambda, Step Functions, and Kinesis.
  • ��️ Develop and optimize ETL workflows to process large datasets efficiently.
  • ????️ Build and maintain data lakes and data warehouses
  • ????Ensure data integrity, governance, and security through proper IAM policies, encryption, and compliance frameworks.
  • ???? Work with structured and unstructured data to enable analytics, AI/ML, and business intelligence use cases.
  • ????️ Optimize SQL and NoSQL databases (Redshift, DynamoDB, RDS, OpenSearch) for performance and cost efficiency.
  • ???? Automate infrastructure deployment using Infrastructure as Code (IaC) tools like Terraform or AWS CloudFormation.
  • ��️ Implement real-time and batch data processing using AWS Glue.
  • ???? Collaborate with Data Scientists, AI/ML Engineers, and DevOps teams to support data-driven applications.
  • ????️ Monitor and troubleshoot data pipelines with CloudWatch, Datadog, or ELK Stack.
  • Requirements:
  • ???? Strong experience in AWS cloud environments.
  • ???? Proficiency in Python, SQL, and Spark for data processing and transformation.
  • ????️ Hands-on experience with AWS Glue, Redshift, Athena, EMR, S3, and Lambda.
  • ???? Experience with ETL orchestration tools (Step Functions, Airflow, Prefect, Dagster).
  • ???? Familiarity with containerization (Docker, Kubernetes, ECS) and CI/CD pipelines.
  • ???? Understanding of data security, IAM policies, and encryption best practices.
  • Nice to Have:
  • ???? AWS certifications such as AWS Certified Data Analyti

    Para se candidatar a esta vaga, faz login ou crie uma conta.