A Lyza é uma legaltech especializada em soluções de automação jurídica e análise de dados judiciais.
Estamos construindo uma infraestrutura de extração e estruturação de informações dos tribunais brasileiros, com o objetivo de mapear novos processos, gerar inteligência sobre demandas judiciais e apoiar estratégias de defesa e prospecção jurídica.
Nosso ecossistema combina Django, FastAPI, Celery, Postgres, Redis, e Docker em um ambiente distribuído, escalável e orientado a dados.
Agora, buscamos uma pessoa que lidere a área de coleta de dados (scraping & automação judicial).
Você será responsável por estruturar e evoluir a nova camada de extração de dados judiciais, garantindo:
Escalabilidade e resiliência dos scrapers;
Integração contínua com pipelines de dados e APIs internas;
Manutenção e evolução da infraestrutura na cloud;
Coordenação técnica de novos scrapers (internos e terceirizados);
Uso eficiente de filas, proxies, e monitoramento de performance.
Trata-se de um papel estratégico e com alto grau de autonomia — ideal para quem deseja liderar tecnicamente uma área e construir algo grande do zero.
Desenvolver e manter scrapers de alto desempenho para múltiplos tribunais brasileiros (PJe, Eproc, Projudi, entre outros);
Automatizar rotinas de coleta diária de processos, priorizando estabilidade e performance;
Criar pipelines de processamento, limpeza e armazenamento de dados em bancos relacionais e não relacionais;
Integrar APIs e serviços (internos e externos);
Configurar e manter ambientes em containers (Docker) e nuvem (AWS ou GCP);
Propor e implementar boas práticas de versionamento, monitoramento e segurança.
Obrigatórios:
Experiência sólida com Python (BeautifulSoup, Playwright ou Selenium);
Experiência com Docker e ambientes containerizados;
Conhecimentos em infraestrutura e deploy (AWS, GCP, ou DigitalOcean);
Banco de dados PostgreSQL e Redis;
Familiaridade com fila de tarefas (Celery ou similares);
Conhecimentos sólidos em controle de versão (Git) e boas práticas de desenvolvimento;
Boa comunicação técnica e senso de dono.
Desejáveis:
Experiência com scraping judicial ou projetos de coleta massiva de dados públicos;
Experiência com FastAPI ou Django REST Framework;
Conhecimento em monitoramento (Prometheus, Grafana);
Experiência com proxy rotation, captcha solving, e rate limiting.
Pessoa curiosa, analítica e independente;
Que tenha base técnica sólida, e que esteja motivada a crescer;
Que entenda o impacto real do seu código e queira ver resultados concretos;
Que goste de resolver problemas complexos e deixar tudo mais automatizado.
Ambiente 100% remoto, colaborativo e com alta autonomia técnica;
Oportunidade real de liderar uma área estratégica dentro da empresa;
Cultura de aprendizado contínuo e inovação aplicada;
Remuneração compatível com o mercado pleno/sênior + bônus por performance;
Possibilidade de crescimento para Tech Lead da área de coleta de dados.
Envie seu currículo e/ou GitHub para [email protected], com o assunto:
[Vaga Scraping – Seu Nome]
Your email won't be used for commercial purposes. Read our Privacy Policy.