Web Scraping GRÁTIS com Antigravity (sem escrever código)
Resumo
O vídeo apresenta uma solução para realizar web scraping de forma automática e sem precisar escrever código, superando os problemas comuns de bloqueio de IP e mudanças de layout em sites. O autor utiliza as ferramentas Antigravity e Gemini para construir um robô inteligente (Spider) que lê qualquer site automaticamente (0:26).
Principais pontos abordados:
- Desafios do scraping tradicional: Sites modernos mudam layouts frequentemente e bloqueiam requisições simples. Além disso, muitos sites dependem de JavaScript, o que dificulta a leitura do HTML tradicional (1:09 - 2:06).
- Solução com IA (Gemini): O LLM interpreta o HTML semanticamente, detectando automaticamente produtos, preços e descrições sem necessidade de XPath fixo (10:02).
- Contorno de bloqueios (Proxy): O vídeo explica a importância do uso de proxies residenciais ou mobile de alta rotatividade para evitar banimentos de IP, destacando a parceria com a Proxy Seller (2:46 - 3:07).
- Desenvolvimento visual: Utilizando o Antigravity, o autor demonstra como cadastrar sites, configurar a IA, realizar a extração e exportar os dados estruturados em JSON ou CSV por meio de uma interface gráfica (3:23 - 5:58).
- Ferramentas utilizadas: A stack tecnológica inclui Antigravity, Gemini, Playwright, SQLite, Next.js e Docker (12:55 - 15:45).
Descrição
🔥 Proxy Seller
https://kRtNfq.short.gy/K8FrYo
✅ Download do projeto (Comunidade)
https://kRtNfq.short.gy/rS832O
✅ Curso "Automação com IA e n8n + Comunidade"
https://aalencar.com.br
✅ Loja online de Fluxos e E-books
https://shop.aalencar.com.br
✅ link com desconto de 20% da Hostinger
https://bit.ly/4hhXoJR
Web scraping quebra toda vez que o site muda de layout. Sites modernos bloqueiam requisições simples. IPs são banidos em minutos. Neste vídeo eu mostro como resolvi esses três problemas de uma vez — construindo um Web Spider que lê qualquer site automaticamente, sem XPath fixo e sem configuração manual.
O app detecta a estrutura do HTML em tempo real, ajusta os seletores sozinho e exporta os dados organizados em JSON ou CSV. Tudo via interface visual — sem terminal, sem código.
Mostro também como integrar um servidor proxy diretamente no spider para eliminar bloqueios de IP, usando proxies residenciais e mobile de alta rotatividade.
⚙️ O que você vai ver neste vídeo:
- → Por que o scraping tradicional falha em sites JavaScript-heavy
- → Como o LLM interpreta o HTML semanticamente (produto, preço, descrição)
- → Ajuste automático de seletores sem intervenção manual
- → Cadastro e gerenciamento de múltiplos sites em paralelo
- → Exportação estruturada: JSON e CSV prontos para uso
- → Integração de proxy residencial/mobile direto no spider
🛠️ Stack utilizada:
#Antigravity #Proxy · Gemini · Playwright · SQLite · Next.js · Docker