
Đã đóng
Đã đăng vào
Thanh toán khi bàn giao
Preciso de uma aplicação capaz de varrer aproximadamente 500 sites de leiloeiros e extrair, diariamente, os preços e ofertas publicados. Meu objetivo é acompanhar variações de valor e condições em tempo quase real, gerando um arquivo consolidado que eu possa tratar depois em outras ferramentas de análise. Eu fornecerei uma planilha base contendo: • A lista completa dos domínios a serem monitorados • Os campos extras que desejo capturar em cada página (descrição do item, data e hora do leilão, nome do vendedor, entre outros) O que espero da entrega: 1. Crawler/web-scraper funcional que percorra todos os endereços e colete as informações especificadas. 2. Atualização diária automática, com opção de ajuste futuro para outros intervalos. 3. Saída em formato CSV ou JSON, organizada exatamente conforme a planilha de referência. 4. Código comentado e documentado, pronto para rodar em ambiente Linux. 5. Relatório breve explicando arquitetura, bibliotecas utilizadas e instruções de implantação. Sinta-se livre para empregar Python, Scrapy, Selenium, Playwright ou técnicas de IA que agilizem identificação de padrões ou bloqueios. O importante é garantir estabilidade, capacidade de lidar com CAPTCHAs ou paginações complexas e facilidade de manutenção. Se já tiver exemplos de trabalhos semelhantes, mencione. Estou disponível para esclarecer dúvidas e testar entregas parciais ao longo do desenvolvimento.
Mã dự án: 40353304
44 đề xuất
Dự án từ xa
Hoạt động 4 ngày trước
Thiết lập ngân sách và thời gian
Nhận thanh toán cho công việc
Phác thảo đề xuất của bạn
Miễn phí đăng ký và cháo giá cho công việc
44 freelancer chào giá trung bình $524 USD cho công việc này

⭕⭕WEB SCRAPING / DATA ENGINEERING EXPERT⭕⭕ Hi there, ✔️ I see you are looking for a robust web scraping solution to monitor ~500 auction websites daily and extract structured pricing and listing data in real-time, and I’d be glad to help you build a scalable and stable data pipeline for this. ✍️ Are all 500 websites similar in structure or completely different platforms? ✍️ Do you already have access to proxies / scraping infrastructure or should I set it up? ✍️ How near real-time do you want updates (hourly, daily, or custom intervals)? ➰ I can build you a highly stable, scalable scraping system with clean architecture that ensures continuous data flow and minimal maintenance effort. Let’s connect to discuss your dataset structure and start planning the crawler architecture. Thank you.
$500 USD trong 7 ngày
9,9
9,9

With over 7 years as a Full-Stack Web Developer, I have ample experience in automation and data processing, which makes me especially well-suited for your project. I am confident in my ability to create a robust web crawler that will navigate through the myriad of auction websites and extract the specific information you require. My skills go beyond simple scraping; I'm skilled in Python, Scrapy, Selenium, and much more—which allows me to utilize advanced techniques for stable scraping even in the face of CAPTCHAs or complex pagination challenges. This isn't my first rodeo with projects like yours. I have successfully developed similar web scraping solutions for various clients in the past, delivering consistent results with high accuracy. My approach is not just about writing code but also providing detailed documentation and clear instructions for implementation—leveraging these two qualities can make maintenance of your solution an effortless task in the future. In addition to meeting your specifications outlined in the delivery expectations, my commitment to clean code, optimized performance, and long-term maintainability guarantees a result that won't just meet your needs but also evolves with them. I look forward to discussing your project further and demonstrating additional ways my skillset can provide value-add.
$500 USD trong 5 ngày
8,8
8,8

⭐⭐⭐⭐⭐ I'm Raman from CnELIndia and I am thrilled to offer my expertise as your dedicated crawler and web scraper! Over the past 18 years, I have cultivated strong skills in PHP, Python, Scrapy, Web Scraping – precisely what your project needs. My countless succesful projects prove my ability to deliver high-quality results while keeping both time constraints and budget in mind, something that will undoubtedly be an asset for our collaboration. Regarding your requirements, I am experienced in creating functional crawlers/web-scrapers that are adept at handling intricate pagination or CAPTCHA blocks. Furthermore, I can provide you with regular automatic updates with the option to adjust the intervals as per your preference - all stored in tightly organized CSV/JSON files. My nature of work involves highly detailed code commenting and documentation to ensure easy maintenance. You can vouch on me for timely delivery of a stable and well-documented solution that aligns perfectly with your Linux environment. I'll even include a brief report on architecture, libraries employed with deployment instructions for your convenience. Let my proficiency work for you. Choose me as your partner and we will ensure harmonious data collection that you can leverage on later for further analysis! Feel free to ask anything or test my skills through partial deliverables along the development process. Looking forward to discussing more about the project!
$500 USD trong 7 ngày
9,0
9,0

Hello, I understand you need a scalable application to crawl ~500 auction websites daily, extract structured data (prices, listings, seller info, timing), handle pagination/CAPTCHAs, and generate clean CSV/JSON outputs aligned with your reference sheet. I’ll build a robust Python-based pipeline (Scrapy + Playwright) with modular spiders, scheduling (cron), proxy/CAPTCHA handling, deduplication, and structured exports—fully documented and ready for Linux deployment. I have 10+ years of experience delivering large-scale, resilient scraping systems with automation, monitoring, and maintainable codebases. Let’s connect in chat so I can review your spreadsheet, share similar projects, and outline a phased delivery plan. thank you Regards Gaurav Garg
$500 USD trong 7 ngày
8,5
8,5

As a seasoned python developer with an undeniable passion for web automation, data mining, and AI, I am confident in my ability to take on your project. With a career spanning over 13 years, I have consistently built tailored solutions that deliver high-impact results for clients just like you. My expertise spans across a wide range of relevant areas, including Python, Scrapy, Selenium, and Web Scraping - all of which align perfectly with your project needs. I am here to give your business the much needed competitive edge it deserves through accurate data extraction! So why not let us discuss your ideas further? Schedule a chat with me today for a truly rewarding collaboration.
$250 USD trong 2 ngày
7,2
7,2

Hi The main technical challenge in this project is building a scraper architecture that can reliably handle 500 different auction sites with different HTML structures, pagination patterns, anti-bot protections, and changing layouts without becoming fragile. I have strong experience with Python, Scrapy, Playwright, Selenium, Linux deployment, and structured data pipelines for large-scale web extraction projects. I would approach this with a modular crawler framework, site-specific parsers, retry and proxy handling, scheduled runs, and normalized output mapping based on your reference spreadsheet. To improve stability, I would separate crawling, extraction, validation, and export layers, while using headless browser automation only where dynamic rendering or JavaScript-heavy pages require it. I can also implement support for pagination, deduplication, structured logging, and configurable scheduling so the system can run daily now and be adjusted later. The final result would be a maintainable Linux-ready scraping solution that exports clean CSV or JSON data in the exact structure you need for downstream analysis. Thanks, Hercules
$500 USD trong 7 ngày
7,0
7,0

Olá, posso desenvolver um crawler eficiente para monitorar os 500 sites de leilões que você mencionou, extraindo os preços e ofertas em quase tempo real conforme sua planilha. Usarei Python com Scrapy e Selenium para garantir estabilidade, lidar com CAPTCHAs e paginações complexas, entregando arquivos CSV ou JSON alinhados ao modelo fornecido. O código será bem documentado para facilitar futuras manutenções e a aplicação poderá ser executada em ambiente Linux com atualizações diárias automáticas, com a possibilidade de ajustes nos intervalos conforme sua necessidade. Thanks, Teo
$500 USD trong 3 ngày
6,5
6,5

Olá! Sou um especialista em web scraping com mais de 9 anos desenvolvendo crawlers robustos em Python (Scrapy, Selenium, Playwright) para extrair preços e ofertas de centenas de sites de leilões diariamente. Here's how I can help: - Construir crawler que varrerá 500 domínios extraindo preços, ofertas, descrições, datas e vendedores conforme sua planilha - Automatizar atualizações diárias com saída em CSV/JSON e tratamento de CAPTCHAs/paginações complexas - Entregar código comentado, documentado, pronto para Linux + relatório de arquitetura e implantação Perguntas: Os sites possuem estrutura HTML semelhante ou cada um é único? Há necessidade de login para acessar os preços?
$500 USD trong 7 ngày
6,8
6,8

Olá, Eu analisei os detalhes do seu projeto e estou seguro de que posso ajudar. Com mais de 10 anos de experiência em desenvolvimento de aplicações e especialização em web scraping com Python, Scrapy e Selenium, posso criar um crawler eficiente que atenda a todas as suas necessidades. Meu foco será desenvolver uma solução que colete informações de aproximadamente 500 sites de leilões, realizando varreduras diárias e gerando relatórios em CSV ou JSON conforme especificado. Garanto que a aplicação será capaz de lidar com CAPTCHAs e paginações complexas, além de ser escrita em código comentado e documentado. Caso deseje, posso compartilhar exemplos de trabalhos semelhantes que desenvolvi. A comunicação clara e atualizações regulares serão mantidas ao longo do projeto. Aqui está meu portfólio: https://www.freelancer.in/u/ixorawebmob Estou interessado no seu projeto e gostaria de esclarecer: Quais são os principais desafios que você vê na coleta das informações desses sites? Vamos conversar por chat!
$250 USD trong 25 ngày
7,1
7,1

Hello, li que você precisa rastrear diariamente cerca de 500 sites de leilões e consolidar preços, ofertas e campos personalizados definidos na sua planilha base. Já construí sistemas semelhantes usando Scrapy e Playwright para grandes volumes, entregando coleta estável mesmo em páginas com paginação profunda e mecanismos de bloqueio. Ao analisar seu escopo, o ponto crítico é lidar com a heterogeneidade dos leiloeiros: HTML inconsistente, CAPTCHAs ocasionais e fluxos de navegação diferentes. Um scraper mal projetado falha rápido nesses cenários, por isso estruturo cada domínio com middlewares específicos e fallback automatizado para browsers headless. Eu configurarei pipelines para extrair exatamente os campos indicados, padronizar a saída e gerar CSV ou JSON diário, agendado via cron em Linux. Também implementarei módulos dedicados para detecção de captchas, controle de sessões e logs detalhados. Antes de avançar, preciso confirmar se haverá autenticação em algum dos domínios e se o servidor Linux disponível possui acesso a um navegador headless. Fecho a entrega com um relatório objetivo e código documentado. Best regards, John allen.
$500 USD trong 7 ngày
5,9
5,9

Hi, As per my understanding: You need an automated web scraping application to monitor approximately 500 auction websites daily. The tool must extract specific data points (prices, descriptions, auction dates) based on your provided spreadsheet. The system needs to bypass CAPTCHAs, handle complex pagination, and output a daily consolidated CSV/JSON file to track price variations, running stably on a Linux environment. Implementation approach: Architecture Setup: I will build a highly concurrent scraping framework in Python, using Playwright for sites with complex JS/CAPTCHAs and Scrapy for fast static scraping. Data Extraction: I will configure parsers for the domains, integrating proxy rotation to prevent IP bans. If layouts vary unpredictably, I can apply AI to dynamically map the targeted data fields. Automation: I will containerize the application using Docker for your Linux server, scheduling daily executions via Cron or Airflow, complete with error-handling and auto-retries. Delivery: I will deliver the well-commented codebase, deployment instructions, and the precise CSV/JSON output structure you requested. A few quick questions: Do you already have a proxy provider, or should I recommend one? Would you consider storing data in a database (e.g., PostgreSQL) before exporting to better track historical variations?
$250 USD trong 7 ngày
5,6
5,6

Olá, analisei os detalhes do seu projeto. Posso criar um web scraper estável usando Python com Scrapy ou Playwright para escanear todos os 500 sites e extrair os dados necessários para arquivos CSV ou JSON limpos. Cuidarei da paginação, conteúdo dinâmico e casos básicos de captcha, além de configurar um agendador para execuções diárias automatizadas no Linux. O código será bem estruturado, documentado e fácil de atualizar conforme suas necessidades de dados aumentarem. Vamos conversar em detalhes, pois isso me ajudará a elaborar um plano completo, incluindo um cronograma e um orçamento estimado. Compartilharei meu portfólio no chat. Podemos agendar uma breve reunião para discutirmos isso? mughiraa
$500 USD trong 7 ngày
5,4
5,4

Hi, posso desenvolver uma aplicação robusta em Python para varrer cerca de 500 sites de leilões diariamente, lidando com paginação, CAPTCHAs e conteúdo dinâmico usando Scrapy/Playwright. Entregarei os dados em CSV/JSON conforme sua planilha, com código bem documentado e pronto para rodar em Linux. Tenho experiência em scraping em larga escala e posso garantir estabilidade, automação e fácil manutenção. Best regards, Shakila Naz
$250 USD trong 7 ngày
5,1
5,1

Hello, Hope you are doing fine. I have built large‑scale scrapers for 500+ auction sites using Python (Scrapy, Playwright) that handle pagination, CAPTCHAs, and daily automation. I will create a robust crawler that reads your domain list, extracts the required fields (item description, auction date/time, seller, etc.), and outputs a clean CSV/JSON daily. The code will run on Linux with scheduled updates (cron) and be fully documented. I can also implement retry logic and proxy rotation if needed. I have examples of similar work to share. Let’s discuss your spreadsheet and any site specifics in chat. Best regards, Md Ruhul Ajom
$250 USD trong 5 ngày
5,5
5,5

Hi, I will develop a robust web scraper tailored to extract pricing and auction data from approximately 500 auction sites daily. Leveraging Python with libraries like Scrapy or Selenium, I'll ensure the scraper navigates complex pagination and handles CAPTCHAs seamlessly. My prior experience with similar projects means I can deliver a reliable solution that meets your specifications. The scraper will automatically update as per your requirements, outputting data in CSV or JSON formats exactly as outlined in your reference spreadsheet. You’ll receive well-commented code, ready for deployment on a Linux environment, along with a concise report detailing the architecture and libraries used. To ensure smooth execution, I would like to clarify your preferences regarding data storage and whether you require any specific error-handling mechanisms. I'm ready to start immediately and look forward to delivering a solution that meets your needs. Thank you.
$537,50 USD trong 7 ngày
3,3
3,3

Hi, This is Jagrati. I checked your project description and understand you need a scalable scraping system capable of monitoring around 500 auction websites daily, extracting pricing and offer data with high reliability. The goal is to build a robust, automated pipeline that consolidates data in near real-time, while remaining flexible for future scaling and adjustments. My approach would be to design a distributed and fault-tolerant crawler using Python (Scrapy/Playwright depending on site complexity), with support for handling pagination, dynamic content, and anti-bot protections. I would implement scheduling (cron or queue-based system) for daily automated runs, along with structured data pipelines to ensure clean CSV/JSON outputs exactly matching your reference schema. The system will also include logging, retry mechanisms, and modular parsing logic for easy maintenance across hundreds of domains. I’d be happy to go through the details and suggest the best technical approach. I have a few questions to get a better understanding: Q1 – Are most of the target sites static, or should we expect heavy use of JavaScript (requiring Playwright/Selenium for rendering)? Q2 – Do you want a centralized system managing all 500 sites, or a modular architecture where each domain has its own parser/handler? Q3 – For CAPTCHA handling, do you prefer third-party solving services or fallback/manual bypass strategies where needed? Looking forward to hearing from you. Best regards, JP
$500 USD trong 7 ngày
2,5
2,5

Olá, Após uma análise detalhada dos requisitos do seu projeto, compreendi plenamente o escopo e as expectativas. Tenho experiência na criação de crawlers de grande escala e pipelines de coleta de dados diários, e estou disponível para iniciar seu projeto agora mesmo. Possuo vasta experiência em Python, Web Scraping, Scrapy, Selenium, Extração e Processamento de Dados, com mais de 10 anos de atuação no mercado, e estou aqui para ajudá-lo(a) a construir uma solução estável para monitorar cerca de 500 sites de leilão com extração diária automatizada. Um dos principais desafios em projetos como este é lidar com diferentes estruturas de sites, paginação, proteção anti-bots e manter a consistência da saída em todas as fontes. Posso construir um pipeline de scraping pronto para Linux usando Python com Scrapy, Selenium ou Playwright, conforme necessário, estruturado para ler sua planilha de referência, extrair os campos necessários, executar em uma programação diária e exportar CSV ou JSON limpos exatamente no formato que você precisa. Tenho algumas perguntas rápidas. • Os 500 sites seguem padrões parecidos ou cada leiloeiro tem estrutura bem diferente? • Você já possui servidor Linux preparado para agendamento diário, ou prefere que eu inclua isso na entrega? Ansioso por saber sobre você. Atenciosamente, Carlos
$250 USD trong 6 ngày
2,6
2,6

Hello, I clearly understand your requirement to build a robust web scraping system that can monitor hundreds of auction websites daily, extract structured data, and generate a clean, analysis-ready dataset. I have experience developing scalable scrapers using Python (Scrapy/Selenium/Playwright) and can design a system capable of handling pagination, dynamic content, and common challenges like CAPTCHAs. I will ensure the solution is stable, automated for daily execution, and outputs data in a well-structured CSV/JSON format aligned with your reference sheet. The final delivery will include fully documented code, deployment instructions for a Linux environment, and a clear overview of the architecture to ensure easy maintenance and future adjustments. Looking forward to working with you. Best regards.
$250 USD trong 2 ngày
2,0
2,0

Desenvolvo um crawler robusto para monitorar os 500 sites de leilão especificados, extraindo preços, descrições, datas dos leilões e dados do vendedor conforme sua planilha. Utilizarei Python com Selenium/BeautifulSoup para lidar com sites dinâmicos, implementando rotação de user-agents e delays inteligentes para evitar bloqueios. O sistema gerará arquivos CSV/JSON organizados por data e site, com agendamento automático via cron para execução diária. Incluirei tratamento de erros robusto para sites offline, mudanças de layout e captchas, além de logs detalhados do processo. A arquitetura modular permitirá fácil adição de novos campos ou sites futuramente. Como diferencial, implementarei cache inteligente para detectar apenas itens novos/alterados, otimizando performance e reduzindo carga nos servidores alvo.
$750 USD trong 7 ngày
1,4
1,4

Hi. I am so intereted for your project. As an experienced software developer, I have rich experiences in web scraping using several approaches like selenium, scrapy, beautifulshop, and javascript based playwright and the other sevral methos. So I scraped several websites and images, audios with scraping method and integrated to the web dashboard. This is my experiences and this would be helpful for your project, I am sure. I am looking for chat with you to discuss in detail. Best, Loannnis
$500 USD trong 7 ngày
1,6
1,6

Canoas, Brazil
Phương thức thanh toán đã xác thực
Thành viên từ thg 11 13, 2012
$10-30 USD
$30-250 USD
$10-30 USD
$250-750 USD
$250-750 USD
$10-100 USD
₹400-750 INR/ giờ
$30-250 USD
$8-15 USD/ giờ
$30-250 USD
$30-250 USD
$250-750 AUD
$25-50 USD/ giờ
₹1500-12500 INR
€12-18 EUR/ giờ
₹1500-12500 INR
$10-30 AUD
$750-1500 AUD
₹400-750 INR/ giờ
₹1500-12500 INR
$250-750 USD
€30-250 EUR
$15-25 USD/ giờ
$10-30 USD
$250-750 AUD