Scraper 12 plateformes ATS — Lever, Greenhouse, Workday et plus
Extrayez les offres d'emploi directement depuis les pages carrières propulsées par 12 plateformes ATS majeures. Détection automatique de l'ATS et extraction structurée. Fournissez simplement les URLs des pages carrières. HTTP-only — sans Chrome, sans Playwright.
Tarifs
Paiement au résultat
Détection
Auto-détection ATS
Plateformes ATS supportées
- Lever — pages carrières jobs.lever.co
- Greenhouse — tableaux d'offres boards.greenhouse.io
- Workable — offres apply.workable.com
- Ashby — pages carrières jobs.ashbyhq.com
- Teamtailor — sites carrières company.teamtailor.com
- Personio — tableaux d'offres company.jobs.personio.de
- SmartRecruiters — offres jobs.smartrecruiters.com
- BambooHR — tableaux d'offres company.bamboohr.com
- Workday — sites carrières company.wd5.myworkdayjobs.com
- iCIMS — portails careers-company.icims.com
- Recruitee — pages carrières company.recruitee.com
- JOIN — offres d'entreprises join.com
Cas d'utilisation
- Intelligence concurrentielle RH — surveillez quels postes vos concurrents pourvoient
- Prospection commerciale — les signaux de recrutement indiquent croissance et budget
- Agrégation d'emplois — construisez des flux complets depuis les sources directes
- Analyse du marché des talents — suivez quelles compétences et postes sont prioritaires
- Recherche investisseur — la vitesse de recrutement comme proxy de croissance
Exemple API
curl -X POST "https://api.apify.com/v2/acts/santamaria-automations~career-site-jobs-scraper/runs?token=YOUR_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"urls": [
"https://jobs.lever.co/openai",
"https://boards.greenhouse.io/anthropic",
"https://stripe.jobs.personio.de"
]
}'
Intégrations
- n8n / Make / Zapier — déclencher des exécutions et traiter les résultats via webhook
- Agents IA (MCP) — Claude Desktop, Cursor, VS Code, LangChain, LlamaIndex
- Python / Node.js — SDK Apify pour l'accès programmatique
- Google Sheets / Airtable — export via les intégrations Apify
Comparaison
| Caractéristique | NanoScrape | Scrapers custom par ATS |
| Image Docker | ~12MB | 500MB+ chacun |
| Couverture ATS | 12 plateformes, 1 outil | 1 scraper par plateforme |
| Temps de configuration | 0 — fournissez les URLs | Heures par plateforme |
| Auto-détection | Oui | Non |
| Sortie unifiée | Oui | Schémas différents |
| Maintenance | Gérée par NanoScrape | Vous maintenez tout |
Champs de sortie
| Champ | Type | Exemple |
| title | string | Senior Backend Engineer |
| company | string | Anthropic |
| location | string | San Francisco, CA |
| department | string | Engineering |
| employment_type | string | Full-time |
| description | string | Description complète du poste |
| apply_url | string | https://boards.greenhouse.io/... |
| ats_platform | string | greenhouse |