12 ATS-Plattformen scrapen -- Lever, Greenhouse, Workday & mehr
Stellenanzeigen direkt von Karriereseiten extrahieren, die von 12 grossen ATS-Plattformen betrieben werden. Erkennt das ATS automatisch und extrahiert strukturierte Jobdaten. Einfach Karriereseiten-URLs angeben. Rein HTTP-basiert -- kein Chrome, kein Playwright.
Erkennung
ATS-Autoerkennung
Unterstützte ATS-Plattformen
- Lever -- jobs.lever.co Karriereseiten
- Greenhouse -- boards.greenhouse.io Jobbörsen
- Workable -- apply.workable.com Stellenanzeigen
- Ashby -- jobs.ashbyhq.com Karriereseiten
- Teamtailor -- company.teamtailor.com Karriereseiten
- Personio -- company.jobs.personio.de Jobbörsen
- SmartRecruiters -- jobs.smartrecruiters.com Stellenanzeigen
- BambooHR -- company.bamboohr.com Jobbörsen
- Workday -- company.wd5.myworkdayjobs.com Karriereseiten
- iCIMS -- careers-company.icims.com Portale
- Recruitee -- company.recruitee.com Karriereseiten
- JOIN -- join.com Firmeneinträge
Typische Anwendungsfälle
- Einstellungs-Intelligence der Konkurrenz -- beobachten, welche Rollen Ihre Wettbewerber besetzen
- Vertriebsakquise -- Einstellungssignale zeigen Unternehmenswachstum und Budget an
- Job-Aggregation -- umfassende Job-Feeds aus direkten Unternehmensquellen erstellen
- Talentmarktanalyse -- verfolgen, welche Skills und Rollen Unternehmen priorisieren
- Investorenrecherche -- Einstellungsgeschwindigkeit als Indikator für Unternehmenswachstum
API-Beispiel
curl -X POST "https://api.apify.com/v2/acts/santamaria-automations~career-site-jobs-scraper/runs?token=YOUR_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"urls": [
"https://jobs.lever.co/openai",
"https://boards.greenhouse.io/anthropic",
"https://stripe.jobs.personio.de"
]
}'
Integrationen
- n8n / Make / Zapier -- Läufe auslösen und Ergebnisse per Webhook verarbeiten
- KI-Agenten (MCP) -- Claude Desktop, Cursor, VS Code, LangChain, LlamaIndex
- Python / Node.js -- Apify SDK für programmatischen Zugriff
- Google Sheets / Airtable -- Export über Apify-Integrationen
Im Vergleich
| Merkmal | NanoScrape | Eigene Scraper pro ATS |
| Docker-Image | ~12MB | 500MB+ pro Stück |
| ATS-Abdeckung | 12 Plattformen, 1 Actor | 1 Scraper pro Plattform |
| Einrichtungszeit | 0 -- einfach URLs angeben | Stunden pro Plattform |
| Autoerkennung | Ja | Nein |
| Einheitliche Ausgabe | Ja | Unterschiedliche Schemas |
| Wartung | Von NanoScrape verwaltet | Sie warten alles selbst |
Ausgabefelder
| Feld | Typ | Beispiel |
| title | string | Senior Backend Engineer |
| company | string | Anthropic |
| location | string | San Francisco, CA |
| department | string | Engineering |
| employment_type | string | Vollzeit |
| description | string | Vollständige Stellenbeschreibung (HTML) |
| apply_url | string | https://boards.greenhouse.io/... |
| ats_platform | string | greenhouse |