Arbeitsagentur.de scrapen — Deutschlands offizielles Stellenportal, alle 16 Bundesländer
Strukturierte Vakanzdaten von der Bundesagentur für Arbeit abrufen, Deutschlands Bundesbehörde für Arbeitsvermittlung und der größten einzelnen Quelle für Stellenanzeigen im Land. Dieses Portal enthält Stellen, die kommerzielle Jobbörsen häufig nicht haben, darunter öffentliche Stellen, Ausbildungsplätze und meldepflichtige Inserate. Unser Scraper deckt alle 16 Bundesländer mit sauberer, strukturierter Ausgabe ab.
Abdeckung
Deutschland (Staat)
Preise
$0,008/SERP + $0,020/Detail
Anti-Bot
TLS-Fingerprinting
Was Sie scrapen können
- Staatliche Stellenangebote — bei der Bundesagentur für Arbeit registrierte Stellen über alle Branchen
- Vollständige Stellendetails — Beschreibung, Qualifikationen, Arbeitszeiten, Vertragsart, Startdatum
- Arbeitgeberdaten — Firmenname, Standort, Branche, Unternehmensgröße
- Regionale Filterung — gezielt nach Bundesländern, Städten oder Postleitzahlregionen filtern
- Ausbildungsplätze — Ausbildungsangebote neben regulären Stellen
- Multi-Query — mehrere Suchbegriffe in einem Lauf zusammenfassen
Typische Anwendungsfälle
- Deutsche Arbeitsmarktpolitik-Forschung — das offizielle staatliche Stellenregister auf Beschäftigungstrends analysieren
- Öffentlicher Sektor-Monitoring — Einstellungen bei Behörden und öffentlichen Einrichtungen über Bundesländer verfolgen
- Vollständige Marktabdeckung — mit StepStone und Indeed für vollständige deutsche Jobmarkt-Daten kombinieren
- Ausbildungs-Analytics — Ausbildungsangebote nach Beruf, Region und Unternehmen beobachten
- Wirtschaftsprognose — offizielle Vakanzdaten als Frühindikator für regionale Wirtschaftsentwicklung nutzen
API-Beispiel
curl -X POST "https://api.apify.com/v2/acts/santamaria-automations~arbeitsagentur-de-scraper/runs?token=YOUR_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"searchQueries": ["fachinformatiker"],
"location": "Bayern",
"maxResultsPerQuery": 100,
"includeJobDetails": true
}'
Integrationen
- n8n / Make / Zapier — Läufe auslösen und Ergebnisse per Webhook verarbeiten
- KI-Agenten (MCP) — Claude Desktop, Cursor, VS Code, LangChain, LlamaIndex
- Python / Node.js — Apify SDK für programmatischen Zugriff
- Google Sheets / Airtable — Export über Apify-Integrationen
Im Vergleich
| Merkmal | NanoScrape | Browser-basierte Scraper |
| Docker-Image | ~12MB | 500MB - 2GB |
| RAM-Verbrauch | 128MB | 1-4GB |
| Kosten pro 1k SERP | $8,00 | $15 - $30 |
| Staatsdaten-Zugang | Vollständige Abdeckung | Teilweise oder defekt |
| Ausbildungsplätze | Ja | Selten enthalten |
| Geschwindigkeit (1k Jobs) | ~5 Min. | 25-60 Min. |
Ausgabefelder
| Feld | Typ | Beispiel |
| title | string | Fachinformatiker/in Anwendungsentwicklung |
| company | string | Siemens AG |
| location | string | München, Bayern |
| bundesland | string | Bayern |
| contract_type | string | Vollzeit, unbefristet |
| description | string | Vollständige Stellenbeschreibung |
| start_date | string | 2026-07-01 |
| url | string | https://arbeitsagentur.de/... |
| posted_at | string | 2026-04-15 |
| search_query | string | fachinformatiker |