Sichtbarkeit von Stellenanzeigen prüfen

Tools Nur im Browser Ohne Login

Können Ihre Stellenanzeigen von Google, Suchmaschinen und KI-Suchen gefunden werden? Bewerberinnen und Bewerber starten ihre Jobsuche heute nicht mehr nur auf Jobbörsen. Damit Ihre Anzeigen dort Sichtbarkeit und Reichweite bekommen, müssen die Jobseiten für Googlebot, KI-Crawler und andere Bots erreichbar sein.

robots.txt

Direkt im Check

Crawler

Google & KI-Suchen

Sitemap

Einträge erkannt

Lokal

Analyse im Browser

0

Server-Uploads

KI-Crawling vor Markup

Eine Stellenanzeige kann nur ausgewertet werden, wenn sie erreichbar ist.

Stellenanzeigen werden nicht mehr nur über Jobboards gefunden. Viele Kandidatinnen und Kandidaten starten über Google oder KI-gestützte Suchsysteme. robots.txt entscheidet dabei nicht über die Qualität der Anzeige, kann aber verhindern, dass Suchmaschinen und KI-Crawler eine Jobdetailseite überhaupt abrufen.
Genau dann helfen JobPosting-Daten wenig, weil Google den sichtbaren Inhalt, das Markup und wichtige Geo-/Standortsignale nicht sauber auslesen kann. Für Reichweite, GEO, AIEO und KI-Sichtbarkeit ist diese technische Zugänglichkeit die Basis.
Crawling lesbar

robots.txt

Zugriff für Jobpfade prüfen

LIVE REGELN
User-agent: *
Allow: /jobs/
Allow: /karriere/
Disallow: /intern/

Sitemap: https://example.de/sitemap.xml

User-agent

Googlebot prüfen

Allow / Disallow

Jobpfade sichtbar halten

Sitemap

Relevante URLs finden

Googlebot

Crawler-Regeln lesbar machen

User-agent-Gruppen zeigen, ob eine Regel für alle Bots, Googlebot oder andere Such- und KI-Systeme gilt.

Disallow

Gesperrte Pfade schnell erkennen

Ein falsch gesetztes Disallow kann ganze Jobbereiche oder wichtige Detailseiten aus dem Crawling nehmen und damit Reichweite verhindern.

Sitemap

Einstiegspunkte sichtbar halten

Hinterlegte Sitemaps helfen Suchsystemen, relevante URLs, Geo-Bezüge und Jobdetailseiten schneller zu finden.

Google for Jobs

Zugriff zuerst, Schema danach

Für Jobseiten gilt: Erst dürfen Suchsysteme laut robots.txt nicht blockiert sein, danach werden JobPosting Schema, AIEO und KI-Sichtbarkeit wirklich relevant.

Sichtbarkeit prüfen

Der technische Check lädt gerade

Dieser Bereich benötigt JavaScript, um robots.txt-Regeln und Crawler-Zugriffe direkt im Browser zu prüfen.

Nächster Schritt

Prüfen, auszeichnen oder live schalten?

Wenn die robots.txt keine Sperre zeigt, prüfen Sie als Nächstes das Google-for-Jobs-Markup. Wenn die Anzeige live gehen soll, ist die IT-Stellenanzeige der nächste Schritt. Wenn kurzfristig passende Bewerbungen fehlen, unterstützen wir außerdem bei der Rekrutierung passender Talente.

FAQ

FAQ zu Sichtbarkeit, Google & KI-Suchen

Fragen zu Sichtbarkeit, Reichweite, robots.txt, Googlebot, KI-Suchen und Google for Jobs.

Was macht ein robots.txt Checker?

Ein robots.txt Checker macht die Regeln einer robots.txt lesbar. Er zeigt, welche User-agents angesprochen werden, welche Pfade per Disallow gesperrt sind, welche Bereiche per Allow freigegeben werden und ob Sitemaps hinterlegt sind.
Für Stellenanzeigen ist das wichtig, weil Bewerberinnen und Bewerber ihre Jobsuche heute nicht mehr nur auf Jobboards starten. Google, LLMs und KI-gestützte Suchsysteme können Jobdetailseiten nur auswerten, wenn sie technisch erreichbar sind.
Der Checker hilft dabei, KI-Crawling, Googlebot-Zugriff und technische Crawling-Regeln einzuordnen. Erst danach können strukturierte JobPosting-Daten, Geo-Signale, Inhalte für AIEO und andere Signale für Sichtbarkeit und Reichweite sinnvoll wirken.

Wie prüfe ich, ob Googlebot meine URL crawlen darf?

Rufen Sie die robots.txt der Domain auf und prüfen Sie, ob es eine Regel für Googlebot oder * gibt, die relevante Jobbereiche blockiert. Bei Stellenanzeigen sind vor allem Pfade wie /jobs/, /stellenangebote/, /karriere/ oder vergleichbare Bereiche wichtig.
Der Checker ruft keine einzelne URL live auf. Er ordnet nur die eingefügte robots.txt ein. Für eine konkrete Jobdetailseite sollten zusätzlich Statuscode, noindex, Canonical, interne Verlinkung und die URL-Prüfung in der Google Search Console kontrolliert werden.

Was bedeutet durch robots.txt-Datei blockiert?

Die Meldung bedeutet, dass Google eine URL laut robots.txt nicht crawlen darf. Google kann dann den Seiteninhalt und strukturierte Daten wie JobPosting Markup nicht zuverlässig lesen.
Für interne Suchseiten oder technische Bereiche kann das sinnvoll sein. Für veröffentlichte Stellenanzeigen ist es meistens ein Problem, wenn die Jobdetailseite selbst blockiert wird.

Blockiert robots.txt die Indexierung?

robots.txt steuert vor allem das Crawling. Sie sagt Bots, welche Bereiche sie abrufen dürfen und welche nicht.
Das ist nicht dasselbe wie noindex. Wenn eine Seite sicher nicht indexiert werden soll, ist noindex der passendere Mechanismus. Dafür muss Google die Seite allerdings crawlen können, um den Hinweis zu sehen.

Warum ist robots.txt für Google for Jobs relevant?

Google for Jobs, organische Reichweite und KI-Sichtbarkeit brauchen crawlbare Jobdetailseiten. Wenn der Jobbereich oder die einzelne Stellenanzeige per robots.txt blockiert ist, kann Google den sichtbaren Inhalt und die JobPosting-Daten nicht sauber auslesen.
Deshalb gehört ein robots.txt Check vor oder neben die Prüfung des JobPosting Schemas. Erst die Zugriffssignale aus der robots.txt, dann Markup, Geo-/Standortsignale, Inhalt und AIEO-Logik der Stellenanzeige.
IT-Stellenanzeigen, die Die Tech Recruiter GmbH schaltet, werden auf crawlbaren Einzel-URLs veröffentlicht und technisch für Google for Jobs vorbereitet, damit Jobsuchende die Anzeigen über Google finden können.

Bietet Die Tech Recruiter IT-Stellenanzeigen mit technischer Vorbereitung an?

Ja. Wenn Unternehmen IT-Stellenanzeigen über Die Tech Recruiter schalten, bereiten wir Anzeigen technisch vor: crawlbare Einzel-URL, JobPosting-Daten, klare Standort- oder Remote-Angaben und eine Rollenbeschreibung, die für Jobsuchende verständlich ist.
Veröffentlicht wird erst nach Prüfung und Angebot beziehungsweise Auftragsbestätigung.