Robots-Creator für cPanel-Server

49,00

Robots-Creator erzeugt für alle Domains / Subdomains in einem cPanel-Server die benötigten robots.txt voll automatisch entsprechend der vorgegebenen Produkt-Templates (Joomla/Wordpress/andere/…) und verbietet allen Bad-Bots (Bad-Bots-Template erweiterbar), das Scannen der Webseiten und Überlasten der Server durch ungewollte Bots!

Beschreibung

Dieses zentrale Robots-Creator Script erzeugt für jede Domain und jede Subdomain auf einem cPanel-Server automatisch die dringend benötigte robots.txt und zwar abhängig von den installierten Software-Paketen, wie z.B. Joomla oder WordPress oder anderen und ist auch erweiterbar!

Durch das Scan-Verbot für Bad-Bots wird der cPanel-Server erheblich entlastet und dadurch erhöht sich die Stabilität und Geschwindigkeit aller Webspaces auf den cPanel-Servern und damit wird die Qualität und die Abruf-Geschwindigkeit der Webseiten für den Google-Index deutlich erhöht, was sich ebenfalls SEO-technisch enorm auswirkt!

Berücksichtigt werden dabei:

a) bevorzugte Suchmaschinen mit der Erlaubnis einer hohen Abruf-Frequenz, wie z.B. Google / Google-Bildsuche / Google-News / BingBot / Applebot usw! Die Frequenz ist für jede Suchmaschine vordefiniert, z.B. erlaubt alle 10 Sekunden ein Zugriff. Die Suchmaschinen sind bereits ausreichend vorgegeben und können jederzeit erweitert werden!

b) Suchmaschinen, denen nur eine geringere Abruf-Frequenz erlaubt wird, wie z.B. msn, Naverbot usw.! Die Suchmaschinen sind bereits ausreichend vorgegeben und können jederzeit erweitert werden!

c) BadBots, die unerwünscht sind und in der robots.txt ein Verbot erhalten, die Webseiten zu scannen und in einer BadBots-Entsperrliste können bereits gesperrte BadBots auch wieder entsperrt werden!

Das Script Robots-Creator-Script prüft bei jedem Webspace, ob bereits eine robots.txt existiert und wenn ja, wird die von ggf. Webspace-Kunden vorher angelegte robots.txt nur minimal angepaßt z.B. BadBots zugefügt und die Minimal-Frequenz für „alle“ (User-Agent: *) auf eine festen Minimal-Frequenz (Crawl-Delay) gesetzt!

Existiert die robots.txt noch nicht, wird diese entsprechend dem in dem Webspace betriebenen CMS, wie z.B. Joomla / WordPress / standard angelegt! Dabei werden die Rechte des Webspace-Clienten so gesetzt, daß diese ihre robots.txt auch weiterhin editieren können! Bei jeder Veränderung, die notwendig wird, z.B. durch Anpassen der Voreinstellungen via Robots-Creator in 4 Generationen gespeichert (old / old2 / old3 / old4).

Die Installation des Scriptes mit den vorgefertigten Template-Dateien kann vom Administrator erfolgt innerhalb von 1 Minute und in wenigen Minuten kann übersehen werden, daß die Templates so schon gut vorgegeben sind! Wird das Script manuell gestartet auf dem Server, benötigt dieses für 300 Webspaces (Domains / Subdomains) weniger als 1 Minute! Fortan haben alle BadBots keine Erlaubnis mehr, den Server mit unnötigen Anfragen zu belästigen! Das Script wird dann in der crontab eingebunden und läuft 1x am Tag! Wird ein neuer Bad-Bot gefunden, kann dieser im Template der BadBots hinzugefügt werden und wird ebenfalls in allen robots.txt – Dateien in allen Webspaces hinzu gefügt!

Das Script ist einfach geschrieben und für jeden Administrator leicht überschaubar, was es genau macht und in sich selbst auch dokumentiert! Die Templates sind einfach aufgebaut und jederzeit erweiterbar!

Der Robots-Creator ist damit ein unbedingt benötigtes Script, daß jeden Administrator eines cPanel-Servers happy macht!

Nach dem Kauf kann dieses Script bei weiteren Verbesserungen kostenfrei upgedatet werden! Wer Fragen hat und Hilfe benötigt, erhält diese schnell über unseren Support!

 

 

 

Zusätzliche Informationen

Einsatz-Gruppe

Server-Admin (Root-User)

OS/Betriebssystem

CentOS, CloudLinux, RHEL

Lizenz

für 1 Server

Kodierung

offen

für Plattform

cPanel

Script-Sprache

shell script

Bewertungen

Es gibt noch keine Bewertungen.

Nur angemeldete Kunden, die dieses Produkt gekauft haben, dürfen eine Bewertung abgeben.