gibt mehrere Möglichkeiten.
1. robots.txt ändern:
#Baiduspider
User-agent: Baiduspider
Disallow: /
#Others
User-agent: *
Disallow: /
Wenn das nicht hilft (manche Bots ignorieren es):
2. .htaccess ändern:
<Files *.*>
order allow,deny
allow from all
deny from 220.181.
</Files>
Damit blockt man IPs bzw. ganze Adressräume (zb China oder Russland...).
alternativ zum IP Block (ebenfalls in .htaccess):
RewriteCond %{HTTP_USER_AGENT} Baiduspider
RewriteRule ^.*$
http://127.0.0.1 [R,L]
Damit lenkt man die Bots auf eine falsche IP um, soweit ich das verstehe.
Namen und IP-Ranges ggf. natürlich auf die aktuelle Situation anpassen.
Wenn du keine der o.g. Dateien hast, einfach im root des Webverzeichnisses per Texteditor erstellen.