使用 Robots.txt 阻止 IP 或用户代理

使用 Robots.txt 阻止 IP 或用户代理

我的网站一次又一次地受到机器人的攻击,它占用了服务器上我所有的 SQL 资源。

66.249.**.** Mozilla/5.0+(compatible;+GoogleDocs;+apps-spreadsheets;++http://docs.google.com) - 200 0 0 796

robots 文件中是否有任何方法可以阻止GoogleDocs;+apps-spreadsheets甚至是阻止 IP 地址。

我是否只需将以下内容添加到我的 robots 文件中?

User-agent: GoogleDocs
Disallow: /

相关内容