robots.txt

Googlebot 被 robots.txt 阻止
robots.txt

Googlebot 被 robots.txt 阻止

最近我测试了我的网站Google 移动友好度测试主要加载问题是“Googlebot 被 robots.txt 阻止” 我的 robots.txt我认为允许 Google 机器人吗? 大家觉得怎么样?这里有什么问题? ...

Admin

如何防止 Google 编入索引
robots.txt

如何防止 Google 编入索引

我们已经在服务器上设置了一个网站,并且网站使用 php 和 symfony 框架构建,因为我的要求是防止 Google 索引我的 robot.txt 并防止使用 .htaccess? User-agent: * Disallow: 那么如何预防和测试呢? ...

Admin

会员网站需要什么软件以及如何才能被 Google 编入索引
robots.txt

会员网站需要什么软件以及如何才能被 Google 编入索引

我注意到,在某些情况下,付费新闻文章似乎已被 Google 编入索引,因为故事摘录出现在搜索结果中。 但是,当我使用 Googlebot(机器人)身份访问这些网站时,无法获取文章信息。这似乎表明发布者以某种方式将付费文章(及相关 URL)提交给 Google,但 Google 并未对其进行抓取。显然,这样的提交并非易事,因为它必须包含文章内容和各种元数据,例如文章所在的 URL 及其到期日期。 这样的机制存在吗?如果有,像我这样的普通网站管理员可以使用它吗? ...

Admin

Apache 无法启动,端口 80 被系统进程占用,发现 baiduspider
robots.txt

Apache 无法启动,端口 80 被系统进程占用,发现 baiduspider

好的,我已经卸载了 Windows 服务器上的 IIS,并决定尝试使用 Xampp 来托管我的域。端口 80 正在使用中,我尝试了过去两天遇到的所有修复方法。我需要弄清楚是什么在我的服务器上使用了进程 ID 4,这是一个系统进程(NT 内核和系统)。这并没有告诉我太多信息,正如我所说,W3 发布服务没有运行,Web 部署或 MSSql 日志记录也没有运行。 我从 nirsoft 下载了 TCPLogView 并让它运行。20 分钟内,端口 80(本地端)上唯一显示的进程 ID 为 4 的是一个名为 baiduspider 的中文 robots.txt。此蜘...

Admin

自动化网站访问合法吗?
robots.txt

自动化网站访问合法吗?

许多网站在其服务条款中都包含禁止自动访问的内容。eBay 的 robots.txt 文件中就有一个例子: 未经 eBay 明确许可,严禁使用机器人或其他自动化手段访问 eBay 网站。尽管有上述规定,eBay 仍可能允许自动访问某些 eBay 页面,但仅限于将内容纳入公开搜索引擎。严禁以任何其他方式使用机器人或不遵守规定的机器人排除标准。 禁止自动访问究竟意味着什么?这是否意味着自动访问非法,还是只是令人不悦? ...

Admin

Google-Bot 爱上了我的 404 页面
robots.txt

Google-Bot 爱上了我的 404 页面

我的访问日志每天看起来都是这样的: 66.249.78.140 - - [21/Oct/2013:14:37:00 +0200] "GET /robots.txt HTTP/1.1" 200 112 "-" "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" 66.249.78.140 - - [21/Oct/2013:14:37:01 +0200] "GET /robots.txt HTTP/1.1" 200 112 "-" "Mozilla/5.0 (co...

Admin

gitweb 安装的理想 robots.txt?
robots.txt

gitweb 安装的理想 robots.txt?

我使用 gitweb(和 gitolite)在 git.nomeata.de 上托管了一些 git 存储库。偶尔,搜索引擎蜘蛛会过来并开始攻击界面。虽然我通常希望我的 git 存储库出现在搜索引擎中,但我不想完全阻止它们。但它们不应调用昂贵的操作,例如快照存档、搜索或生成差异。 robots.txt对于这样的安装来说“最佳”文件是什么? ...

Admin

如果我从 .htaccess 中重定向所有用户(除了我),我是否需要一个 robots.txt 文件
robots.txt

如果我从 .htaccess 中重定向所有用户(除了我),我是否需要一个 robots.txt 文件

所以..我有我的网站的实时版本,例如 domain.com 上的 v1.0 然后我在 testing.domain.com 上有我的开发测试版本 我希望 testing.domain.com 仅供我测试时访问,因此我将 .htaccess 文件中的所有其他 IP 重定向到 domain.com 上的当前实时版本 鉴于此,我是否需要在 testing.domain.com 上创建一个 robots.txt 文件来阻止搜索机器人,或者 .htaccess 重定向是否足够? 还有一个小问题……这样的重定向应该是 301 永久重定向吗? 谢谢 ...

Admin

使用 Robots.txt 阻止 IP 或用户代理
robots.txt

使用 Robots.txt 阻止 IP 或用户代理

我的网站一次又一次地受到机器人的攻击,它占用了服务器上我所有的 SQL 资源。 66.249.**.** Mozilla/5.0+(compatible;+GoogleDocs;+apps-spreadsheets;++http://docs.google.com) - 200 0 0 796 robots 文件中是否有任何方法可以阻止GoogleDocs;+apps-spreadsheets甚至是阻止 IP 地址。 我是否只需将以下内容添加到我的 robots 文件中? User-agent: GoogleDocs Disallow: / ...

Admin

如何在 .htaccess 中阻止某些机器人但允许访问 robots.txt?
robots.txt

如何在 .htaccess 中阻止某些机器人但允许访问 robots.txt?

我已经使用 .htaccess 阻止了一些恶意机器人。 例如: SetEnvIfNoCase User-Agent "^bot1" bots SetEnvIfNoCase User-Agent "^bot2" bots SetEnvIfNoCase User-Agent "^bot3" bots <Limit GET POST HEAD> Order Allow, Deny Allow from all Deny from env=bots Deny from 111.222.333.444 Deny from 555.666.777.888 D...

Admin

Traefik、docker swarm 和 portainer。提供 robots.txt 文件
robots.txt

Traefik、docker swarm 和 portainer。提供 robots.txt 文件

我正在使用我的家庭实验室,并尝试包含 robots.txt 文件。我正在使用此 docker_compose 文件启动 traefik 和 portainer。这是使用 Docker 群模式 version: "3.3" services: traefik: container_name: traefik image: "traefik:latest" restart: unless-stopped command: - --entrypoints.web.address=:80 - --entr...

Admin

有没有办法告诉网络爬虫/机器人每秒/分钟/等等的请求数量限制
robots.txt

有没有办法告诉网络爬虫/机器人每秒/分钟/等等的请求数量限制

我正在考虑一种类似于 robots.txt 的方法,这种方法可供优秀的机器人抓取网站。在 robots.txt 中,我可以定义 User-agent、Allow 和 Disallow。 我的目标是将有关请求率限制的消息传递给机器人,例如说它们不允许每秒、每分钟等超过 xxx 个请求。 我知道如何设置硬性限制,但雇佣的目标并不是阻止他们。 ...

Admin

apache httpd.conf 中的别名
robots.txt

apache httpd.conf 中的别名

我正在尝试在通过 apache windows 服务器上的反向代理提供服务的现有 https 网站上提供 robots.txt 服务。 这是我添加到 httpd.conf 文件中的内容,但是这不起作用。我做错了什么。 # global robots.txt file <Location "/robots.txt"> ProxyPass ! </Location> Alias /robots.txt "C:\Ampps\www\robots.txt" 以下是我的 httpd.ssl 文件中的内容: AddType appl...

Admin