apache 2.4.10
我的网络服务器正在为以下域名运行( )不同的虚拟主机:
foo.example.com
bar.example.com
www.example.com
example.com
这是我的虚拟主机的配置文件:
<VirtualHost *:80>
DocumentRoot /var/www/
Redirect 404 /
ErrorLog ${APACHE_LOG_DIR}/error.log
CustomLog ${APACHE_LOG_DIR}/access.log combined
</VirtualHost>
<VirtualHost *:80>
ServerName foo.example.com
DocumentRoot /var/www/foo/
ErrorLog ${APACHE_LOG_DIR}/foo-error.log
CustomLog ${APACHE_LOG_DIR}/foo-access.log combined
</VirtualHost>
<VirtualHost *:80>
ServerName bar.example.com
DocumentRoot /var/www/bar/
ErrorLog ${APACHE_LOG_DIR}/bar-error.log
CustomLog ${APACHE_LOG_DIR}/bar-access.log combined
</VirtualHost>
<VirtualHost *:80>
ServerName example.com
ServerAlias www.example.com
DocumentRoot /var/www/www/
ErrorLog ${APACHE_LOG_DIR}/www-error.log
CustomLog ${APACHE_LOG_DIR}/www-access.log combined
</VirtualHost>
我想知道如何处理该robots.txt
文件。我希望我的所有域名都不被索引。
这是我的robots.txt
文件:
User-agent: *
Disallow: /
我将其复制到了几个目录中,如下所示:
/var/www
|-- foo
| |
| `-- robots.txt
|
|-- bar
| |
| `-- robots.txt
|
|-- robots.txt
|
`-- www
|
`-- robots.txt
这是一个恰当的配置?
答案1
我觉得还行,你为什么不试试看呢?如果它们都一样,你可能要考虑使用指向单个文档的链接,这样你只需要在一个地方进行更改。
还要记住,并非所有机器人都会遵守 robots.txt 文件,您最终可能不得不使用其他方式来阻止它们。