我的 apache webservice 几天来收到大量请求,每个请求都以随机方式登录以获取访问权限。
我确定了大约 60 个这样的 ip(下面是一些示例),全部属于 google。有没有办法找到有关攻击者来源的更多信息?或者我应该只阻止这些 ip。其次,我是否应该尝试阻止已识别的 ips 子网(74.125.46.*)作为预防措施?
72.14.194.65 64.233.172.20 74.125.75.19 72.14.194.33 74.125.46.87 74.125.44.91 74.125.46.91
答案1
您可以通过 IPTABLE 速率限制来保护自己免受此类 DOS 攻击。
http://blog.bodhizazen.net/linux/prevent-dos-with-iptables/
除此之外,fail2ban还有一个脚本可以在一定程度上帮助你
http://www.the-art-of-web.com/system/fail2ban/
答案2
当您怀疑自己的网站遭到攻击时,首先要问的问题是,这真的是故意恶意的吗?对于您的情况,请考虑错误导向的 WebSpider 可能触发这些攻击的可能性。您有robots.txt
相应的应对措施吗?
您看过 User-Agent 了吗?来自 Google 的请求应该被识别为试图访问您网站的任何服务。Spider User-Agent 字符串通常包含一个 URL,其中包含有关它们的更多信息。
答案3
如果这些都是随机范围内的随机 IP,那么很可能是僵尸网络决定攻击您的网站,而不是攻击人类。因此,阻止它们可能会阻止一些合法用户。当 IP 被重新分配时会发生什么?
您确实应该使用标准的暴力登录保护来解决这个问题。例如,10 分钟内只能尝试 10 次,有时需要回答验证码 3-5 次。这样,机器人最终就会停止,因为它们永远无法登录。
我唯一会诉诸 IP 禁令的情况是当某个 IP 发出的请求太多,影响了性能或占用了相当多的带宽时。只有这样,它的好处才会大于拥有该 IP 的人所遭受的不便。
答案4
这些攻击很可能针对的是端口 80 或 443,并且是“google-bot”。您可以采取一些措施 - 一是使用 mod_bandwidth 并限制用户,二是设置 robots.txt 文件 -
我们最近开始使用云防火墙,取得了巨大的成功 - 事实上,GroundHog 网站就是这么做的 - 该网站的点击量从每天不到 30 次增长到 Ground Hog Day 的 220 万次 - 某些时间点每小时达到 30 万次
如果它对您有帮助,可能值得一看 - 他们有免费版和付费版 - 但是免费版对于那种流量来说效果很好 - 它被称为 Cloud Flare。
这里的其他建议都很好。
- 修改带宽
- 防火墙
- 暴力破解检测
希望这对你有点帮助。