我有一个负责跨多台服务器构建的 Web 服务器映像。我有一个包含大约 50 个 URL 的列表,我需要访问这些 URL 并确认显示的内容正确。有哪些自动化工具可以轻松完成此操作(无需在脚本文件中编写一堆 curl 请求和正则表达式)。
答案1
我怀疑您能找到比 curl (或 wget) 和几行 更简单的方法$SCRIPTING_LANGUAGE_OF_CHOICE
。说真的,这大约需要 5 分钟。在 Ruby 中(由于 有点复杂,因此Net::HTTP
有点复杂):
需要“net/http” $stdin.each_line 执行 |l| url,内容 = l.split(/\s+/,2) 除非 Net::HTTP.get(URI.parse(url))=~ /#{content}/,否则将“#{url} 失败!” 结尾
答案2
虽然我同意 curl/wget 和脚本可以很好地完成工作,但如果你真的在寻找另一种方式,请考虑渗透测试工具。特别是如果你需要与网站互动,例如登录网站,这些工具将允许你自动化测试。当然,你仍然需要做一些工作来配置/编写脚本来执行你需要的操作。
答案3
这些人提供服务http://siteuptime.com,我确实认为你不需要它们,但它们可能会有用。
您可以制作一个 PHP(或使用您的网站所使用的语言)来检查服务状态。
检查状态> wget> grep