rndc

BIND9 仅使用 also-notify 向从属发送通知
rndc

BIND9 仅使用 also-notify 向从属发送通知

我有一个问题已经困扰我三天了!我正在用新的权威 DNS 服务器替换我的权威 DNS 服务器,然后我再次重置所有 BIND9 配置,以便在替换后进行更多的“微调”。 我已经配置了一个MASTER服务器和两个SLAVE服务器,我已经配置了一个区域用于测试,该区域带有我通常用于测试的域(FQDN),问题是这样的: 当我更新区域并重新启动/重新加载绑定时,从日志中我看到通知已正确发送,但所有从属设备均未收到(也使用 tcpdump 端口 53 进行了验证:没有来自主设备的输出) Feb 12 20:42:13 svr-3 named[12957]: zone t...

Admin

rndc 命令不起作用
rndc

rndc 命令不起作用

我一直在 centos 7 上构建 DNS 服务器(我继承了这些,但需要进行更改才能重新利用它们) 当我运行任何 rndc 命令时,它不起作用,即当我尝试 rndc 重新加载时,我没有收到任何确认是否成功的信息,甚至没有收到命令失败的信息 另请注意,我正在使用 Linux 命名空间,因此典型的 rndc 命令具有“ip entns exec gi”前缀 如果我同时检查 /var/log/messages,与另一个 DNS 服务器相比,我没有得到任何输出。 我已将必要服务的输出发布如下: /usr/lib/systemd/system/named.servic...

Admin

rndc:“flushtree”失败:未知命令
rndc

rndc:“flushtree”失败:未知命令

我对在 FreeBSD 下使用 BIND9 学习和管理 DNS 还很陌生。我发现自己处于一种特殊情况,即在使用 管理命令时遇到flushtree错误rndc。 我不确定升级版本信息是否重要,但我希望解决这个问题。 下面是我的输出和 OS 和 BIND 版本。 任何帮助将不胜感激。 [Jail prompt]# rndc flushtree example.com rndc: 'flushtree' failed: unknown command example2[12]# uname -a FreeBSD example2.com 9.1-REL...

Admin

绑定主服务器不同步到从服务器
rndc

绑定主服务器不同步到从服务器

我在工作中得到了一个旧的 Bind 系统,主服务器上的区域无法与从服务器上同步。我是 Bind 方面的菜鸟,确实需要帮助。我希望主服务器上所做的所有更改都能同步到从服务器上。 服务器可以互相访问(ping、ssh,两者之间完全开放)。服务器有点旧了,我不允许更新,因为担心可能会出问题。 Ubuntu 12.04.5 LTS BIND 9.8.1-P1 主站 = ns1..com。从站 = ns2..com。 我们可以使用绑定服务器,它们可以正常运行,只是不会复制更改。 据说大多数更改都是通过 GUI 进行的,但我无法访问它。 问题可能是在主服务器...

Admin

bind9:rndc 冻结:键重新定义?
rndc

bind9:rndc 冻结:键重新定义?

我的系统上有这个 rnd.key 文件: key "rndc-key1" { algorithm hmac-md5; secret "xxxxxxxxxxxxxxx=="; }; key "rndc-key2" { algorithm hmac-md5; secret "yyyyyyyyyyy=="; }; 然后我将它们用于不同的区域: zone "somedomain1.com" { type master; file "/etc/bind/master/db.somedomain1....

Admin

执行 rndc reload 后绑定获取区域传输状态
rndc

执行 rndc reload 后绑定获取区域传输状态

我有一个在修改区域的辅助(从属)服务器上执行的脚本rndc reload <zone_name> in <view_name>。如果重新加载成功排队,此命令将返回成功。 我想知道是否有办法可以获取实际区域传输的状态,而无需查看日志本身。我希望能够根据错误本身自动处理绑定重新加载失败的情况。目前,我必须在执行后解析日志以获取区域传输的状态rndc reload。 有人能帮我弄清楚如何在执行后获取区域传输的状态rndc reload <zone_name>,这比解析日志本身更好。 注[为了更加清晰]:我知道通知可用于让主...

Admin

RNDC 状态中的区域数量不切实际
rndc

RNDC 状态中的区域数量不切实际

当我执行 rndc status 时,我得到了 102 个区域。我的 BIND9 服务器仅对 1 个区域具有权威性(即我在 LAMP 服务器上托管的站点)。我知道可能还有 10 个左右的额外区域,因为这些区域正在系统使用中或类似情况。但不可能有额外的 101 个区域。发生了什么? ...

Admin

rndc delzone {zonename} :权限被拒绝
rndc

rndc delzone {zonename} :权限被拒绝

系统是: Debian GNU/Linux 8.2 (jessie) BIND 9.9.5-9+deb8u3-Debian (Extended Support Version) 命名的.conf.选项: options { directory "/var/cache/bind"; key-directory "/etc/bind/keys"; // If there is a firewall between you and nameservers you want // to talk to, you may ne...

Admin

dnssec 从区域中删除密钥
rndc

dnssec 从区域中删除密钥

有没有办法从正在运行的绑定服务器的区域中删除所有与 dnssec 相关的内容? 我配置了类似绑定就像这里描述的一样。 如果我使用rndc signing -clear all domain.tld该区域则不会发生任何变化。 如果我通过删除 dnssec 签名区域rndc delzone domain.tld 并通过重新创建它rndc addzone domain.tld ...,domain.tld.jnl则包含相关 dnssec 数据的文件将自动重新创建,并且该区域将再次进行 dnssec 签名。 如何使用 rndc 从区域中删除所有与 dnsse...

Admin

rndc 复制对 ns4 来说较慢
rndc

rndc 复制对 ns4 来说较慢

我有 4 个 dns 服务器,分别名为、 和ns1。ns2是主服务器,其余的是从服务器。 我还使用 rndc 来管理复制。 我发现有趣的是,当我对 、 上的区域文件进行任何修改时,都会立即传播,但传播需要更长的时间。 那么复制的行为是什么,主服务器是否只实时将更改推送到最多 2 个从服务器?ns3ns4ns1ns1ns2ns3ns4 ...

Admin

BIND 9:rndc 重新加载无效
rndc

BIND 9:rndc 重新加载无效

我在 FreeBSD 10 上以受限配置运行 BIND 9.10.2 端口,并且遇到了一个问题,rndc reload即使 SOA 序列已正确递增,也无法获取任何(主要主)区域文件更改。 该命令本身似乎成功了: #rndc reload server reload successful 在日志中我看到: May 9 16:03:47 y named[81516]: all zones loaded May 9 16:03:47 y named[81516]: running 但只有重新启动才能named获取区域更新。 rndc zones...

Admin

BIND9,将 RNDC 控制限制到特定视图
rndc

BIND9,将 RNDC 控制限制到特定视图

我有一个 BIND9 安装,其中区域被划分为不同的视图。我想将 RNDC 控制限制到这些特定视图。 示例:我希望允许 RNDC 客户端从视图 A 删除区域,但不能从视图 B 删除区域。 可以在BIND中实现这样的配置吗? 如果没有:有任何解决方法吗? ...

Admin

我是否必须保护 BIND 9 的 bind.keys 安全?
rndc

我是否必须保护 BIND 9 的 bind.keys 安全?

刚刚意识到安装 bind-9.9.4-P2 后,已经安装了一个 ./etc/bind.keys 文件。我查看了他们的解释这里但仍然不知道这是做什么用的。 有人能告诉我是否需要通过使该密钥仅可由 root 读取来保护它,类似于我对 rndc.conf 文件执行相同操作? ...

Admin

Centos BIND 服务器:无法启动命名守护进程
rndc

Centos BIND 服务器:无法启动命名守护进程

我安装了一个新的 Centos 服务器,并在其中安装了 bind 和 bind-utils。内容/etc/named.conf如下: # create new options { directory "/var/named"; allow-query { localhost; 10.1.2.0/24; }; allow-transfer { localhost; 10.1.2.0/24; }; recursion yes; }; controls { inet 127.0.0.1 allow { localhost...

Admin