Replica Set Members
MongoDB 的 复制集 是一组 mongod
进程实例, 提供了冗余和高可用性. 复制集的成员是:
主节点.
主节点接受所有的写操作.
从节点.
从节点复现主节点的操作维护与其相同的数据集. 从节点可以配置用户一些特别的用途. 例如, 从节点可以是 不投票的 或者 priority 0.
你也可以在副本集中维护一个 仲裁节点. 仲裁节点不复制数据. 但是, 当前主节点不可用时, 可以参与新的主节点的选举.
最小的副本集推荐形式为三个数据承载节点: 一个 主节点与两个 从节点. 你也可以替换为 2 个数据承载节点: 一个 主, 一个 从, 和一个 仲裁节点, 但是至少有三个数据承载节点可以提供更好的冗余.
3.0.0 版本更新: 一个副本集可以最多 50 个节点 但是至多 7 节点投票.[1] 之前的版本里, 副本集最多能有 12 个节点.
主节点
主节点是副本集中唯一接受写操作的节点. MongoDB 在主节点上应用写操作然后记录操作到 oplog. 从节点 复制这个 log 并且复现这些操作来同步数据.
下例中三个成员的副本集, 主节点接受所有的写操作. 从节点通过 oplog 来同步数据.
副本集中的所有节点都可以接受读操作. 不过, 默认情况下, 应用会直接从主节点来读取数据. 参见 Read Preference 获取更多修改默认读行为的信息.
一个副本集最多有一个主节点.[2] 如果当前主节点不可用, 通过选举来确认新的主节点. 更多信息参见 Replica Set Elections.
从节点
一个从节点维持了主节点的数据集副本. 拷贝过程, 是从节点通过主节点的 oplog 来复现操作实现的一个异步过程. 一个副本集可以有一个或者多个从节点.
下图中三个节点的副本集有两个从节点. 从节点通过主节点的 oplog 来同步数据.
尽管客户端不能通过从节点来写入数据, 但是可以进行读操作. 参见 Read Preference 获取更多客户端如何从从库读取数据的信息.
一个从节点可以变成主节点. 如果当前主节点不可用, 副本集则会举行一场选举来选择选择一个从库成为新的主节点 (参见 Replica Set Elections.
你可以配置从节点用于特别的目的, 比如:
- Prevent it from becoming a primary in an election, which allows it to reside in a secondary data center or to serve as a cold standby. 参见 Priority 0 节点.
- Prevent applications from reading from it, which allows it to run applications that require separation from normal traffic. 参见 Hidden 节点.
- Keep a running “historical” snapshot for use in recovery from certain errors, such as unintentionally deleted databases. 参见 Delayed 节点.
仲裁节点
仲裁节点 不存储 数据, 也 不能 成为主节点. 副本集可以通过仲裁节点来头片. 仲裁节点 永远 有一个 1
选举票, 从而使得副本集可以拥有基数张票, 可以避免引入新的节点来投票的开销.
IMPORTANT
不要在主节点或者从节点的系统上运行仲裁节点.
要添加仲裁节点, 参见 Add an arbiter to Replica Set.
WARNING
通常来说, 避免在每个副本集中部署超过一个仲裁节点.
对于以下 MongoDB 版本, 相比 pv0
中有仲裁节点的副本集而言 pv1
增加了 w:1
回滚的可能性:
- MongoDB 3.4.1
- MongoDB 3.4.0
- MongoDB 3.2.11 or earlier
更多参见 Replica Set Protocol Versions.
[1] | While replica sets are the recommended solution for production, a replica set can support up to 50members in total. If your deployment requires more than 50 members, you’ll need to use master-slavereplication. However, master-slave replication lacks the automatic failover capabilities. |
---|---|
| [2] | In some circumstances, two nodes in a replica set may_transiently_believe that they are the primary, but at most, one of them will be able to complete writes with {w:"majority"}
write concern. The node that can complete {w:"majority"}
writes is the current primary, and the other node is a former primary that has not yet recognized its demotion, typically due to a network partition. When this occurs, clients that connect to the former primary may observe stale data despite having requested read preference primary
, and new writes to the former primary will eventually roll back. |
| :—- | :—- |