当前位置: 首页 > news >正文

建设本地网站商城网站建设市场分析论文

建设本地网站,商城网站建设市场分析论文,个人建网站做站长,平凉有做企业网站的吗在了解分片集群之前#xff0c;务必要先了解复制集技术#xff01; 1.1 MongoDB复制集简介 一组Mongodb复制集#xff0c;就是一组mongod进程#xff0c;这些进程维护同一个数据集合。复制集提供了数据冗余和高等级的可靠性#xff0c;这是生产部署的基础。 1.1.1 复制集…  在了解分片集群之前务必要先了解复制集技术 1.1 MongoDB复制集简介 一组Mongodb复制集就是一组mongod进程这些进程维护同一个数据集合。复制集提供了数据冗余和高等级的可靠性这是生产部署的基础。 1.1.1 复制集的目的 保证数据在生产部署时的冗余和可靠性通过在不同的机器上保存副本来保证数据的不会因为单点损坏而丢失。能够随时应对数据丢失、机器损坏带来的风险。 换一句话来说还能提高读取能力用户的读取服务器和写入服务器在不同的地方而且由不同的服务器为不同的用户提供服务提高整个系统的负载。 1.1.2 简单介绍 一组复制集就是一组mongod实例掌管同一个数据集实例可以在不同的机器上面。实例中包含一个主导接受客户端所有的写入操作其他都是副本实例从主服务器上获得数据并保持同步。 主服务器很重要包含了所有的改变操作写的日志。但是副本服务器集群包含有所有的主服务器数据因此当主服务器挂掉了就会在副本服务器上重新选取一个成为主服务器。 每个复制集还有一个仲裁者仲裁者不存储数据只是负责通过心跳包来确认集群中集合的数量并在主服务器选举的时候作为仲裁决定结果。 1.2 复制的基本架构 基本的架构由3台服务器组成一个三成员的复制集由三个有数据或者两个有数据一个作为仲裁者。 1.2.1 三个存储数据的复制集 具有三个存储数据的成员的复制集有 一个主库 两个从库组成主库宕机时这两个从库都可以被选为主库。 当主库宕机后,两个从库都会进行竞选其中一个变为主库当原主库恢复后作为从库加入当前的复制集群即可。 1.2.2 当存在arbiter节点 在三个成员的复制集中有两个正常的主从及一台arbiter节点 一个主库     一个从库可以在选举中成为主库     一个aribiter节点在选举中只进行投票不能成为主库 说明 由于arbiter节点没有复制数据因此这个架构中仅提供一个完整的数据副本。arbiter节点只需要更少的资源代价是更有限的冗余和容错。 当主库宕机时将会选择从库成为主主库修复后将其加入到现有的复制集群中即可。 1.2.3 Primary选举 复制集通过replSetInitiate命令或mongo shell的rs.initiate()进行初始化初始化后各个成员间开始发送心跳消息并发起Priamry选举操作获得『大多数』成员投票支持的节点会成为Primary其余节点成为Secondary。 『大多数』的定义 假设复制集内投票成员后续介绍数量为N则大多数为 N/2 1当复制集内存活成员数量不足大多数时整个复制集将无法选举出Primary复制集将无法提供写服务处于只读状态。 投票成员数 大多数 容忍失效数 1 1 0 2 2 0 3 2 1 4 3 1 5 3 2 6 4 2 7 4 3 通常建议将复制集成员数量设置为奇数从上表可以看出3个节点和4个节点的复制集都只能容忍1个节点失效从『服务可用性』的角度看其效果是一样的。但无疑4个节点能提供更可靠的数据存储 1.3 复制集中成员说明 1.3.1 所有成员说明  成员 说明 Secondary 正常情况下复制集的Seconary会参与Primary选举自身也可能会被选为Primary并从Primary同步最新写入的数据以保证与Primary存储相同的数据。 Secondary可以提供读服务增加Secondary节点可以提供复制集的读服务能力同时提升复制集的可用性。另外Mongodb支持对复制集的Secondary节点进行灵活的配置以适应多种场景的需求。 Arbiter Arbiter节点只参与投票不能被选为Primary并且不从Primary同步数据。 比如你部署了一个2个节点的复制集1个Primary1个Secondary任意节点宕机复制集将不能提供服务了无法选出Primary这时可以给复制集添加一个Arbiter节点即使有节点宕机仍能选出Primary。 Arbiter本身不存储数据是非常轻量级的服务当复制集成员为偶数时最好加入一个Arbiter节点以提升复制集可用性。 Priority0 Priority0节点的选举优先级为0不会被选举为Primary 比如你跨机房A、B部署了一个复制集并且想指定Primary必须在A机房这时可以将B机房的复制集成员Priority设置为0这样Primary就一定会是A机房的成员。 注意如果这样部署最好将『大多数』节点部署在A机房否则网络分区时可能无法选出Primary Vote0 Mongodb 3.0里复制集成员最多50个参与Primary选举投票的成员最多7个其他成员Vote0的vote属性必须设置为0即不参与投票。 Hidden Hidden节点不能被选为主Priority为0并且对Driver不可见。因Hidden节点不会接受Driver的请求可使用Hidden节点做一些数据备份、离线计算的任务不会影响复制集的服务。 Delayed Delayed节点必须是Hidden节点并且其数据落后与Primary一段时间可配置比如1个小时。 因Delayed节点的数据比Primary落后一段时间当错误或者无效的数据写入Primary时可通过Delayed节点的数据来恢复到之前的时间点。 1.3.2 Priority 0节点 作为一个辅助可以作为一个备用。在一些复制集中可能无法在合理的时间内添加新成员的时候。备用成员保持数据的当前最新数据能够替换不可用的成员。 1.3.3 Hidden 节点隐藏节点 客户端将不会把读请求分发到隐藏节点上即使我们设定了 复制集读选项 。 这些隐藏节点将不会收到来自应用程序的请求。我们可以将隐藏节点专用于报表节点或是备份节点。 延时节点也应该是一个隐藏节点。 1.3.4 Delayed 节点延时节点 延时节点的数据集是延时的因此它可以帮助我们在人为误操作或是其他意外情况下恢复数据。 举个例子当应用升级失败或是误操作删除了表和数据库时我们可以通过延时节点进行数据恢复。 1.4 配置MongoDB复制集 1.4.1 环境说明 系统环境说明 [rootMongoDB ~]# cat /etc/redhat-release CentOS release 6.9 (Final) [rootMongoDB ~]# uname -r 2.6.32-696.el6.x86_64 [rootMongoDB ~]# /etc/init.d/iptables status iptables: Firewall is not running. [rootMongoDB ~]# getenforce Disabled [rootMongoDB ~]# hostname -I 10.0.0.152 172.16.1.152 软件版本说明 本次使用的mongodb版本为mongodb-linux-x86_64-3.2.8.tgz 1.4.2 前期准备在root用户下操作 本次复制集复制采用Mongodb多实例进行 所有的操作都基于安装完成的mongodb服务详情参照MongoDB入门 #创建mongod用户useradd -u800 mongodecho 123456|passwd --stdin mongod # 安装mongodbmkdir -p /mongodb/bincd /mongodbwget http://downloads.mongodb.org/linux/mongodb-linux-x86_64-rhel62-3.2.8.tgztar xf mongodb-linux-x86_64-3.2.8.tgzcd mongodb-linux-x86_64-3.2.8/bin/ \cp * /mongodb/binchown -R mongod.mongod /mongodb # 切换到mongod用户进行后续操作su - mongod 1.4.3 创建所需目录 for i in 28017 28018 28019 28020do mkdir -p /mongodb/$i/conf mkdir -p /mongodb/$i/data mkdir -p /mongodb/$i/log done 1.4.4 配置多实例环境 编辑第一个实例配置文件 cat /mongodb/28017/conf/mongod.confEOF systemLog:destination: filepath: /mongodb/28017/log/mongodb.loglogAppend: true storage:journal:enabled: truedbPath: /mongodb/28017/datadirectoryPerDB: true#engine: wiredTigerwiredTiger:engineConfig:# cacheSizeGB: 1directoryForIndexes: truecollectionConfig:blockCompressor: zlibindexConfig:prefixCompression: true processManagement:fork: true net:port: 28017 replication:oplogSizeMB: 2048replSetName: my_repl EOF 复制配置文件 for i in 28018 28019 28020do \cp /mongodb/28017/conf/mongod.conf /mongodb/$i/conf/ done 修改配置文件 for i in 28018 28019 28020do sed -i s#28017#$i#g /mongodb/$i/conf/mongod.conf done 启动服务 for i in 28017 28018 28019 28020do mongod -f /mongodb/$i/conf/mongod.conf done # 关闭服务的方法 for i in 28017 28018 28019 28020do mongod --shutdown -f /mongodb/$i/conf/mongod.conf done 1.4.5 配置复制集 登陆数据库配置mongodb复制 shell mongo --port 28017config {_id: my_repl, members: [{_id: 0, host: 10.0.0.152:28017},{_id: 1, host: 10.0.0.152:28018},{_id: 2, host: 10.0.0.152:28019}]} 初始化这个配置 rs.initiate(config)      到此复制集配置完成 1.4.6 测试主从复制 在主节点插入数据 my_repl:PRIMARY db.movies.insert([ { title : Jaws, year : 1975, imdb_rating : 8.1 },{ title : Batman, year : 1989, imdb_rating : 7.6 },] ); 在主节点查看数据 my_repl:PRIMARY db.movies.find().pretty() {_id : ObjectId(5a4d9ec184b9b2076686b0ac),title : Jaws,year : 1975,imdb_rating : 8.1 } {_id : ObjectId(5a4d9ec184b9b2076686b0ad),title : Batman,year : 1989,imdb_rating : 7.6 }   注在mongodb复制集当中默认从库不允许读写。 在从库打开配置危险 注意严禁在从库做任何修改操作 my_repl:SECONDARY rs.slaveOk() my_repl:SECONDARY show tables; movies my_repl:SECONDARY db.movies.find().pretty() {_id : ObjectId(5a4d9ec184b9b2076686b0ac),title : Jaws,year : 1975,imdb_rating : 8.1 } {_id : ObjectId(5a4d9ec184b9b2076686b0ad),title : Batman,year : 1989,imdb_rating : 7.6 }   在从库查看完成在登陆到主库 1.4.7 复制集管理操作 1查看复制集状态 rs.status(); # 查看整体复制集状态 rs.isMaster(); # 查看当前是否是主节点 2添加删除节点 rs.add(ip:port); # 新增从节点 rs.addArb(ip:port); # 新增仲裁节点 rs.remove(ip:port); # 删除一个节点 注 添加特殊节点时   1可以在搭建过程中设置特殊节点   2可以通过修改配置的方式将普通从节点设置为特殊节点   /*找到需要改为延迟性同步的数组号*/; 3配置延时节点一般延时节点也配置成hidden cfgrs.conf() cfg.members[2].priority0 cfg.members[2].slaveDelay120 cfg.members[2].hiddentrue      注这里的2是rs.conf()显示的顺序除主库之外非ID 重写复制集配置 rs.reconfig(cfg) 也可将延时节点配置为arbiter节点 cfg.members[2].arbiterOnlytrue 配置成功后通过以下命令查询配置后的属性 rs.conf(); 1.4.8 副本集其他操作命令 查看副本集的配置信息 my_repl:PRIMARY rs.config() 查看副本集各成员的状态 my_repl:PRIMARY rs.status() 1.4.8.1  副本集角色切换不要人为随便操作 rs.stepDown() rs.freeze(300) # 锁定从使其不会转变成主库freeze()和stepDown单位都是秒。 rs.slaveOk() # 设置副本节点可读在副本节点执行 插入数据 use app switched to db app app db.createCollection(a) { ok : 0, errmsg : not master, code : 10107 } 查看副本节点 rs.printSlaveReplicationInfo() source: 192.168.1.22:27017syncedTo: Thu May 26 2016 10:28:56 GMT0800 (CST)0 secs (0 hrs) behind the primary MongoDB分片Sharding技术 分片sharding是MongoDB用来将大型集合分割到不同服务器或者说一个集群上所采用的方法。尽管分片起源于关系型数据库分区但MongoDB分片完全又是另一回事。 和MySQL分区方案相比MongoDB的最大区别在于它几乎能自动完成所有事情只要告诉MongoDB要分配数据它就能自动维护数据在不同服务器之间的均衡。 2.1 MongoDB分片介绍 2.1.1 分片的目的 高数据量和吞吐量的数据库应用会对单机的性能造成较大压力,大的查询量会将单机的CPU耗尽,大的数据量对单机的存储压力较大,最终会耗尽系统的内存而将压力转移到磁盘IO上。 为了解决这些问题,有两个基本的方法: 垂直扩展和水平扩展。 垂直扩展增加更多的CPU和存储资源来扩展容量。 水平扩展将数据集分布在多个服务器上。水平扩展即分片。 2.1.2 分片设计思想 分片为应对高吞吐量与大数据量提供了方法。使用分片减少了每个分片需要处理的请求数因此通过水平扩展集群可以提高自己的存储容量和吞吐量。举例来说当插入一条数据时应用只需要访问存储这条数据的分片. 使用分片减少了每个分片存储的数据。 例如如果数据库1tb的数据集并有4个分片然后每个分片可能仅持有256 GB的数据。如果有40个分片那么每个切分可能只有25GB的数据。 2.1.3 分片机制提供了如下三种优势 1.对集群进行抽象让集群“不可见” MongoDB自带了一个叫做mongos的专有路由进程。mongos就是掌握统一路口的路由器其会将客户端发来的请求准确无误的路由到集群中的一个或者一组服务器上同时会把接收到的响应拼装起来发回到客户端。 2.保证集群总是可读写 MongoDB通过多种途径来确保集群的可用性和可靠性。将MongoDB的分片和复制功能结合使用在确保数据分片到多台服务器的同时也确保了每分数据都有相应的备份这样就可以确保有服务器换掉时其他的从库可以立即接替坏掉的部分继续工作。 3.使集群易于扩展 当系统需要更多的空间和资源的时候MongoDB使我们可以按需方便的扩充系统容量。 2.1.4 分片集群架构 组件 说明 Config Server 存储集群所有节点、分片数据路由信息。默认需要配置3个Config Server节点。 Mongos 提供对外应用访问所有操作均通过mongos执行。一般有多个mongos节点。数据迁移和数据自动平衡。 Mongod 存储应用数据记录。一般有多个Mongod节点达到数据分片目的。 分片集群的构造 1mongos 数据路由和客户端打交道的模块。mongos本身没有任何数据他也不知道该怎么处理这数据去找config server 2config server所有存、取数据的方式所有shard节点的信息分片功能的一些配置信息。可以理解为真实数据的元数据。  3shard真正的数据存储位置以chunk为单位存数据。 Mongos本身并不持久化数据Sharded cluster所有的元数据都会存储到Config Server而用户的数据会议分散存储到各个shard。Mongos启动后会从配置服务器加载元数据开始提供服务将用户的请求正确路由到对应的碎片。 Mongos的路由功能 当数据写入时MongoDB Cluster根据分片键设计写入数据。 当外部语句发起数据查询时MongoDB根据数据分布自动路由至指定节点返回数据。 2.2 集群中数据分布 2.2.1 Chunk是什么 在一个shard server内部MongoDB还是会把数据分为chunks每个chunk代表这个shard server内部一部分数据。chunk的产生会有以下两个用途 Splitting当一个chunk的大小超过配置中的chunk size时MongoDB的后台进程会把这个chunk切分成更小的chunk从而避免chunk过大的情况 Balancing在MongoDB中balancer是一个后台进程负责chunk的迁移从而均衡各个shard server的负载系统初始1个chunkchunk size默认值64M,生产库上选择适合业务的chunk size是最好的。ongoDB会自动拆分和迁移chunks。 分片集群的数据分布shard节点 1使用chunk来存储数据 2进群搭建完成之后默认开启一个chunk大小是64M 3存储需求超过64Mchunk会进行分裂如果单位时间存储需求很大设置更大的chunk 4chunk会被自动均衡迁移。 2.2.2 chunksize的选择 适合业务的chunksize是最好的。 chunk的分裂和迁移非常消耗IO资源chunk分裂的时机在插入和更新读数据不会分裂。 chunksize的选择 小的chunksize数据均衡是迁移速度快数据分布更均匀。数据分裂频繁路由节点消耗更多资源。大的chunksize数据分裂少。数据块移动集中消耗IO资源。通常100-200M 2.2.3 chunk分裂及迁移 随着数据的增长其中的数据大小超过了配置的chunk size默认是64M则这个chunk就会分裂成两个。数据的增长会让chunk分裂得越来越多。 这时候各个shard 上的chunk数量就会不平衡。这时候mongos中的一个组件balancer  就会执行自动平衡。把chunk从chunk数量最多的shard节点挪动到数量最少的节点。 chunkSize 对分裂及迁移的影响 MongoDB 默认的 chunkSize 为64MB如无特殊需求建议保持默认值chunkSize 会直接影响到 chunk 分裂、迁移的行为。 chunkSize 越小chunk 分裂及迁移越多数据分布越均衡反之chunkSize 越大chunk 分裂及迁移会更少但可能导致数据分布不均。 chunkSize 太小容易出现 jumbo chunk即shardKey 的某个取值出现频率很高这些文档只能放到一个 chunk 里无法再分裂而无法迁移chunkSize 越大则可能出现 chunk 内文档数太多chunk 内文档数不能超过 250000 而无法迁移。 chunk 自动分裂只会在数据写入时触发所以如果将 chunkSize 改小系统需要一定的时间来将 chunk 分裂到指定的大小。 chunk 只会分裂不会合并所以即使将 chunkSize 改大现有的 chunk 数量不会减少但 chunk 大小会随着写入不断增长直到达到目标大小。 2.3 数据区分 2.3.1 分片键shard key MongoDB中数据的分片是、以集合为基本单位的集合中的数据通过片键Shard key被分成多部分。其实片键就是在集合中选一个键用该键的值作为数据拆分的依据。 所以一个好的片键对分片至关重要。片键必须是一个索引通过sh.shardCollection加会自动创建索引前提是此集合不存在的情况下。一个自增的片键对写入和数据均匀分布就不是很好因为自增的片键总会在一个分片上写入后续达到某个阀值可能会写到别的分片。但是按照片键查询会非常高效。 随机片键对数据的均匀分布效果很好。注意尽量避免在多个分片上进行查询。在所有分片上查询mongos会对结果进行归并排序。 对集合进行分片时你需要选择一个片键片键是每条记录都必须包含的且建立了索引的单个字段或复合字段MongoDB按照片键将数据划分到不同的数据块中并将数据块均衡地分布到所有分片中。 为了按照片键划分数据块MongoDB使用基于范围的分片方式或者 基于哈希的分片方式。 注意 分片键是不可变。 分片键必须有索引。 分片键大小限制512bytes。 分片键用于路由查询。 MongoDB不接受已进行collection级分片的collection上插入无分片 键的文档也不支持空值插入 2.3.2 以范围为基础的分片Sharded Cluster Sharded Cluster支持将单个集合的数据分散存储在多shard上用户可以指定根据集合内文档的某个字段即shard key来进行范围分片range sharding。 对于基于范围的分片MongoDB按照片键的范围把数据分成不同部分。 假设有一个数字的片键:想象一个从负无穷到正无穷的直线每一个片键的值都在直线上画了一个点。MongoDB把这条直线划分为更短的不重叠的片段并称之为数据块每个数据块包含了片键在一定范围内的数据。在使用片键做范围划分的系统中拥有”相近”片键的文档很可能存储在同一个数据块中因此也会存储在同一个分片中。 2.3.3 基于哈希的分片 分片过程中利用哈希索引作为分片的单个键且哈希分片的片键只能使用一个字段而基于哈希片键最大的好处就是保证数据在各个节点分布基本均匀。 对于基于哈希的分片MongoDB计算一个字段的哈希值并用这个哈希值来创建数据块。在使用基于哈希分片的系统中拥有”相近”片键的文档很可能不会存储在同一个数据块中因此数据的分离性更好一些。 Hash分片与范围分片互补能将文档随机的分散到各个chunk充分的扩展写能力弥补了范围分片的不足但不能高效的服务范围查询所有的范围查询要分发到后端所有的Shard才能找出满足条件的文档。 2.3.4 分片键选择建议 1、递增的sharding key 数据文件挪动小。优势 因为数据文件递增所以会把insert的写IO永久放在最后一片上造成最后一片的写热点。同时随着最后一片的数据量增大将不断的发生迁移至之前的片上。 2、随机的sharding key 数据分布均匀insert的写IO均匀分布在多个片上。优势 大量的随机IO磁盘不堪重荷。 3、混合型key 大方向随机递增小范围随机分布。 为了防止出现大量的chunk均衡迁移可能造成的IO压力。我们需要设置合理分片使用策略片键的选择、分片算法range、hash 分片注意 分片键是不可变、分片键必须有索引、分片键大小限制512bytes、分片键用于路由查询。 MongoDB不接受已进行collection级分片的collection上插入无分片键的文档也不支持空值插入 2.4 部署分片集群 本集群的部署基于1.1的复制集搭建完成。 2.4.1 环境准备 创建程序所需的目录 for i in 17 18 19 20 21 22 23 24 25 26 do mkdir -p /mongodb/280$i/conf mkdir -p /mongodb/280$i/data mkdir -p /mongodb/280$i/log done 2.4.2 shard集群配置 编辑shard集群配置文件 cat /mongodb/28021/conf/mongod.conf EOF systemLog:destination: filepath: /mongodb/28021/log/mongodb.log logAppend: true storage:journal:enabled: truedbPath: /mongodb/28021/datadirectoryPerDB: true#engine: wiredTigerwiredTiger:engineConfig:cacheSizeGB: 1directoryForIndexes: truecollectionConfig:blockCompressor: zlibindexConfig:prefixCompression: true net:bindIp: 10.0.0.152port: 28021 replication:oplogSizeMB: 2048replSetName: sh1 sharding:clusterRole: shardsvr processManagement: fork: true EOF 复制shard集群配置文件 for i in 22 23 24 25 26 do \cp /mongodb/28021/conf/mongod.conf /mongodb/280$i/conf/ done 修改配置文件端口 for i in 22 23 24 25 26 do sed -i s#28021#280$i#g /mongodb/280$i/conf/mongod.conf done 修改配置文件复制集名称replSetName for i in 24 25 26 do sed -i s#sh1#sh2#g /mongodb/280$i/conf/mongod.conf done 启动shard集群 for i in 21 22 23 24 25 26do mongod -f /mongodb/280$i/conf/mongod.conf done 配置复制集1 mongo --host 10.0.0.152 --port 28021 admin   # 配置复制集 config {_id: sh1, members: [{_id: 0, host: 10.0.0.152:28021},{_id: 1, host: 10.0.0.152:28022},{_id: 2, host: 10.0.0.152:28023,arbiterOnly:true}]} # 初始化配置 rs.initiate(config) 配置复制集2 mongo --host 10.0.0.152 --port 28024 admin   # 配置复制集 config {_id: sh2, members: [{_id: 0, host: 10.0.0.152:28024},{_id: 1, host: 10.0.0.152:28025},{_id: 2, host: 10.0.0.152:28026,arbiterOnly:true}]} # 初始化配置 rs.initiate(config) 2.4.3 config集群配置 创建主节点配置文件 cat /mongodb/28018/conf/mongod.conf EOF systemLog:destination: filepath: /mongodb/28018/log/mongodb.conflogAppend: true storage:journal:enabled: truedbPath: /mongodb/28018/datadirectoryPerDB: true#engine: wiredTigerwiredTiger:engineConfig:cacheSizeGB: 1directoryForIndexes: truecollectionConfig:blockCompressor: zlibindexConfig:prefixCompression: true net:bindIp: 10.0.0.152port: 28018 replication:oplogSizeMB: 2048replSetName: configReplSet sharding:clusterRole: configsvr processManagement: fork: true EOF 将配置文件分发到从节点 for i in 19 20 do \cp /mongodb/28018/conf/mongod.conf /mongodb/280$i/conf/ done 修改配置文件端口信息 for i in 19 20 do sed -i s#28018#280$i#g /mongodb/280$i/conf/mongod.conf done 启动config server集群 for i in 18 19 20 do mongod -f /mongodb/280$i/conf/mongod.conf done 配置config server复制集 mongo --host 10.0.0.152 --port 28018 admin # 配置复制集信息 config {_id: configReplSet, members: [{_id: 0, host: 10.0.0.152:28018},{_id: 1, host: 10.0.0.152:28019},{_id: 2, host: 10.0.0.152:28020}]} # 初始化配置 rs.initiate(config)   注config server 使用复制集不用有arbiter节点。3.4版本以后config必须为复制集 2.4.4 mongos节点配置 修改配置文件 cat /mongodb/28017/conf/mongos.conf EOF systemLog:destination: filepath: /mongodb/28017/log/mongos.loglogAppend: true net:bindIp: 10.0.0.152port: 28017 sharding:configDB: configReplSet/10.0.0.152:28108,10.0.0.152:28019,10.0.0.152:28020 processManagement: fork: true EOF 启动mongos mongos -f /mongodb/28017/conf/mongos.conf 登陆到mongos mongo 10.0.0.152:28017/admin 添加分片节点 db.runCommand( { addshard : sh1/10.0.0.152:28021,10.0.0.152:28022,10.0.0.152:28023,name:shard1} ) db.runCommand( { addshard : sh2/10.0.0.152:28024,10.0.0.152:28025,10.0.0.152:28026,name:shard2} ) 列出分片 mongos db.runCommand( { listshards : 1 } ) {shards : [{_id : shard2,host : sh2/10.0.0.152:28024,10.0.0.152:28025},{_id : shard1,host : sh1/10.0.0.152:28021,10.0.0.152:28022}],ok : 1 } 整体状态查看 mongos sh.status(); 至此MongoDB的分片集群就搭建完成。 2.4.5 数据库分片配置 激活数据库分片功能 语法( { enablesharding : 数据库名称 } )mongos db.runCommand( { enablesharding : test } ) 指定分片建对集合分片范围片键--创建索引 mongos use test mongos db.vast.ensureIndex( { id: 1 } ) mongos use admin mongos db.runCommand( { shardcollection : test.vast,key : {id: 1} } ) 集合分片验证 mongos use test mongos for(i0;i20000;i){ db.vast1.insert({id:i,name:clsn,age:70,date:new Date()}); } mongos db.vast.stats()     插入数据的条数尽量大些能够看出更好的效果。 2.5 分片集群的操作 2.5.1 不同分片键的配置 范围片键 admin sh.shardCollection(数据库名称.集合名称,key : {分片键: 1} ) 或 admin db.runCommand( { shardcollection : 数据库名称.集合名称,key : {分片键: 1} } ) eg admin sh.shardCollection(test.vast,key : {id: 1} ) 或 admin db.runCommand( { shardcollection : test.vast,key : {id: 1} } ) 哈希片键 admin sh.shardCollection( 数据库名.集合名, { 片键: hashed } ) 创建哈希索引 admin db.vast.ensureIndex( { a: hashed } ) admin sh.shardCollection( test.vast, { a: hashed } ) 2.5.2 分片集群的操作 判断是否Shard集群 admin db.runCommand({ isdbgrid : 1}) 列出所有分片信息 admin db.runCommand({ listshards : 1}) 列出开启分片的数据库 admin use config config db.databases.find( { partitioned: true } ) config db.databases.find() //列出所有数据库分片情况 查看分片的片键 config db.collections.find() {_id : test.vast,lastmodEpoch : ObjectId(58a599f19c898bbfb818b63c),lastmod : ISODate(1970-02-19T17:02:47.296Z),dropped : false,key : {id : 1},unique : false } 查看分片的详细信息 admin db.printShardingStatus() 或 admin sh.status() 删除分片节点 sh.getBalancerState() mongos db.runCommand( { removeShard: shard2 } ) 2.6 balance操作 查看mongo集群是否开启了 balance 状态 mongos sh.getBalancerState() true   当然你也可以通过在路由节点mongos上执行sh.status() 查看balance状态。 如果balance开启查看是否正在有数据的迁移 连接mongo集群的路由节点 mongos sh.isBalancerRunning() false 2.6.1 设置balance 窗口 1连接mongo集群的路由节点 2切换到配置节点 use config 3确定balance 开启中 sh.getBalancerState() 如果未开启执行命令 sh.setBalancerState( true ) 4修改balance 窗口的时间 db.settings.update({ _id: balancer },{ $set: { activeWindow : { start : start-time, stop : stop-time } } },{ upsert: true } ) eg db.settings.update({ _id : balancer }, { $set : { activeWindow : { start : 00:00, stop : 5:00 } } }, true )   当你设置了activeWindow就不能用sh.startBalancer() 启动balance NOTE The balancer window must be sufficient to complete the migration of all data inserted during the day. As data insert rates can change based on activity and usage patterns, it is important to ensure that the balancing window you select will be sufficient to support the needs of your deployment. 5删除balance 窗口 use config db.settings.update({ _id : balancer }, { $unset : { activeWindow : true } }) 2.6.2 关闭balance 默认balance 的运行可以在任何时间只迁移需要迁移的chunk如果要关闭balance运行停止一段时间可以用下列方法 1 连接到路由mongos节点 2 停止balance sh.stopBalancer() 3 查看balance状态 sh.getBalancerState() 4停止balance 后没有迁移进程正在迁移可以执行下列命令 use config while( sh.isBalancerRunning() ) {print(waiting...);sleep(1000); } 2.6.3 重新打开balance 如果你关闭了balance准备重新打开balance 1 连接到路由mongos节点 2 打开balance sh.setBalancerState(true) 如果驱动没有命令  sh.startBalancer()可以用下列命令 use config db.settings.update( { _id: balancer }, { $set : { stopped: false } } , { upsert: true } ) 2.6.4 关于集合的balance 关闭某个集合的balance sh.disableBalancing(students.grades) 打开某个集合的balance sh.enableBalancing(students.grades) 确定某个集合的balance是开启或者关闭 db.getSiblingDB(config).collections.findOne({_id : students.grades}).noBalance; 2.6.5 问题解决 mongodb在做自动分片平衡的时候或引起数据库响应的缓慢可以通过禁用自动平衡以及设置自动平衡进行的时间来解决这一问题。 1禁用分片的自动平衡 // connect to mongosuse configdb.settings.update( { _id: balancer }, { $set : { stopped: true } } , true ); 2自定义 自动平衡进行的时间段 // connect to mongosuse configdb.settings.update({ _id : balancer }, { $set : { activeWindow : { start : 21:00, stop : 9:00 } } }, true )
http://www.huolong8.cn/news/364378/

相关文章:

  • 建筑劳务东莞网站建设注册一个空壳公司需要多少费用
  • 建一个收费网站金川做网站公司
  • 郑州网站建设系统介绍群晖wordpress搭建网站
  • 中国常用网站网址推广策略怎么写
  • 电商网站建设特色网站内链检测工具
  • 网站策划 英文wordpress编辑器可以粘贴word
  • 建国电影院地址建国东路11号宁波seo外包平台
  • 网站qq登录 开发可以在线制作简历的网站
  • phicomm怎么做网站网站注册域名位置
  • 单页面网站怎么做seo淘宝客如何新建网站
  • 东莞专业网站推广平台天津滨海新区小程序网站建设
  • 有链接的网站潍坊网站推广
  • 原墨网站建设广安市建设局网站
  • 服装网站建设策划unity制作app教程
  • 网站源码文件安装教程视频号链接怎么获取
  • 网站开发 商城开发网站建设方案协议书
  • 青浦集团网站建设经营网站的备案
  • 化妆品网站下载平台期什么意思
  • 富阳建设局网站电话阿里云服务器价格表包年
  • 盐城做网站优化收录文案网站
  • 太原网站搭建推广wordpress主题制作导航
  • 镇海区建设交通局网站进不去了中国上海官网
  • 网站前台与后台建设的先后次序wordpress头部信息
  • 帕绍网站建设西部网站邮箱登录
  • 网站开发用什么软件开发互联网seo是什么
  • 现在的网站一般做多宽最好如何制作网页
  • 深圳网站定制设计最多人用的wordpress子主题
  • 手机站是什么意思华强北 做网站
  • 北票网站建设网站开发报价
  • 网站开发需求网浙江致居软装设计有限公司