用云服务的新手,估计都会遇到这样的问题:某天去到公司打开MongoChef,发现阿里云的MongoDB连不上了。

2017-05-06 18:34:18 星期六
结论:经过实践证明,就是因为中转服务器与MongoDB服务的连接没释放的原因,只要先断开rinetd后再重连即可!

问题排查

  • 网络断了?
  • 阿里云中转服务器挂了?
  • MongoDB连接数满了?

ping一下百度,可以ping通,排除网络断了的bug。

ssh下阿里云的中转服务器,可以连上,排除阿里云中转服务器挂了的bug。

MongoDB连接数问题及解决方法

登上MongoDB控制台,发现连接数满了。百度之,得到一篇阿里云栖的博文《为什么 MongoDB 连接数被用满了?》
原来是我之前写代码时忘记写上db.close(),导致每次连接建立后都没释放。

如何在不重启阿里云MongoDB的情况下,强制释放已建立的连接?

然而改了代码,第二天有其他操作忘记加了释放连接的命令,也会导致连接数满,那么问题来了,如何在不重启MongoDB的情况下,强制释放已建立的连接呢?

为此提交了阿里云的工单,技术人员的回复是暂时没有可以解决的方法。

于是自己google之,查阅了stackoverflowmongodb docpymongo的一些资料,获知了大概以下信息:

  • 可以在终端中mongo mongodb://user:password@URL:port/database连接MongoDB,执行db.serverStatus()查看连接信息,执行db.currentOp() 查看当前操作,并可以用db.killOp()杀死操作。于是当然可以写代码杀死所有操作了。但是杀死这些操作,是否连接数就会减少还没试验。

  • 据我快速扫描英文文档,如果没错的话,pymongoMongoDB的机制已经是线程池的,可能是我插入数据的时候数据量太大,于是建立太多连接。只要完成操作,等一段时间,这些线程池中建立的连接自动会被释放回收。

  • 在中转服务器上重启rinetd服务。假设有外接进程连接着MongoDB,并且不进行操作,而且MongoDB不会进行自动释放,那么将中转服务器的中转服务断开后,这些连接自然也就被中断释放了。作者就是进行这一步之后,使得连接数从180下降到40多。那么问题来了,如果是这个原因,那么剩下的40多连接数,是MongoDB在内网产生的吗?有待进一步研究。
    > 经过实践证明,就是因为中转服务器与MongoDB服务的连接没释放的原因,只要先断开rinetd后再重连即可!

    关于rinetd,祥见《通过公网连接云数据库 MongoDB--ECS Linux 篇》

利用复制集(replica set)设计读压力分散,即低级的负载均衡

让只有读操作的api连接到secondary(从)数据库上,primary(主)数据库只连接需要进行读写的api,就可以分散读压力,使得primary(主)数据库不会那么快满连接数。
当然,对代码的优化是必须的,如果资金充沛,那么提高MongoDB的硬件配置是最好不过的的。

小结

数据库技术(包括传统型如MySQL和大数据型MongoDB、Hadoop)是大数据时代的核心技术,不管是VR、物联网、人工智能还是数据挖掘,都离不开数据。打算在修炼python的同时,继续看《MongoDB 实战》,在工作中总结经验,深入了解底层机制,并且学下MySQL等传统数据库,假以时日,才能在数据库领域有所进展。