多平台统一管理软件接口,如何实现多平台统一管理软件接口
252
2022-08-31
ZooKeeper开发实际应用案例实战
目录项目背景介绍面临问题如何解决代码讲解数据服务器检索服务器总结附:完整代码数据服务端代码检索服务端代码
项目背景介绍
首先给大家介绍一下本文描述项目的情况。这是一个检索网站,它让你能在几千万份复杂文档数据中检索出你所需要的文档数据。为了加快检索速度,项目的数据分布在100台机器的内存里,我们称之为数据服务器。除了数据,这100台机器上均部署着检索程序。这些server之外,还有数台给前端提供接口的搜索server,这些机器属一个集群,我们称之为检索服务器。当搜索请求过来时,他们负责把搜索请求转发到那100台机器,待所有机器返回结果后进行合并,最终返回给前端页面。结构如下图:
面临问题
网站上线之初,由于数据只有几百万,所以数据服务器只有10多台。是一个规模比较小的分布式系统,当时没有做分布式系统的协调,也能正常工作,偶尔出问题,马上解决。但是到了近期,机器增长到100台,网站几乎每天都会出现问题,导致整个分布式系统挂掉。问题原因如下:
数据服务器之前没有做分布式协调。对于检索服务器来说,并不知道哪些数据服务器还存活,所以检索服务器每次检索,都会等待100台机器返回结果。但假如100台数据服务中某一台死掉了,检索服务器也会长时间等待他的返回。这导致了检索服务器积累了大量的请求,最终被压垮。当所有的检索服务器都被压垮时,那么网站也就彻底不可用了。
问题的本质为检索服务器维护的数据服务器列表是静态不变的,不能感知数据服务器的上下线。
在10台数据服务器的时候,某一台机器出问题的概率很小。但当增长到100台服务器时,出问题的概率变成了10倍。所以才会导致网站几乎每天都要死掉一次。
由于一台机器的问题,导致100台机器的分布式系统不可用,这是极其不合理,也是无法忍受的。
之前此项目的数据和检索不由我负责。了解到此问题的时候,我觉得这个问题得立刻解决,否则不但用户体验差,而且开发和运维也要每天疲于系统维护,浪费了大量资源,但由于还有很多新的需求在开发,原来的团队也没时间去处理。今年我有机会来解决这个问题,当时正好刚刚研究完zookeeper,立刻想到这正是采用zookeeper的典型场景。
如何解决
我直接说方案,程序分为数据服务器和检索服务器两部分。
数据服务器:
1、每台数据服务器启动时候以临时节点的形式把自己注册到zookeeper的某节点下,如/data_servers。这样当某数据服务器死掉时,session断开链接,该节点被删除。
检索服务器:
1、启动时,加载/data_servers下所有子节点数据,获取了目前所有能提供服务的数据服务器列表,并且加载到内存中。
2、启动时,同时监听/data_servers节点,当新的数据server上线或者某个server下线时,获得通知,然后重新加载/data_servers下所有子节点数据,刷新内存中数据服务器列表。
通过以上方案,做到数据服务器上下线时,检索服务器能够动态感知。检索服务器在检索前,从内存中取得的数据服务器列表将是最新的、可用的。即使在刷新时间差内取到了掉线的数据服务器也没关系,最多影响本次查询,而不会拖垮整个集群。见下图:
代码讲解
捋清思路后,其实代码就比较简单了。数据服务器只需要启动的时候写zookeeper临时节点就好了,同时写入自己服务器的相关信息,比如ip、port之类。检索无服务器端会稍微复杂点,不过此处场景和zookeeper官方给的例子十分符合,所以我直接参考官方例子进行修改,实现起来也很简单。关于官方例子我写过两篇博文,可以参考学习:
zookeeper官方例子翻译:https://blog.csdn.net/liyiming2017/article/details/83275882
zookeeper官方例子解读:https://blog.csdn.net/liyiming2017/article/details/83276706
数据服务器
数据服务器程序十分简单,只会做一件事情:启动的时候,把自己以临时节点的形式注册到zookeeper。一旦服务器挂掉,zookeeper自动删除临时znode。
我们创建ServiceRegister.java实现Runnable,数据服务启动的时候,单独线程运行此代码,实现注册到zookeeper逻辑。维系和zookeeper的链接。
检索服务器
检索服务器,代码设计完全采用官方案例,所以详细的代码解读请参考上面提到的两篇文章,这里只做下简述。
代码有两个类DataMonitor和LoadSaidsExecutor。LoadSaidsExecutor是启动入口,他来启动DataMonitor监控zookeeper节点变化。DataMonitor负责监控,初次启动和发现变化时,调用LoadSaidsExecutor的方法来加载最新的数据服务器列表信息。
DataMonitor和LoadSaidsExecutor的工作流程如下:
Excutor把自己注册为DataMonitor的监听
DataMonitor实现watcher接口,并监听znode
znode变化时,触发DataMonitor的监听
回调回调中通过ZooKeeper.exist() 再次监听znode
上一步exist的回调方法中,调用监听自己的Executor,执行业务逻辑6
Executor启新的线程加载数据服务器信息到内存中
注意:图为以前文章配图。图里应该把6,7步改为文字描述的第6步。
检索服务启动的时候,单独线程运行LoadSaIdsExecutor。LoadSaIdsExecutor会阻塞线程,转为事件驱动。
总结
我们通过一个例子,展示了zookeeper在实际系统中的应用,通过zookeeper解决了分布式系统的问题。其实以上代码还有很大的优化空间。我能想到如下两点:
1、数据服务器会假死或者变慢,但和zk链接还在,并不会从zk中删除,但已经拖慢了集群的速度。解决此问题,我们可以在数据服务器中加入定时任务,通过定时跑真实业务查询,监控服务器状态,一旦达到设定的红线阈值,强制下线,而不是等到server彻底死掉。
2、检索服务器每个server都监控zookeeper同一个节点,在节点变化时会出现羊群效应。当然,检索服务器如果数量不多还好。其实检索服务器应该通过zookeeper做一个leader选举,只由leader去监控zookeeper节点变化,更新redis中的数据服务器列表缓存即可。
附:完整代码
数据服务端代码
ServiceRegister.java
public class ServiceRegister implements Runnable{
private ZooKeeper zk;
private static final String ZNODE = "/sas";
private static final String SA_NODE_PREFIX = "sa_";
private String hostName="localhost:2181";
public void setHostName(String hostName) {
this.hostName = hostName;
}
public ServiceRegister() throws IOException {
zk = new ZooKeeper(hostName, 10000,null);
}
@Override
public void run() {
try {
createSaNode();
synchronized (this) {
wait();
}
} catch (KeeperException e) {
e.printStackTrace();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
//测试用
public static void main(String[] args){
try {
new ServiceRegister().run();
} catch (IOException e) {
e.printStackTrace();
}
}
//创建子节点
private String createSaNode() throws KeeperException, InterruptedException {
// 如果根节点不存在,则创建根节点
Stat stat = zk.exists(ZNODE, false);
if (stat == null) {
zk.create(ZNODE, new byte[0], ZooDefs.Ids.OPEN_ACL_UNSAFE, CreateMode.PERSISTENT);
}
String hostName = System.getenv("HOSTNAME");
// 创建EPHEMERAL_SEQUENTIAL类型节点
String saPath = zk.create(ZNODE + "/" + SA_NODE_PREFIX,
hostName.getBytes(), ZooDefs.Ids.OPEN_ACL_UNSAFE,
CreateMode.EPHEMERAL_SEQUENTIAL);
return saPath;
}
}
检索服务端代码
DataMonitor.java
public class DataMonitor implements Watcher, AsyncCallback.ChildrenCallback {
ZooKeeper zk;
String znode;
Watcher chainedWatcher;
boolean dead;
DataMonitorListener listener;
List
public DataMonitor(ZooKeeper zk, String znode, Watcher chainedWatcher,
DataMonitorListener listener) {
this.zk = zk;
this.znode = znode;
this.chainedWatcher = chainedWatcher;
this.listener = listener;
// 这是整个监控的真正开始,通过获取children节点开始。设置了本对象为监控对象,回调对象也是本对象。以后均是事件驱动。
zk.getChildren(znode, true, this, null);
}
/**
* 其他和monitor产生交互的类,需要实现此listener
*/
public interface DataMonitorLYkYObhBrYJistener {
/**
* The existence status of the node has changed.
*/
void changed(List
/**
* The ZooKeeper session is no longer valid.
*
* @param rc
* the ZooKeeper reason code
*/
void closing(int rc);
}
/*
*监控/saids的回调函数。除了处理异常外。
*如果发生变化,和构造函数中一样,通过getChildren,再次监控,并处理children节点变化后的业务
*/
public void process(WatchedEvent event) {
String path = event.getPath();
if (event.getType() == Event.EventType.None) {
// We are are being told that the state of the
// connection has changed
switch (event.getState()) {
case SyncConnected:
// In this particular example we don't need to do anything
// here - watches are automatically re-registered with
// server and any watches triggered while the client was
// disconnected will be delivered (in order of course)
break;
case Expired:
// It's all over
dead = true;
listener.closing(Code.SESSIONEXPIRED.intValue());
break;
}
} else {
if (path != null && path.equals(znode)) {
// Something has changed on the node, let's find out
zk.getChildren(znode, true, this, null);
}
}
if (chainedWatcher != null) {
chainedWatcher.process(event);
}
}
//拿到Children节点后的回调函数。
@Override
public void processResult(int rc, String path, Object ctx, List
boolean exists;
switch (rc) {
case Code.Ok:
exists = true;
break;
case Code.NoNode:
exists = false;
break;
case Code.SessionExpired:
case Code.NoAuth:
dead = true;
listener.closing(rc);
return;
default:
// Retry errors
zk.getChildren(znode, true, this, null);
return;
}
List
//如果存在,再次查询到最新children,此时仅查询,不要设置监控了
if (exists) {
try {
saIds = zk.getChildren(znode,null);
} catch (KeeperException e) {
// We don't need to worry about recovering now. The watch
// callbacks will kick off any exception handling
e.printStackTrace();
} catch (InterruptedException e) {
return;
}
}
//拿到最新saids后,通过listener(executor),加载Saids。
if ((saIds == null && saIds != prevSaIds)
|| (saIds != null && !saIds.equals(prevSaIds))) {
listener.changed(saIds);
prevSaIds = saIds;
}
}
}
LoadSaIdsExecutor.java
public class LoadSaIdsExecutor
implements Watcher, Runnable, DataMonitor.DataMonitorListener
{
private DataMonitor dm;
private ZooKeeper zk;
private static final String znode = "/sas";
private String hostName="localhost:2181";
public void setHostName(String hostName) {
this.hostName = hostName;
}
/*
*初始化zookeeper及DataMonitor
* 自己作为zookeeper的监控者,监控和zookeeper连接的变化
* 自己作为DataMonitor的listener。当dm监控到变化时会调用executor执行业务操作
*/
public LoadSaIdsExecutor() throws KeeperException, IOException {
zk = new ZooKeeper(hostName, 300000, this);
dm = new DataMonitor(zk, znode, null, this);
}
/**
* 入口方法,测试用。
*/
public static void main(String[] args) {
try {
new LoadSaIdsExecutor().run();
} catch (Exception e) {
e.printStackTrace();
}
}
/**
* 作为单独线程运行
*/
public void run() {
try {
synchronized (this) {
while (!dm.dead) {
wait();
}
}
} catch (InterruptedException e) {
}
}
/*
*作为zookeeper监控者的回调,直接传递事件给monitor的回调函数统一处理
*/
@Override
public void process(WatchedEvent event) {
dm.process(event);
}
/*
*当关闭时,让线程线继续走完
*/
public void closing(int rc) {
synchronized (this) {
notifyAll();
}
}
/*
*监控到/saids变化后的处理类
*/
static class SaIdsLoader extends Thread {
List
//构造对象后直接启动线程
public SaIdsLoader(List
this.saIds = saIds;
start();
}
public void run() {
System.out.println("------------加载开始------------");
//业务处理的地方
if(saIds!=null){
saIds.forEach(id->{
System.out.println(id);
});
}
System.out.println("------------加载结束------------");
}
}
/*
*作为listener对外暴露的方法,在节点/saids变化时被调用。
*/
@Override
public void changed(List
new SaIdsLoader(data);
}
}
以上就是ZooKeeper开发实际应用案例实战的详细内容,更多关于ZooKeeper开发应用案例的资料请关注我们其它相关文章!
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~