详解Java使用Pipeline对Redis批量读写(hmset&hgetall)

网友投稿 750 2023-06-23


详解Java使用Pipeline对Redis批量读写(hmset&hgetall)

一般情况下,Redis Client端发出一个请求后,通常会阻塞并等待Redis服务端处理,Redis服务端处理完后请求命令后会将结果通过响应报文返回给Client。

感觉这有点类似于HBase的Scan,通常是Client端获取每一条记录都是一次RPC调用服务端。

在Redis中,有没有类似HBase Scanner Caching的东西呢,一次请求,返回多条记录呢?

有,这就是Pipline。官方介绍 http://redis.io/topics/pipelining

通过pNzZjrlPaipeline方式当有大批量的操作时候,我们可以节省很多原来浪费在网络延迟的时间,需要注意到是用pipeline方式打包命令发 送,redis必须在处理完所有命令前先缓存起所有命令的处理结果。打包的命令越多,缓存消耗内存也越多。所以并不是打包的命令越多越好。

使用Pipeline在对Redis批量读写的时候,性能上有非常大的提升。

java测试了一下:

package com.lxw1234.redis;

import java.util.HashMap;

import java.util.Map;

import java.util.Set;

import redis.clients.jedis.Jedis;

import redis.clients.jedis.Pipeline;

import redis.clients.jedis.Response;

public class Test {

public static void main(String[] args) throws Exception {

Jedis redis = new Jedis("127.0.0.1", 6379, 400000);

Map data = new HashMap();

redis.select(8);

redis.flushDB();

//hmset

long start = System.currentTimeMillis();

//直接hmset

for (int i=0;i<10000;i++) {

data.clear();

data.put("k_" + i, "v_" + i);

redis.hmset("key_" + i, data);

}

long end = System.currentTimeMillis();

System.out.println("dbsize:[" + redis.dbSize() + "] .. ");

System.out.println("hmset without pipeline used [" + (end - start) / 1000 + "] seconds ..");

redis.select(8);

redis.flushDB();

//使用pipeline hmset

Pipeline p = redis.pipelined();

start = System.currentTimeMillis();

for (int i=0;i<10000;i++) {

data.clear();

data.put("k_" + i, "v_" + i);

p.hmset("key_" + i, data);

}

p.sync();

end = System.currentTimeMillis();

System.out.println("dbsize:[" + redis.dbSize() + "] .. ");

System.out.println("hmset with pipeline used [" + (end - start) / 1000 + "] seconds ..");

//hmget

Set keys = redis.keys("*");

//直接使用Jedis hgetall

start = System.currentTimeMillis();

Map> result = new HashMap>();

for(String key : keys) {

result.put(key, redis.hgetAll(key));

}

end = System.currentTimeMillis();

System.out.println("result size:[" + result.size() + "] ..");

System.out.println("hgetAll without pipeline used [" + (end - start) / 1000 + "] seconds ..");

//使用pipeline hgetall

Map>> responses = new HashMap>>(keys.size());

result.clear();

start = System.currentTimeMillis();

for(String keyNzZjrlPa : keys) {

responses.put(key, p.hgetAll(key));

}

p.sync();

for(String k : responses.keySet()) {

result.put(k, responses.get(k).get());

}

end = System.currentTimeMillis();

System.out.println("result size:[" + result.size() + "] ..");

System.out.println("hgetAll with pipeline used [" + (end - start) / 1000 + "] seconds ..");

redis.disconnect();

}

http://

}

测试结果如下:

dbsize:[10000] ..

hmset without pipeline used [243] seconds ..

dbsize:[10000] ..

hmset with pipeline used [0] seconds ..

result size:[10000] ..

hgetAll without pipeline used [243] seconds ..

result size:[10000] ..

hgetAll with pipeline used [0] seconds ..

使用pipeline来批量读写10000条记录,就是小菜一碟,秒完。


版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Jdk1.8 HashMap实现原理详细介绍
下一篇:java 栈和堆区别详细介绍
相关文章

 发表评论

暂时没有评论,来抢沙发吧~