Redis NodeJS 实现一个能处理海量数据的异步任务队列系统

(给前端大学加星标,提升前端技能.)

作者:jrainlau

https://segmentfault.com/a/1190000037567355

在最近的业务中,接到了一个需要处理约十万条数据的需求。这些数据都以字符串的形式给到,并且处理它们的步骤是异步且耗时的(平均处理一条数据需要 25s 的时间)。如果以串行的方式实现,其耗时是相当长的:

总耗时时间 = 数据量 × 单条数据处理时间T = N * t (N = 100,000; t = 25s)

总耗时时间 = 2,500,000 秒 ≈ 695 小时 ≈ 29 天

显然,我们不能简单地把数据一条一条地处理。那么有没有办法能够减少处理的时间呢?经过调研后发现,使用异步任务队列是个不错的办法。

一、异步任务队列原理

我们可以把“处理单条数据”理解为一个异步任务,因此对这十万条数据的处理,就可以转化成有十万个异步任务等待进行。我们可以把这十万条数据塞到一个队列里面,让任务处理器自发地从队列里面去取得并完成。

任务处理器可以有多个,它们同时从队列里面把任务取走并处理。当任务队列为空,表示所有任务已经被认领完;当所有任务处理器完成任务,则表示所有任务已经被处理完。

其基本原理如下图所示:

首先来解决任务队列的问题。在这个需求中,任务队列里面的每一个任务,都包含了待处理的数据,数据以字符串的形式存在。为了方便起见,我们可以使用 Redis 的 List 数据格式来存放这些任务。

由于项目是基于 NodeJS 的,我们可以利用 PM2 的 Cluster 模式来启动多个任务处理器,并行地处理任务。以一个 8 核的 CPU 为例,如果完全开启了多进程,其理论处理时间将提升 8 倍,从 29 天缩短到 3.6 天。

接下来,我们会从实际编码的角度来讲解上述内容的实现过程。

二、使用 NodeJS 操作 Redis

异步任务队列使用 Redis 来实现,因此我们需要部署一个单独的 Redis 服务。在本地开发中为了快速完成 Redis 的安装,我使用了 Docker 的办法(默认机器已经安装了 Docker)。

Docker 拉取 Redis 镜像

  1. docker pull redis:latest

Docker 启动 Redis

  1. docker run -itd --name redis-local-p 6379:6379 redis

此时我们已经使用 Docker 启动了一个 Redis 服务,其对外的 IP 及端口为 127.0.0.1:6379。此外,我们还可以在本地安装一个名为 Another Redis DeskTop Manager的 Redis 可视化工具,来实时查看、修改 Redis 的内容。

在 NodeJS 中,我们可以使用 node-redis 来操作 Redis。新建一个 mqclient.ts 文件并写入如下内容:

  1. import* asRedisfrom'redis'

  2. const client = Redis.createClient({

  3. host: '127.0.0.1',

  4. port: 6379

  5. })

  6. exportdefault client

Redis 本质上是一个数据库,而我们对数据库的操作无非就是增删改查。node-redis 支持 Redis 的所有交互操作方式,但是操作结果默认是以回调函数的形式返回。为了能够使用 async/await,我们可以新建一个 utils.ts 文件,把 node-redis 操作 Redis 的各种操作都封装成 Promise 的形式,方便我们后续使用。

  1. import client from'./mqClient'

  2. // 获取 Redis 中某个 key 的内容

  3. exportconst getRedisValue = (key: string): Promise<string| null> => newPromise(resolve => client.get(key, (err, reply) => resolve(reply)))

  4. // 设置 Redis 中某个 key 的内容

  5. exportconst setRedisValue = (key: string, value: string) => newPromise(resolve => client.set(key, value, resolve))

  6. // 删除 Redis 中某个 key 及其内容

  7. exportconst delRedisKey = (key: string) => newPromise(resolve => client.del(key, resolve))

除此之外,还能在 utils.ts 中放置其他常用的工具方法,以实现代码的复用、保证代码的整洁。

为了在 Redis 中创建任务队列,我们可以单独写一个 createTasks.ts 的脚本,用于往队列中塞入自定义的任务。

  1. import{ TASK_NAME, TASK_AMOUNT, setRedisValue, delRedisKey } from'./utils'

  2. import client from'./mqClient'

  3. client.on('ready', async() => {

  4. await delRedisKey(TASK_NAME)

  5. for(let i = TASK_AMOUNT; i > 0; i--) {

  6. client.lpush(TASK_NAME, `task-${i}`)

  7. }

  8. client.lrange(TASK_NAME, 0, TASK_AMOUNT, async(err, reply) => {

  9. if(err) {

  10. console.error(err)

  11. return

  12. }

  13. console.log(reply)

  14. process.exit()

  15. })

  16. })

在这段脚本中,我们从 utils.ts 中获取了各个 Redis 操作的方法,以及任务的名称 TASKNAME (此处为 localtasks)和任务的总数 TASKAMOUNT(此处为 20 个)。通过 LPUSH 方法往 TASKNAME 的 List 当中塞入内容为 task-1 到 task-20 的任务,如图所示:

三、异步任务处理

首先新建一个 index.ts 文件,作为整个异步任务队列处理系统的入口文件。

  1. import taskHandler from'./tasksHandler'

  2. import client from'./mqClient'

  3. client.on('connect', () => {

  4. console.log('Redis is connected!')

  5. })

  6. client.on('ready', async() => {

  7. console.log('Redis is ready!')

  8. await taskHandler()

  9. })

  10. client.on('error', (e) => {

  11. console.log('Redis error! '+ e)

  12. })

在运行该文件时,会自动连接 Redis,并且在 ready 状态时执行任务处理器 taskHandler()。

在上一节的操作中,我们往任务队列里面添加了 20 个任务,每个任务都是形如 task-n 的字符串。为了验证异步任务的实现,我们可以在任务处理器 taskHandler.ts 中写一段 demo 函数,来模拟真正的异步任务:

  1. function handleTask(task: string) {

  2. returnnewPromise((resolve) => {

  3. setTimeout(async() => {

  4. console.log(`Handling task: ${task}...`)

  5. resolve()

  6. }, 2000)

  7. })

  8. }

上面这个 handleTask() 函数,将会在执行的 2 秒后打印出当前任务的内容,并返回一个 Promise,很好地模拟了异步函数的实现方式。接下来我们将会围绕这个函数,来处理队列中的任务。

其实到了这一步为止,整个异步任务队列处理系统已经基本完成了,只需要在 taskHandler.ts 中补充一点点代码即可:

  1. import{ popTask } from'./utils'

  2. import client from'./mqClient'

  3. function handleTask(task: string) { /* ... */}

  4. exportdefaultasyncfunction tasksHandler() {

  5. // 从队列中取出一个任务

  6. const task = await popTask()

  7. // 处理任务

  8. await handleTask(task)

  9. // 递归运行

  10. await tasksHandler()

  11. }

最后,我们使用 PM2 启动 4 个进程,来试着跑一下整个项目:

  1. pm2 start ./dist/index.js -i 4&& pm2 logs

可以看到,4 个任务处理器分别处理完了队列中的所有任务,相互之前互不影响。

事到如今已经大功告成了吗?未必。为了测试我们的这套系统到底提升了多少的效率,还需要统计完成队列里面所有任务的总耗时。

四、统计任务完成耗时

要统计任务完成的耗时,只需要实现下列的公式即可:

总耗时 = 最后一个任务的完成时间 - 首个任务被取得的时间

首先来解决“获取首个任务被取得的时间”这个问题。

由于我们是通过 PM2 的 Cluster 模式来启动应用的,且从 Redis 队列中读取任务是个异步操作,因此在多进程运行的情况下无法直接保证从队列中读取任务的先后顺序,必须通过一个额外的标记来判断。其原理如下图:

如图所示,绿色的 worker 由于无法保证运行的先后顺序,所以编号用问号来表示。当第一个任务被取得时,把黄色的标记值从 false 设置成 true。当且仅当黄色的标记值为 false 时才会设置时间。这样一来,当其他任务被取得时,由于黄色的标记值已经是 true 了,因此无法设置时间,所以我们便能得到首个任务被取得的时间。

在本文的例子中,黄色的标记值和首个任务被取得的时间也被存放在 Redis 中,分别被命名为 localtasksSETFIRST 和 localtasksBEGINTIME。

原理已经弄懂,但是在实践中还有一个地方值得注意。我们知道,从 Redis 中读写数据也是一个异步操作。由于我们有多个 worker 但只有一个 Redis,那么在读取黄色标记值的时候很可能会出现“冲突”的问题。举个例子,当 worker-1 修改标记值为 true 的同时, worker-2 正好在读取标记值。由于时间的关系,可能 worker-2 读到的标记值依然是 false,那么这就冲突了。为了解决这个问题,我们可以使用 node-redlock 这个工具来实现“锁”的操作。

顾名思义,“锁”的操作可以理解为当 worker-1 读取并修改标记值的时候,不允许其他 worker 读取该值,也就是把标记值给锁住了。当 worker-1 完成标记值的修改时会释放锁,此时才允许其他的 worker 去读取该标记值。

node-redlock 是 Redis 分布式锁 Redlock 算法的 JavaScript 实现,关于该算法的讲解可参考 https://redis.io/topics/distlock。值得注意的是,在 node-redlock 在使用的过程中,如果要锁一个已存在的 key,就必须为该 key 添加一个前缀 locks:,否则会报错。

回到 utils.ts,编写一个 setBeginTime() 的工具函数:

  1. exportconst setBeginTime = async(redlock: Redlock) => {

  2. // 读取标记值前先把它锁住

  3. constlock= await redlock.lock(`lock:${TASK_NAME}_SET_FIRST`, 1000)

  4. const setFirst = await getRedisValue(`${TASK_NAME}_SET_FIRST`)

  5. // 当且仅当标记值不等于 true 时,才设置起始时间

  6. if(setFirst !== 'true') {

  7. console.log(`${pm2tips} Get the first task!`)

  8. await setRedisValue(`${TASK_NAME}_SET_FIRST`, 'true')

  9. await setRedisValue(`${TASK_NAME}_BEGIN_TIME`, `${new Date().getTime()}`)

  10. }

  11. // 完成标记值的读写操作后,释放锁

  12. awaitlock.unlock().catch(e => e)

  13. }

然后把它添加到 taskHandler() 函数里面即可:

  1. exportdefaultasyncfunction tasksHandler() {

  2. + // 获取第一个任务被取得的时间

  3. + await setBeginTime(redlock)

  4. // 从队列中取出一个任务

  5. const task = await popTask()

  6. // 处理任务

  7. await handleTask(task)

  8. // 递归运行

  9. await tasksHandler()

  10. }

接下来解决“最后一个任务的完成时间”这个问题。

类似上一个问题,由于任务执行的先后顺序无法保证,异步操作的完成时间也无法保证,因此我们也需要一个额外的标识来记录任务的完成情况。在 Redis 中创建一个初始值为 0 的标识 localtasksCURINDEX,当 worker 完成一个任务就让标识加。由于任务队列的初始长度是已知的(为 TASKAMOUNT 常量,也写入了 Redis 的 localtasksTOTAL 中),因此当标识的值等于队列初始长度的值时,即可表明所有任务都已经完成。

如图所示,被完成的任务都会让黄色的标识加一,任何时候只要判断到标识的值等于队列的初始长度值,即可表明任务已经全部完成。

回到 taskHandler() 函数,加入下列内容:

  1. exportdefaultasyncfunction tasksHandler() {

  2. + // 获取标识值和队列初始长度

  3. + let curIndex = Number(await getRedisValue(`${TASK_NAME}_CUR_INDEX`))

  4. + const taskAmount = Number(await getRedisValue(`${TASK_NAME}_TOTAL`))

  5. + // 等待新任务

  6. + if(taskAmount === 0) {

  7. + console.log(`${pm2tips} Wating new tasks...`)

  8. + await sleep(2000)

  9. + await tasksHandler()

  10. + return

  11. + }

  12. + // 判断所有任务已经完成

  13. + if(curIndex === taskAmount) {

  14. + const beginTime = await getRedisValue(`${TASK_NAME}_BEGIN_TIME`)

  15. + // 获取总耗时

  16. + const cost = newDate().getTime() - Number(beginTime)

  17. + console.log(`${pm2tips} All tasks were completed! Time cost: ${cost}ms. ${beginTime}`)

  18. + // 初始化 Redis 的一些标识值

  19. + await setRedisValue(`${TASK_NAME}_TOTAL`, '0')

  20. + await setRedisValue(`${TASK_NAME}_CUR_INDEX`, '0')

  21. + await setRedisValue(`${TASK_NAME}_SET_FIRST`, 'false')

  22. + await delRedisKey(`${TASK_NAME}_BEGIN_TIME`)

  23. + await sleep(2000)

  24. + await tasksHandler()

  25. }

  26. // 获取第一个任务被取得的时间

  27. await setBeginTime(redlock)

  28. // 从队列中取出一个任务

  29. const task = await popTask()

  30. // 处理任务

  31. await handleTask(task)

  32. + // 任务完成后需要为标识位加一

  33. + try{

  34. + constlock= await redlock.lock(`lock:${TASK_NAME}_CUR_INDEX`, 1000)

  35. + curIndex = await getCurIndex()

  36. + await setCurIndex(curIndex + 1)

  37. + awaitlock.unlock().catch((e) => e)

  38. + } catch(e) {

  39. + console.log(e)

  40. + }

  41. + // recursion

  42. + await tasksHandler()

  43. +}

  44. // 递归运行

  45. await tasksHandler()

  46. }

到这一步为止,我们已经解决了获取“最后一个任务的完成时间”的问题,再结合前面的首个任务被取得的时间,便能得出运行的总耗时。

最后来看一下实际的运行效果。我们循例往队列里面添加了 task-1 到 task-20 这 20 个任务,然后启动 4 个进程来跑:

运行状况良好。从运行结果来看,4 个进程处理 20 个平均耗时 2 秒的任务,只需要 10 秒的时间,完全符合设想。

五、小结

当面对海量的异步任务需要处理的时候,多进程 + 任务队列的方式是一个不错的解决方式。本文通过探索 Redis + NodeJS 结合的方式,构造出了一个异步任务队列处理系统,能较好地完成最初方案的设想,但依然有很多问题需要改进。比如说当任务出错了应该怎么办,系统能否支持不同类型的任务,能否运行多个队列等等,都是值得思考的问题。

❤️爱心三连击

点分享
点点赞
点在看
(0)

相关推荐

  • C# 异步编程

    基于Task的异步编程模式(TAP)是Microsoft为.Net平台下使用Task进行编程所提供的一组建议,这种模式提供了可以被await消耗(调用)方法的APIs,并且当使用async关键字编写遵 ...

  • 一文说通C#中的异步编程

    天天写,不一定就明白. 又及,前两天看了一个关于同步方法中调用异步方法的文章,里面有些概念不太正确,所以整理了这个文章.   一.同步和异步. 先说同步. 同步概念大家都很熟悉.在异步概念出来之前,我 ...

  • 我用Redis实现了一个轻量级的搜索引擎!

    关注鸿蒙技术社区,回复[鸿蒙]送价值399元的鸿蒙开发板套件(数量有限,先到先得),还可以免费下载鸿蒙入门资料!

  • 如何设计一个亿级消息量的 IM 系统

    IM核心概念 用户 :系统的使用者 消息 :是指用户之间的沟通内容.通常在IM系统中,消息会有以下几类:文本消息.表情消息.图片消息.视频消息.文件消息等等 会话 :通常指两个用户之间因聊天而建立起的 ...

  • 一个完整的小区智能化有哪些系统?如何实现?

    小区智能化是弱电朋友做的比较多的项目,哪么一份完善的小区弱电智能化会有哪些弱电系统呢?如何实现呢?我们来看下. 首先完善的智能化小区它需要包括以下系统.我们来逐一介绍. 一.访客系统 作为现代化的小区 ...

  • 一个完整的小区智能化有哪些系统?如何实现?值得收藏学习!

    一个完善的智能化小区它需要包括以下系统.我们来逐一介绍. 一.访客系统 作为现代化的小区,来访客人众多,访客的登记管理非常重要,其不仅关系到小区的人员往来控制,避免安全隐患,同时,作为对外窗口的一环, ...

  • 宇宙是一个微观宇宙与宏观宇宙的物质系统

    作者:黄姤 旁述:黄媂 编著/配图:K²(黄金) 宇宙是一个创造万物的作坊,最值得骄傲的产品就是--人类,宇宙有两点让我们感到非常困惑: ①人类在宇宙中非常独特,因为我们费尽心力也始终没有在除了地球以 ...

  • 寻路MaaS︱为何至今没能建成一个繁荣且可持续的MaaS系统?

    一览众山小 2021年1月20日期 团队与导读 本文作者开篇即哀叹,"为什么至今谁也没能建成一个繁荣且可持续的MaaS业务?到底为何?为何啊!"始于哀叹却不止步于哀叹,兵分7小节, ...

  • 餐饮店生意不好做?一个模式让你领先同行-捷径系统

    做生意做久了,通常会遇到一个瓶颈,钱越越赚越少,成本越来越高.这种情况下,资深营销专家分析,并不是生意不好做了,是模式变了.先入局的人跟不上改变了. 比如餐饮行业刚开始做专门的外卖生意,开面积十几平的 ...

  • 一个通用即时通讯(IM)系统的设计

    本文章参考https://systeminterview.com/design-a-chat-system.php,有删减. 在本章中,我们将探讨聊天系统的设计.几乎每个人都使用聊天应用程序.图12- ...

  • 电脑刚换一个普通1T副硬盘不装系统还需要设置分区吗

    追问 : 具体什么设置步骤方便说一下嘛我不会 追答 : 如果已经有系统了,这是挂接的第二块硬盘就直接在管理中进行分区格式化就可以了,如果不是需要你用可引导盘引导后用分区工具软件进行分区 追问 : 第一 ...