​最全综述 | SLAM中回环检测方法

快速获得最新干货

在视觉SLAM问题中,位姿的估计往往是一个递推的过程,即由上一帧位姿解算当前帧位姿,因此其中的误差便这样一帧一帧的传递下去,也就是我们所说的累积误差。一个消除误差有效的办法是进行回环检测。回环检测判断机器人是否回到了先前经过的位置,如果检测到回环,它会把信息传递给后端进行优化处理。回环是一个比后端更加紧凑、准确的约束,这一约束条件可以形成一个拓扑一致的轨迹地图。如果能够检测到闭环,并对其优化,就可以让结果更加准确。

在检测回环时,如果把以前的所有帧都拿过来和当前帧做匹配,匹配足够好的就是回环,但这样会导致计算量太大,匹配速度过慢,而且没有找好初值的情况下,需要匹配的数目非常巨大。因此回环检测是SLAM问题的一个难点,针对这个问题,在这里我们总结几种经典的方法供大家参考。

词袋模型(Bag Of Words,BOW)

原理

简介:现有的SLAM系统中比较流行的回环检测方法是特征点结合词袋的方法(如ORB-SLAM,VINS-Mono)等。基于词袋的方法是预先加载一个词袋字典树,通知这个预加载的字典树将图像中的每一局部特征点的描述子转换为一个单词,字典里包含着所有的单词,通过对整张图像的单词统计一个词袋向量,词袋向量间的距离即代表了两张图像之间的差异性。在图像检索的过程中,会利用倒排索引的方法,先找出与当前帧拥有相同单词的关键帧,并根据它们的词袋向量计算与当前帧的相似度,剔除相似度不够高的图像帧,将剩下的关键帧作为候选关键帧,按照词袋向量距离由近到远排序[1]。

字典、单词、描述子之间的关系是:

因此,可将基于词袋模型的回环检测方法分为以下三个步骤[2]:

1.提取特征

2.构建字典(所有单词的集合)

3.确定一帧中具有哪些单词,形成词袋向量 (1表示具有该单词,0表示没有)

4.比较两帧描述向量的差异。

下面分模块逐个介绍:

构建字典

相当于描述子聚类过程,可以用K近邻算法,或者使用已经探索过的环境中的特征在线动态生成词袋模型[3]。

(1)k近邻算法

根据已经离线采集的图像,提取特征描述子,用k近邻算法形成字典的流程是:

1.在字典中的多个描述子中随机选取k个中心点:

2.对于每一个样本,计算它与每个中心点之间的距离,取最小的中心点作为它的归类。

3.重新计算每个类的中心点。

4.如果每个中心点都变化很小,则算法收敛,退出,否则继续迭代寻找。

每个归好的类就是一个单词,每个单词由聚类后距离相近的描述子组成。

其他类似方法还有层次聚类法、K-means++等。

Kmeans++算法是基于Kmeans改进而来,主要改进点在于中心点的初始化上,不像原始版本算法的随机生成,它通过一些策略使得k个初始中心点彼此间距离尽量地远,以期获得这些中心点具有更好的代表性,有利于后面的分类操作的效果[8]。

Kmeans++算法中中心点初始化的流程如下:

1.从n个样本中随机选取一个点作为第一个中心点;

2.计算样本中每个点和距离它最近的中心点之间的距离

,根据策略选择新的中心点

3.重复2直至得到k个中心点。

(2)在线动态生成词袋模型:

传统的BOW模型生成离线的字典,更灵活的方法是动态地创建一个字典,这样没有在训练集中出现地特征可以被有效地识别出来。典型论文有[4],[5]。

在论文中将图像识别中词袋模型进行了扩展,并用贝叶斯滤波来估计回环概率。回环检测问题涉及识别已建图区域的困难,而全局定位问题涉及在现有地图中检索机器人位置的困难。当在当前图像中找到一个单词时,之前看到过这个单词的图片的tf-idf 分数将会更新。该方法根据探索环境时遇到的特征动态地构建字典,以便可以有效识别训练集中未表示的特征的环境。

字典树

因为字典太过庞大,如果一一查找匹配单词,会产生很大的计算量,因此可以用k叉树的方式来表达字典,建立字典树流程是这样的[6]:

  1. 对应用场景下的大量训练图像离线提取局部描述符(words)(每张图像可能会有多个描述符)

  2. 将这些描述符KNN聚成k类;

  3. 对于第一层的每一节点,继续KNN聚成k类,得到下一层;

  4. 按这个循环,直到聚类的层次数达到阈值d,叶子节点表示一个word,中间节点则是聚类的中心。

(图源:视觉SLAM十四讲)

然而建立词袋的一个主要缺点是,它需要预先载入一个训练好的词袋字典树,这个字典树一般包含大量的特征单词,为了保证有良好的区分能力,否则对图像检索结果有较大影响,但是这会导致这个字典文件比较大,对于一些移动应用来说会是一个很大的负担。为了解决这个问题,可以通过动态建立k-d树来避免预载入字典的麻烦。在添加关键帧的过程中维护一个全局的k-d树,将每个特征点以帧为单位添加到这个k-d树中。在图像检索过程中,寻找最接近的节点进行匹配,根据匹配结果对每个关键帧进行投票,获得的票数即可作为该帧的分数,从而生成与当前帧相似的关键帧候选集[1]。

词袋向量

关键帧和查询帧的相似度是通过词袋向量之间的距离来衡量的。假定一幅图像I的局部描述符集合是[6]

每个描述符

在字典树中查找距离最近的word,假定其word_id为

,其对应的权重为

。查找过程从字典树的根节点开始,每一层都找距离最近的节点,然后下一层中继续,直至到达叶子节点。

记词表的大小为

,定义这个在字典树中查找的映射为

如果两个描述符映射到同一个word,则权重相加,得到一个定长的向量:

其中

这样在根据word查找关键帧时,就不用遍历所有的关键帧,只要把查询帧描述符映射的那些words索引的关键帧找到即可。

相似度计算

一些词在用来识别两个图像是否显示同一个地方比其他词更加有用,而有一些词对识别贡献不大,为了区分这些词的重要性,可以为每个词分配特定权重,常见方案是TF-IDF。它综合了图像中的词的重要性(TF-Term Frequency)和收集过程中词的重要性(IDF-Inverse Document Frequency),用以评估一个词对于一个文件或者一个语料库中的一个领域文件集的重复程度。

对于单幅图像,假设在单幅图像中一共出现的单词次数为

,某个叶子节点单词

出现了

次,则TF为[7]:

TF:某个特征在单幅图像中出现的频率,越高则它的区分度就越高

在构建字典时,考虑IDF,假设所有特征数量为

,叶子节点

的数量为

,则IDF为

IDF:某单词在字典中出现的频率越低,则区分度越低

的权重等于TF和IDF的乘积:

考虑权重后,对于某个图像

,它的特征点可以对应很多单词,组成它的词袋:

这样便用单个向量

描述了一个图像

,这个向量是一个稀疏向量,非零部分代表含有哪些单词,这些值即为TF-IDF的值。

得到

两幅图像的

后,可以通过

范式形式计算差异性:

其中,

表示只在

中有的单词,

表示只在

中有的单词,

表示在

中都有的单词。

越大,相似性越大,当评分

足够大时即可判断两帧可能为回环。

此外,如果只用绝对值表示两幅图像的相似性,在环境本来就相似的情况下帮助并不大,因此,可以取一个先验相似度

,它表示某时刻关键帧图像与上一时刻关键帧的相似性,然后,其他分之都参照这个值进行归一化:

因此,可以定义如果当前帧与之前某关键帧的相似度,超过当前帧与上一关键帧相似度的3倍,就认为可能存在回环。

此外,还有其他的方法,分为局部(Squared TF, Frequency logarithm, Binary,BM25 TF等等)和全局(Probabilistic IDF, Squared IDF)等,感兴趣可以继续搜索。

回环验证

词袋模型的另一个问题是它并不完全精确,会出现假阳性数据。在回环检测检索的后期阶段需要用其他方法加以验证。如果当前跟踪已经完全丢失,需要重定位给出当前帧的位姿来调整。在重定位的验证中,使用空间信息进行筛选,可以使用PnP进行后验校正,或者使用条件随机场。这个验证可以去掉那些和参考图像不符合几何一致性的图像[3]。得到准确的图像匹配后,可以根据匹配结果去求解相机位姿。

如果系统跟踪正常,发现了之前访问过的场景,需要进行回环检测添加新约束。基于词袋的回环检测方法只在乎单词有无,不在乎单词的排列顺序,会容易引发感知偏差,此外,词袋回环完全依赖于外观而没有利用任何的几何信息,会导致外观相似的图像容易被当作回环,因此需要加一个验证步骤,验证主要考虑以下三点[1]:

1)不与过近的帧发生回路闭合如果关键帧选得太近,那么导致两个关键帧之间的相似性过高,检测出的回环意义不大,所以用于回环检测的帧最好是稀疏一些,彼此之间不太相同,又能涵盖整个环境[7]。且为了避免错误的回环,某一位姿附近连续多次(ORB-SLAM中为3次)与历史中某一位姿附近出现回环才判断为回环;回环候选帧仍然要匹配,匹配点足够才为回环。

2)闭合的结果在一定长度的连续帧上都是一致的。如果成功检测到了回环,比如说出现在第1 帧和第

帧。那么很可能第

帧,

帧都会和第1 帧构成回环。但是,确认第1 帧和第

帧之间存在回环,对轨迹优化是有帮助的,但再接下去的第

帧,

帧都会和第1 帧构成回环,产生的帮助就没那么大了,因为已经用之前的信息消除了累计误差,更多的回环并不会带来更多的信息。所以,我们会把“相近”的回环聚成一类,使算法不要反复地检测同一类的回环。

3)闭合的结果在空间上是一致的。即是对回环检测到的两个帧进行特征匹配,估计相机的运动,再把运动放到之前的位姿图中,检查与之前的估计是否有很大出入。

经典词袋模型源码

DBOW

这个库已经很旧了,简要介绍:DBow库是一个开源C ++库,用于索引图像并将图像转换为词袋表示。它实现了一个分层树,用于近似图像特征空间中的最近邻并创建可视词汇表。DBow还实现了一个基于逆序文件结构的图像数据库,用于索引图像和快速查询。DBow不需要OpenCV(演示应用程序除外),但它们完全兼容。

源码地址:https://github.com/dorian3d/DBow

DBOW2

DBoW2是DBow库的改进版本,DBoW2实现了具有正序和逆序指向索引图片的的图像数据库,可以实现快速查询和特征比较。与以前的DBow库的主要区别是:

  • DBoW2类是模板化的,因此它可以与任何类型的描述符一起使用。

  • DBoW2可直接使用ORB或BRIEF描述符。

  • DBoW2将直接文件添加到图像数据库以进行快速功能比较,由DLoopDetector实现。

  • DBoW2不再使用二进制格式。另一方面,它使用OpenCV存储系统来保存词汇表和数据库。这意味着这些文件可以以YAML格式存储为纯文本,更具有兼容性,或以gunzip格式(.gz)压缩以减少磁盘使用。

  • 已经重写了一些代码以优化速度。DBoW2的界面已经简化。

  • 出于性能原因,DBoW2不支持停止词。

DBoW2需要OpenCV和 Boost::dynamic_bitset类才能使用BRIEF版本。

DBoW2和DLoopDetector已经在几个真实数据集上进行了测试,执行了3毫秒,可以将图像的简要特征转换为词袋向量量,在5毫秒可以在数据库中查找图像匹配超过19000张图片。

源码地址:https://github.com/dorian3d/DBoW2

DBoW3

DBoW3是DBow2库的改进版本,与以前的DBow2库的主要区别是:

  • DBoW3只需要OpenCV。DLIB的DBoW2依赖性已被删除。

  • DBoW3能够适用二进制和浮点描述符。无需为任何描述符重新实现任何类。

  • DBoW3在linux和windows中编译。

  • 已经重写了一些代码以优化速度。DBoW3的界面已经简化。

  • 使用二进制文件。二进制文件加载/保存比yml快4-5倍。而且,它们可以被压缩。

  • 兼容DBoW2的yml文件

源码地址:https://github.com/rmsalinas/DBow3

FBOW

FBOW(Fast Bag of Words)是DBow2 / DBow3库的极端优化版本。该库经过高度优化,可以使用AVX,SSE和MMX指令加速Bag of Words创建。在加载词汇表时,fbow比DBOW2快约80倍(参见tests目录并尝试)。在使用具有AVX指令的机器上将图像转换为词袋时,它的速度提高了约6.4倍。

源码地址:https://github.com/rmsalinas/fbow

FAB-MAP

是一种基于外观识别场所问题的概率方法。我们提出的系统不仅限于定位,而是可以确定新观察来自以前看不见的地方,从而增加其地图。实际上,这是一个外观空间的SLAM系统。我们的概率方法允许我们明确地考虑环境中的感知混叠——相同但不明显的观察结果来自同一地点的可能性很小。我们通过学习地方外观的生成模型来实现这一目标。通过将学习问题分成两部分,可以仅通过对一个地方的单个观察来在线学习新地点模型。算法复杂度在地图中的位置数是线性的,特别适用于移动机器人中的在线环闭合检测。

源码地址:https://github.com/arrenglover/openfabmap

词袋模型在V-SLAM上的实现

c++版本

博客介绍:https://nicolovaligi.com/bag-of-words-loop-closure-visual-slam.html

源码地址:https://github.com/nicolov/simpleslamloop_closure

python版本

Loop Closure Detection using Bag of Words

源码地址:https://github.com/pranav9056/bow

matlab:

博客介绍:http://www.jaijuneja.com/blog/2014/10/bag-words-localisation-mapping-textured-scenes/

源码地址:https://github.com/jaijuneja/texture-localisation-matlab

ORB-SLAM

源码地址:https://github.com/raulmur/ORB_SLAM

ORB-SLAM2

源码地址:https://github.com/raulmur/ORB_SLAM2

VINS-Mono

https://github.com/HKUST-Aerial-Robotics/VINS-Mono

kintinous

https://github.com/mp3guy/Kintinuous

文献资料

[1] 鲍虎军,章国峰 ,秦学英.增强现实:原理、算法与应用[M].科学出版社:北京,2019:114-115.

[2] https://zhuanlan.zhihu.com/p/45573552

[3] J. Fuentes-Pacheco, J. Ruiz-Ascencio, and J. M. Rendón-Mancha, “Visual simultaneous localization and mapping: a survey,” Artif Intell Rev, vol. 43, no. 1, pp. 55–81, Jan. 2015.

[4] A. Angeli, S. Doncieux, J.-A. Meyer, and D. Filliat, “Real-time visual loop-closure detection,” in 2008 IEEE International Conference on Robotics and Automation, Pasadena, CA, USA, 2008, pp. 1842–1847.

[5] T. Botterill, S. Mills, A. Ltd, and C. St, “Bag-of-Words-driven Single Camera Simultaneous Localisation and Mapping,” p. 28.

[6] https://www.zhihu.com/question/49153462

[7] 高翔,张涛.视觉SLAM十四讲[M].电子工业出版社,2017:306-316.

[8] https://blog.csdn.net/lwx309025167/article/details/80524020


随机蕨法(Random ferns)

原理

这种重定位方法将相机的每一帧压缩编码,并且有效的对不同帧之间相似性进行评估。而压缩编码的方式采用随机蕨法。在这个基于关键帧的重定位方法中,采用基于fern的帧编码方式:输入一个RGB-D图片,在图像的随机位置评估简单的二进制测试,将整个帧进行编码,形成编码块,每个fern产生一小块编码,并且编码连接起来可以表达一个紧凑的相机帧。每一个编码块指向一个编码表的一行,和具有等效的编码、存储着关键帧id的fern关联起来,编码表以哈希表的形式存储。

当不断采集新的图片时,如果不相似性大于阈值,新进来的帧的id将会被添加到行中。在跟踪恢复的时候,从哈希表中检索姿态,将最相似的关键帧关联起来。一个新的帧和之前所有编码帧之间的不相似程度通过逐块汉明距离(BlockHD)来度量。

当返回值是0时,两个编码块是相似的。当返回值是1时,代表至少有一位不同。因此,BlockHD代表不同编码块的个数。块的长短不同,会直接影响到BlockHD在找相似帧时的精度/召回性质。判断一张图片是否满足足够的相似性需要设定一个最小BlockHD, 对于每一张新来的帧,计算

表示新的一个帧提供了多少有用的信息,如果新的一帧

值很低,代表该帧和之前的帧很相似,如果

值高,表示这个姿态是从一个新的视角拍摄的,理应被存为关键帧。通过这样的观测,可以试试捕获追踪帧,并且自动决定哪些应该被存为关键帧。通过值

和一个实现确定好的阈值

,可以决定新来的一帧是应该添加到哈希表中,还是被剔除。这种找到关键帧并检索位姿的方法可以有效的减少三维重建的时间,并且适用于目前开源的slam算法。

代码

Random Fern在VSLAM中的应用

kinect fusion

https://github.com/Nerei/kinfu_remake

elastic fusion

https://github.com/mp3guy/ElasticFusion

PTAM

PTAM中的重定位方法和random ferns很像。PTAM是在构建关键帧时将每一帧图像缩小并高斯模糊生成一个缩略图,作为整张图像的描述子。在进行图像检索时,通过这个缩略图来计算当前帧和关键帧的相似度。这种方法的主要缺点是当视角发生变化时,结果会发生较大的偏差,鲁棒性不如基于不变量特征的方法。

https://github.com/Oxford-PTAM/PTAM-GPL

文献资料

[1] B. Glocker, S. Izadi, J. Shotton, and A. Criminisi, “Real-time RGB-D camera relocalization,” in 2013 IEEE International Symposium on Mixed and Augmented Reality (ISMAR), Adelaide, Australia, 2013, pp. 173–179.

[2] B. Glocker, J. Shotton, A. Criminisi, and S. Izadi, “Real-Time RGB-D Camera Relocalization via Randomized Ferns for Keyframe Encoding,” IEEE Trans. Visual. Comput. Graphics, vol. 21, no. 5, pp. 571–583, May 2015.

[3] https://blog.csdn.net/fuxingyin/article/details/51436430


基于深度学习的方法

基于深度学习的图像检索方法是全局检索方法,需要大量的数据进行预训练,但对场景变化容忍度好。一些端到端的相机位姿估计方法取得了不错的成果。深度学习和视觉定位结合的开创性工作PoseNet就使用的是神经网络直接从图像中得到6自由度的相机位姿。相较于传统的视觉定位方法,省去了复杂的图像匹配过程,并且不需要对相机位姿进行迭代求解,但是输入图像必须在训练场景中。后来在此基础上,他们又在误差函数中使用了投影误差,进一步提高了位姿估计的精度。同样,MapNet使用了传统方法求解两张图象的相对位姿,与网络计算出来的相对位姿对比得到相机的相对位姿误差,将相对位姿误差添加到网络的损失函数中,使得求解出来的相机位姿更加平滑,MapNet还可以将连续多帧的结果进行位姿图优化,使得最终估计出的相机位姿更为准确。

有监督的方法

基本都是用周博磊的Places365

原理介绍:Places365是Places2数据库的最新子集。Places365有两个版本:Places365-StandardPlaces365-Challenge。Places365-Standard的列车集来自365个场景类别的约180万张图像,每个类别最多有5000张图像。我们已经在Places365-Standard上训练了各种基于CNN的网络,并将其发布如下。同时,一系列的Places365-Challenge列车还有620万张图片以及Places365-Standard的所有图片(总共约800万张图片),每个类别最多有40,000张图片。Places365-Challenge将与2016年的Places2挑战赛一起举行ILSVRC和COCO在ECCV 2016上的联合研讨会。

Places3-标准版和Places365-Challenge数据在Places2网站上发布。

Places365-Standard上经过预先培训的CNN模型:

  • AlexNet-places365

  • GoogLeNet-places365

  • VGG16-places365

  • VGG16-hybrid1365

  • ResNet152-places365

  • ResNet152-hybrid1365

源码地址:https://github.com/CSAILVision/places365

无监督的方法

CALC原理

在大型实时SLAM中采用无监督深度神经网络的方法检测回环可以提升检测效果。该方法创建了一个自动编码结构,可以有效的解决边界定位错误。对于一个位置进行拍摄,在不同时间时,由于视角变化、光照、气候、动态目标变化等因素,会导致定位不准。卷积神经网络可以有效地进行基于视觉的分类任务。在场景识别中,将CNN嵌入到系统可以有效的识别出相似图片。但是传统的基于CNN的方法有时会产生低特征提取,查询过慢,需要训练的数据过大等缺点。而CALC是一种轻量级地实时快速深度学习架构,它只需要很少的参数,可以用于SLAM回环检测或任何其他场所识别任务,即使对于资源有限地系统也可以很好地运行。

这个模型将高维的原始数据映射到有旋转不变性的低维的描述子空间。在训练之前,图片序列中的每一个图片进行随机投影变换,重新缩放成120×160产生图像对,为了捕捉运动过程中的视角的极端变化。然后随机选择一些图片计算HOG算子,采用固定长度的HOG描述子可以帮助网络更好地学习场景的几何。将训练图片的每一个块的HOG存储到堆栈里,定义为

维度为

,其中

是块大小,

是每一个HOG算子的维度。网络有两个带池化层的卷积层,一个纯卷积层,和三个全连接层,同时用ReLU做卷积层的激活单元。在该体系结构中,将图片进行投影变换,提取HOG描述子的操作仅针对整个训练数据集计算一次,然后将结果写入数据库以用于训练。在训练时,批量大小N设置为1,并且仅使用boxed区域中的层。

相关文献

[1] N. Merrill and G. Huang, “Lightweight Unsupervised Deep Loop Closure,” in Robotics: Science and Systems XIV, 2018.

代码

CALC

原理介绍:用于回环检测的卷积自动编码器。它该代码分为两个模块。TrainAndTest用于训练和测试模型,DeepLCD是一个用于在线回环检测或图像检索的C ++库。

源码地址:https://github.com/rpng/calc

(0)

相关推荐

  • VO视觉里程计

    VO视觉里程计

  • 给你看个宝贝:GitHub 最野的开源模型库!

    前阵子抖音爆火的应用蚂蚁呀嘿都笑过吧?这技术让一向严肃认真的giao哥都多了几分俏皮,这么秀的代码,必须狗一波.于是本狗啊不本人有了一个温暖(欠揍)的想法:想弄一个自家爹妈爷爷奶奶一起摇摆的鬼畜视频. ...

  • VSLAM系列原创08讲 | 如何离线训练BoW字典?终于搞懂了!

    代码注释地址: https://github.com/electech6/ORB_SLAM2_detailed_comments VSLAM系列原创01讲 | 深入理解ORB关键点提取:原理+代码 V ...

  • SC-A-LOAM:在A-LOAM中加入回环检测

    Thanks to LOAM, A-LOAM, and LIO-SAM code authors. The major codes in this repository are borrowed fr ...

  • 【论文解读】使用有监督和无监督的深度神经网络进行闭环检测

    重磅干货,第一时间送达 由上海交通大学发表于2020 Robotics and Autonomous Systems 这篇论文提出了新的回环检测方法,利用所提出的超级字典代替原有的词袋字典,同时通过深 ...

  • 10个“中文解释不清”的英文单词

    文/谢侃 很多汉语解释不清的英语单词,我们在对话中倾向于直接说英文了.原谅那些half-English half-Chinese的人吧,或许他们汉语不好,或许...这个英文单词真的没法用中文翻

  • 视觉词袋模型简介

    重磅干货,第一时间送达 01. 简介 视觉单词袋是一种描述计算图像之间相似度的技术.常用于用于图像分类当中.该方法起源于文本检索(信息检索),是对NLP"单词袋"算法的扩展.在&q ...

  • SA-LOAM:具有语义辅助的回环检测LOAM系统

    文章:SA-LOAM: Semantic-aided LiDAR SLAM with Loop Closure 作者:Lin Li1 , Xin Kong1 , Xiangrui Zhao1 , Wa ...

  • 自动驾驶中的行人检测方法设计

    作者 / Aimee 出品 / 焉知 知圈 / 进"汽车软件社群",请加微信13636581676,备注软件 自动驾驶系统的设计中,需要充分考虑到对于正常工况下进行的汽车控制及状态 ...

  • 速看,食醋中总酸检测方法!

    酸碱滴定法测定食醋中总酸含量 1.实验目的 掌握NaOH标准溶液的配置方法,以强碱滴定弱酸理论为指导,设计食醋中总酸含量的测定. 2.实验原理 HAc + NaOH = NaAc + H2O 3.实验 ...

  • 评论:在风情摇曳的故事中寻找曲折回环的心灵

    徐东的长篇小说<旧爱与回忆>与小说集<新生活>保持了风格一致和主题一致,同时又发挥了不同文体特点而构成形式特点叙事意味和故事情趣.<旧爱与回忆>描写田欢欢在过了青少 ...

  • 七言回环全回文 《雨水》春阳新...

    七言回环全回文 <雨水> 春阳新雨浴山青, 雨浴山青红桃林. 青红桃林花竞秀, 林花竞秀春阳新. 新阳春秀竞花林, 秀竞花林桃红青. 林桃红青山浴雨, 青山浴雨新阳春.

  • 快递包装袋检测全攻略 中瑞质检

    快递包装袋检测全攻略 中瑞质检 快递行业的快速发展让快递封装产品生产达到前所未有的数量.作为快递用品的供应商很有必要知道它有哪些相关检测的?这也更能保证快递封装用品的质量. 快递包装袋检测 快递包装袋 ...

  • 学中医,只要搞懂中土回环,很多病病难不住你

    [免责声明]图文来源于网络,如有侵权,请联系删除! 从上面的这张图中可以看到脾土左升,肝气和肾水都随着升,胃气右降,胆气和心火随着下降,这无形之中就形成了一个左边升,右边降的气机运动圆圈 在这个圆圈里 ...

  • 搞懂中土回环,很多病病不难

    这张图中可以看到脾土左升,肝气和肾水都随着升,胃气右降,胆气和心火随着下降,这无形之中就形成了一个左边升,右边降的气机运动圆圈 在这个圆圈里,脾胃一阴一阳,就是中心的轴,一切都是围绕着它们来转.这人体 ...