ConcurrentHashMap详解

article/2025/8/22 7:26:13

文章目录

  • 什么是ConcurrentHashMap
  • ConcurrentHashMap结构
    • 如何高效的执行并发操作
    • 如何进行锁的选择
    • Node节点类型与作用
    • 扩容的方式
  • 源码分析
    • putVal()方法
    • spread()方法,获取槽位。
    • initTable()方法,初始化容器
    • addCount() ,计算成员数量
      • transfer(),进行扩容
    • compute()

什么是ConcurrentHashMap

concurrentHashMap是一个支持高并发更新与查询的哈希表(基于HashMap)。
在保证安全的前提下,进行检索不需要锁定。与hashtable不同,该类不依赖于synchronization去保证线程操作的安全。

ConcurrentHashMap结构

根据上述,知道ConcurrentHashMap的目标,接下来就是看该目标需要解决哪些问题。
以put()方法为例:
● 计算出key的槽位
● 根据槽位类型进行操作(链表,红黑树)
● 根据槽位中成员数量进行数据转换,扩容等操作

回顾hashMap的数据结构:
在这里插入图片描述

如何高效的执行并发操作

根据上面hashMap的数据结构可以直观的看到,如果以整个容器为一个资源进行锁定,那么就变为了串行操作。而根据hash表的特性,具有冲突的操作只会出现在同一槽位,而与其它槽位的操作互不影响。
基于此种判断,那么就可以将资源锁粒度缩小到槽位上,这样热点一分散,冲突的概率就大大降低,并发性能就能得到很好的增强。
在这里插入图片描述

如何进行锁的选择

ConcurrentHashMap使用JUC包中通过直接操作内存中的对象,将比较与替换合并为一个原子操作的乐观锁形式(CAS)来进行简单的值替换操作,对于一些含有复杂逻辑的流程对Node节点对象使用synchronize进行同步。

Node节点类型与作用

回顾HashMap,其中Node节点类型包含两种,第一种链表,第二种红黑树。
而在ConcurrentHashMap中节点类型在上述两种的基础上扩展了,两种分别是ForwardingNode
和 ReservationNode。
ForwardingNode:用于解决当进行扩容的时候,进行查询的问题。
ReservationNode:用于解决当进行计算时,计算的对象为空的问题。

槽位hash值含义:
链表:大于0
ForwardingNode:-1
红黑树:-2
ReservationNode:-3
在这里插入图片描述

扩容的方式

基于hashMap的扩容方式,通过成员的最新bit位是1or0来决定是否将成员迁入新的槽位中。
显而易见,这种扩容方式对于槽位之间也是互不影响的,那么就可以进行并发的执行扩容以达到高效的目的。

在这里插入图片描述

节点为空则直接替换为Forwarding,后续操作就在新容器中开展。
如果节点不为空,则对节点处理完毕后变更为Forwarding。

在这里插入图片描述

    /*** Table initialization and resizing control.  When negative, the* table is being initialized or resized: -1 for initialization,* else -(1 + the number of active resizing threads).  Otherwise,* when table is null, holds the initial table size to use upon* creation, or 0 for default. After initialization, holds the* next element count value upon which to resize the table.*/private transient volatile int sizeCtl;

○ 负数
■ -1:容器进行初始化
■ 其余负数:高16存储resizeStamp()返回的扩容标识符,低16位(1+进行扩容的线程数)
○ 正数
■ 0:未初始化,需要进行初始化
■ 其余正数:当前容器的大小

源码分析

putVal()方法

final V putVal(K key, V value, boolean onlyIfAbsent) {if (key == null || value == null) throw new NullPointerException();//获取hash值int hash = spread(key.hashCode());int binCount = 0;for (Node<K,V>[] tab = table;;) {Node<K,V> f; int n, i, fh;//容器为空进行初始化流程if (tab == null || (n = tab.length) == 0)tab = initTable();//如果槽位中为空的    else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {//以cas方式进行替换,替换成功就中断循环,替换失败则进行下一次循环if (casTabAt(tab, i, null,new Node<K,V>(hash, key, value, null)))break;                   // no lock when adding to empty bin}//一种特殊的节点(forwarding 节点,迁移节点,只在迁移过程中存在)的处理方式else if ((fh = f.hash) == MOVED)//帮助进行扩容tab = helpTransfer(tab, f);//如果槽位不为空,并且不是(forwarding节点)    else {V oldVal = null;//将整个槽位锁住synchronized (f) {//double check,如果槽位里面的数据发生变更则重新走流程if (tabAt(tab, i) == f) {//如果是链表if (fh >= 0) {binCount = 1;for (Node<K,V> e = f;; ++binCount) {K ek;//如果存在成员则覆盖if (e.hash == hash &&((ek = e.key) == key ||(ek != null && key.equals(ek)))) {oldVal = e.val;if (!onlyIfAbsent)e.val = value;break;}//不存在成员则新增Node<K,V> pred = e;if ((e = e.next) == null) {pred.next = new Node<K,V>(hash, key,value, null);break;}}}//如果是红黑树else if (f instanceof TreeBin) {Node<K,V> p;binCount = 2;if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,value)) != null) {oldVal = p.val;if (!onlyIfAbsent)p.val = value;}}}}//如果一个槽位中的数量大于1(只有大于1的才会有binCount)if (binCount != 0) {//如果槽位中的成员数量大于等于8,则变更为if (binCount >= TREEIFY_THRESHOLD)//进行转换成红黑树处理treeifyBin(tab, i);if (oldVal != null)return oldVal;break;}}}addCount(1L, binCount);return null;}

spread()方法,获取槽位。

作用:用于获取槽位值

static final int spread(int h) {//h为key值得hash值,将高16位也参与运算,然后与int最大值进行&运算(效果为将值变为正数,其他位置不变)//HASH_BITS为int最大值,最高位为0//HashMap中没有处理为正数的步骤,这里负数有其它含义,查看节点类型return (h ^ (h >>> 16)) & HASH_BITS;}

initTable()方法,初始化容器

   private final Node<K,V>[] initTable() {Node<K,V>[] tab; int sc;while ((tab = table) == null || tab.length == 0) {//sizeCtl,代表着初始化资源或者扩容资源的锁,必须要获取到该锁才允许进行初始化或者扩容的操作if ((sc = sizeCtl) < 0)//放弃当前cpu的使用权,让出时间片,线程计入就绪状态参与竞争Thread.yield(); // lost initialization race; just spin//比较并尝试将sizeCtl替换成-1,如果失败则继续循环    else if (U.compareAndSwapInt(this, SIZECTL, sc, -1)) {try {//进行一次double check 防止在进入分支前,容器发生了变更if ((tab = table) == null || tab.length == 0) {int n = (sc > 0) ? sc : DEFAULT_CAPACITY;@SuppressWarnings("unchecked")//初始化容器Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n];table = tab = nt;sc = n - (n >>> 2);}} finally {sizeCtl = sc;}break;}}return tab;}

addCount() ,计算成员数量

问题:如果每一个线程的更新都去修改baseCount,当竞争比较小的时候问题不大,但是当非常频繁就会导致同一时候只有一个线程能更新成功,其它线程需要自旋等待机会,如果将baseCount拆成一个个cell也就是CounterCell[],每个线程绑定一个cell单元进行自身size的添加,那么就可以分散热点。
作用:和LongAdder思路一样,分散热点,提高性能,同时增加查询size时候的性能问题,只有当竞争强度上升才会启用

在这里插入图片描述

   private final void addCount(long x, int check) {CounterCell[] as; long b, s;//统计单元不为空or数量增加失败if ((as = counterCells) != null ||!U.compareAndSwapLong(this, BASECOUNT, b = baseCount, s = b + x)) {CounterCell a; long v; int m;boolean uncontended = true;if (as == null || (m = as.length - 1) < 0 ||(a = as[ThreadLocalRandom.getProbe() & m]) == null ||!(uncontended =U.compareAndSwapLong(a, CELLVALUE, v = a.value, v + x))) {//创建cells或者进行数量增加fullAddCount(x, uncontended);return;}if (check <= 1)return;s = sumCount();}//检查是否需要扩容if (check >= 0) {Node<K,V>[] tab, nt; int n, sc;while (s >= (long)(sc = sizeCtl) && (tab = table) != null &&(n = tab.length) < MAXIMUM_CAPACITY) {int rs = resizeStamp(n);if (sc < 0) {if ((sc >>> RESIZE_STAMP_SHIFT) != rs || sc == rs + 1 ||sc == rs + MAX_RESIZERS || (nt = nextTable) == null ||transferIndex <= 0)break;if (U.compareAndSwapInt(this, SIZECTL, sc, sc + 1))transfer(tab, nt);}else if (U.compareAndSwapInt(this, SIZECTL, sc,(rs << RESIZE_STAMP_SHIFT) + 2))transfer(tab, null);s = sumCount();}}}

transfer(),进行扩容

    private final void transfer(Node<K,V>[] tab, Node<K,V>[] nextTab) {int n = tab.length, stride;//【第一步】//决定当前线程在需要处理的槽位充足下,分配到的槽位数if ((stride = (NCPU > 1) ? (n >>> 3) / NCPU : n) < MIN_TRANSFER_STRIDE)stride = MIN_TRANSFER_STRIDE; // subdivide range//新容器为空则创建容器    if (nextTab == null) {            // initiatingtry {//多出一个赋值操作,尝试处理内存溢出?不明白原理@SuppressWarnings("unchecked")Node<K,V>[] nt = (Node<K,V>[])new Node<?,?>[n << 1];nextTab = nt;} catch (Throwable ex) {      // try to cope with OOMEsizeCtl = Integer.MAX_VALUE;return;}nextTable = nextTab;//转移索引数设置为当前容器容量transferIndex = n;}//将下个容器的转移搜索引数设置为新容器容量int nextn = nextTab.length;//创建ForwardingNode容器并放入新容器ForwardingNode<K,V> fwd = new ForwardingNode<K,V>(nextTab);boolean advance = true;boolean finishing = false; // to ensure sweep before committing nextTabfor (int i = 0, bound = 0;;) {Node<K,V> f; int fh;//【第二步,划分槽位,帮助推进】//选择当前线程进行transfer的槽位,从最后一个槽位向前while (advance) {int nextIndex, nextBound;//向前推进一个槽位,或者已经完成了if (--i >= bound || finishing)advance = false;//槽位被其它线程选择完了    else if ((nextIndex = transferIndex) <= 0) {i = -1;advance = false;}//尝试获取槽位的操作权else if (U.compareAndSwapInt(this, TRANSFERINDEX, nextIndex,nextBound = (nextIndex > stride ?nextIndex - stride : 0))) {//槽位下限                   bound = nextBound;//当前选中进行处理的槽位i = nextIndex - 1;advance = false;}}//被选择完毕,选中槽位大于当前容器容量,选中槽位+当前容器容量大于新容器容量//【第三步,设置结束条件,变更地址】if (i < 0 || i >= n || i + n >= nextn) {int sc;//扩容完毕if (finishing) {//清除扩容时创建的临时表nextTable = null;//将当前表指向临时表table = nextTab;//设置下次扩容的临界点为 0.75*扩容容量sizeCtl = (n << 1) - (n >>> 1);return;}//将扩容标识中的线程标识减一if (U.compareAndSwapInt(this, SIZECTL, sc = sizeCtl, sc - 1)) {//存在其它线程进行扩容处理,则当前线程处理完自己的槽位后直接退出if ((sc - 2) != resizeStamp(n) << RESIZE_STAMP_SHIFT)return;//不存在其它线程处理,说明自己是唯一处理线程   finishing = advance = true;//将i重置,在看下还有没有transferIndex//如果已经是唯一处理线程并且满足前置条件,为何需要检查下?i = n; // recheck before commit}}//【第四步,处理槽位】//如果当前槽中没有成员,用forwarding节点占位else if ((f = tabAt(tab, i)) == null)advance = casTabAt(tab, i, null, fwd);//如果当前槽中成员为forwarding节点,代表已经被处理过了    else if ((fh = f.hash) == MOVED)//处理下一个槽advance = true; // already processedelse {//锁住槽位synchronized (f) {//double checkif (tabAt(tab, i) == f) {Node<K,V> ln, hn;if (fh >= 0) {//计算当前成员最高位//runBit是0 or 1int runBit = fh & n;Node<K,V> lastRun = f;for (Node<K,V> p = f.next; p != null; p = p.next) {int b = p.hash & n;//查找最后重复的链,获得开始位置p,和重复的高位值runBitif (b != runBit) {runBit = b;lastRun = p;}}//如果从p开始后面高位全是0,那么就不需要移动到新槽中if (runBit == 0) {ln = lastRun;hn = null;}//如果从p开始后面全是1,那么就需要移动到新槽中else {hn = lastRun;ln = null;}//从链的头部一直遍历到p的位置(因为p以后高位都一样)//为何需要提前找一部分重复?效率更高?这么处理是否有理论依据?for (Node<K,V> p = f; p != lastRun; p = p.next) {int ph = p.hash; K pk = p.key; V pv = p.val;//高位为0放到旧槽位中if ((ph & n) == 0)ln = new Node<K,V>(ph, pk, pv, ln);//高位为1放到新槽位中elsehn = new Node<K,V>(ph, pk, pv, hn);}//将ln放到新容器的旧槽位中setTabAt(nextTab, i, ln);//将hn放到新容器的新槽位中setTabAt(nextTab, i + n, hn);//将老容器中的该节点设置为forwarding节点setTabAt(tab, i, fwd);//处理下一个槽位advance = true;}//TreeBin的hash固定为-2,红黑树的调整else if (f instanceof TreeBin) {TreeBin<K,V> t = (TreeBin<K,V>)f;TreeNode<K,V> lo = null, loTail = null;TreeNode<K,V> hi = null, hiTail = null;int lc = 0, hc = 0;for (Node<K,V> e = t.first; e != null; e = e.next) {int h = e.hash;TreeNode<K,V> p = new TreeNode<K,V>(h, e.key, e.val, null, null);if ((h & n) == 0) {if ((p.prev = loTail) == null)lo = p;elseloTail.next = p;loTail = p;++lc;}else {if ((p.prev = hiTail) == null)hi = p;elsehiTail.next = p;hiTail = p;++hc;}}//槽位里成员少于等于6,退化为链表ln = (lc <= UNTREEIFY_THRESHOLD) ? untreeify(lo) :(hc != 0) ? new TreeBin<K,V>(lo) : t;hn = (hc <= UNTREEIFY_THRESHOLD) ? untreeify(hi) :(lc != 0) ? new TreeBin<K,V>(hi) : t;setTabAt(nextTab, i, ln);setTabAt(nextTab, i + n, hn);setTabAt(tab, i, fwd);advance = true;}}}}}}

将容器中的槽位分成多份,由后往前分割槽位,线程处理自己获取到的分段槽位(分段槽位内部连续,分段槽位间不出现交集,避免竞争提高性能),根据槽位中成员扩容的最高位是0是1选择新旧槽位进行分配到新容器中,0保持旧槽位,1移动到新槽位,由处理最后一段的线程将旧容器替换为新容器

  1. 处理好新容器,确定每段的槽位数是多少
    stride【分段槽位的大小】
    nextTab【临时扩容容器】
    tab【临时当前容器】
  2. 尝试获取到分段槽位,槽为从后向前进行分配
    bound【槽位下限】
    nextIndex【槽位上限】
    i【当前处理槽位】
  3. 处理槽位,如果槽位为空放入forwarding节点,不为空则根据成员最高位判断是否分配到新槽位or旧槽位,如果是红黑树判断分配完后槽位中的成员少于等于6则退化位链表
    ln【旧槽位】
    hn【新槽位】
  4. 槽位分段处理完毕,如果是最后一个线程,那么需要将新容器地址覆盖旧容器,旧容器直接丢弃,状态重置为正标识下次触发扩容的阈值
    table【当前容器】
    nextTable【扩容容器】
    sizeCtl【状态值】

compute()

    public V compute(K key,BiFunction<? super K, ? super V, ? extends V> remappingFunction) {if (key == null || remappingFunction == null)throw new NullPointerException();//获取到对应的槽位int h = spread(key.hashCode());V val = null;int delta = 0;int binCount = 0;for (Node<K,V>[] tab = table;;) {Node<K,V> f; int n, i, fh;//初始化容器if (tab == null || (n = tab.length) == 0)tab = initTable();//槽位无成员else if ((f = tabAt(tab, i = (n - 1) & h)) == null) {//定义新节点Node<K,V> r = new ReservationNode<K,V>();//提前加锁,避免后续cas成功后其它线程获取到synchronized (r) {//尝试将槽位替换为ReservationNode节点,解决槽位为null无法进行锁定问题if (casTabAt(tab, i, null, r)) {binCount = 1;Node<K,V> node = null;try {//进行计算if ((val = remappingFunction.apply(key, null)) != null) {delta = 1;node = new Node<K,V>(h, key, val, null);}} finally {//设置node节点替换ReservationNode节点setTabAt(tab, i, node);}}}if (binCount != 0)break;}//槽位节点为forwardingelse if ((fh = f.hash) == MOVED)tab = helpTransfer(tab, f);//存在成员    else {synchronized (f) {if (tabAt(tab, i) == f) {//成员为链表if (fh >= 0) {binCount = 1;for (Node<K,V> e = f, pred = null;; ++binCount) {K ek;//找到成员if (e.hash == h &&((ek = e.key) == key ||(ek != null && key.equals(ek)))) {//进行计算val = remappingFunction.apply(key, e.val);if (val != null)e.val = val;else {delta = -1;Node<K,V> en = e.next;if (pred != null)pred.next = en;elsesetTabAt(tab, i, en);}break;}pred = e;if ((e = e.next) == null) {val = remappingFunction.apply(key, null);if (val != null) {delta = 1;pred.next =new Node<K,V>(h, key, val, null);}break;}}}//成员为红黑树else if (f instanceof TreeBin) {binCount = 1;TreeBin<K,V> t = (TreeBin<K,V>)f;TreeNode<K,V> r, p;if ((r = t.root) != null)p = r.findTreeNode(h, key, null);elsep = null;V pv = (p == null) ? null : p.val;val = remappingFunction.apply(key, pv);if (val != null) {if (p != null)p.val = val;else {delta = 1;t.putTreeVal(h, key, val);}}else if (p != null) {delta = -1;if (t.removeTreeNode(p))setTabAt(tab, i, untreeify(t.first));}}}}//根据链表成员数量,判断是否需要转为红黑树if (binCount != 0) {if (binCount >= TREEIFY_THRESHOLD)treeifyBin(tab, i);break;}}}if (delta != 0)addCount((long)delta, binCount);return val;}

同学们也可以看看我另一篇源码分析哦。(* ̄︶ ̄)

ThreadPoolExecutor源码详解


http://chatgpt.dhexx.cn/article/mxxW8kaK.shtml

相关文章

Hudi(四)集成Flink(2)

6、读取方式 6.1、流读&#xff08;Streaming Query&#xff09; 当前表默认是快照读取&#xff0c;即读取最新的全量快照数据并一次性返回。通过参数 read.streaming.enabled 参数开启流读模式&#xff0c;通过 read.start-commit 参数指定起始消费位置&#xff0c;支持指定 …

Spring Boot锦集(三):Spring Boot整合Kafka | Zookeeper/Kafka的安装和配置 | 总结的很详细

前言 在学习本章节前&#xff0c;务必做好以下准备工作&#xff1a; 1、安装并启动了Zookeeper[官网]&#xff0c;如需帮助&#xff0c;点击进入&#xff1b; 2、安装并启动了Kafka[官网]&#xff0c;如需帮助&#xff0c;点击进入。 注&#xff1a;zk和kafka的安装与介绍&…

Flink系列之:Flink CDC深入了解MySQL CDC连接器

Flink系列之&#xff1a;Flink CDC深入了解MySQL CDC连接器 一、增量快照特性1.增量快照读取2.并发读取3.全量阶段支持 checkpoint4.无锁算法5.MySQL高可用性支持 二、增量快照读取的工作原理三、全量阶段分片算法四、Chunk 读取算法五、Exactly-Once 处理六、MySQL心跳事件支持…

大数据面试重点之kafka(三)

Kafka如何保证全局有序&#xff1f; 可回答&#xff1a;1&#xff09;Kafka消费者怎么保证有序性&#xff1f;2&#xff09;Kafka生产者写入数据怎么保证有序&#xff1f;3&#xff09;Kafka可以保证 数据的局部有序&#xff0c;如何保证数据的全局有序&#xff1f;4&#xff0…

Apache Kafka-auto.offset.reset参数(earliest、latest、none)含义说明

文章目录 官方说明参数解读CodePOM依赖配置文件生产者消费者单元测试测试earliestlatest(默认&#xff09;noneexception 源码地址 官方说明 https://kafka.apache.org/documentation/ 选择对应的版本&#xff0c;我这里选的是 2.4.X https://kafka.apache.org/24/documenta…

Kafka之auto.offset.reset值解析

今日在使用kafka时&#xff0c;发现将 auto.offset.reset 设置为earliest、latest、none 都没有达到自己预期的效果。 earliest&#xff1a; 当各分区下有已提交的offset时&#xff0c;从提交的offset开始消费&#xff1b;无提交的offset时&#xff0c;从头开始消费latest&…

关于EarlyZ

在前向渲染中&#xff0c;ZTest是在Fragement Shader之后进行的&#xff0c;也就是说&#xff0c;被遮挡的部分也要绘制FS&#xff0c;就产生了Over Draw&#xff0c;其实很费&#xff0c;Early Z Culling就解决了这个问题 Early fragment tests, as an optimization, exist t…

【EARLIER/EARLIEST函数】引用不存在的更早的行上下文 报错解决

引用PowerQuery的例子并给予个人理解 X1 SUMX(FILTER(Data,Data[订单日期]>EARLIER(Data[订单日期])),[金额])---WRONG X2CALCULATE(SUM(Data[金额]),FILTER(Data,SUMX(FILTER(Data,Data[订单日期]>EARLIER(Data[订单日期])),[金额])))---RIGHT X1报错原因&#xff1a…

EarlyStop

在训练中&#xff0c;我们希望在中间箭头的位置停止训练。而Early stopping就可以实现该功能&#xff0c;这时获得的模型泛化能力较强&#xff0c;还可以得到一个中等大小的w的弗罗贝尼乌斯范数。其与L2正则化相似&#xff0c;选择参数w范数较小的神经网络。 可以用L2正则化代…

Kafka 使用java api从指定位移消费 (从开头消费/从结尾消费)

一、auto.offset.reset值详解 在 Kafka 中&#xff0c;每当消费者组内的消费者查找不到所记录的消费位移或发生位移越界时&#xff0c;就会根据消费者客户端参数 auto.offset.reset 的配置来决定从何处开始进行消费&#xff0c;这个参数的默认值为 “latest” 。 auto.offset…

动态SQL之 where 标签

动态SQL之 where 标签 where和if一般结合使用&#xff1a; 1.若where标签中的 if 条件都不满足&#xff0c;则where标签没有任何功能&#xff0c;即不会添加where关键字 2.若where标签中的 if 条件满足&#xff0c;则where标签会自动添加where关键字&#xff0c;并将条件最前…

mybatis-动态sql

文章目录 1. 动态sql简述2. 动态sql示例 2.1 if2.2 choose2.3 foreach2.4 sql 及 include2.5 sql中的特殊字符3. 后台分页实现4. 数据版本号处理并发问题 1. 动态sql简述 mybatis的动态sql语句是基于OGNL表达式的。可以方便的在sql语句中实现某些逻辑. 总体说来mybatis动态SQL…

mysql动态sql拼接_动态SQL(拼接)

Q1:什么是动态SQL呢? A1:首先是SQL语句,是根据条件来拼接SQL Q2:为什么要用动态SQL? A2:因为在条件WHERE中出现OR会导致不能使用索引,从而使效率差别巨大。 例如:如图1、2, 图(1) 图(2) Q3:怎么样使用动态SQL? A3: 存储过程Proc_Test是没有采用拼接的:CREATE PROC…

Mybatis学习之动态Sql

目录 1. 什么是动态Sql 2. 动态Sql需要学习什么 3. 动态Sql之《if》 4. 动态Sql之《where》 5. 动态Sql之《foreach》 6. 动态Sql之《sql》 7. PageHelper分页插件的使用 1. 什么是动态Sql 答案&#xff1a;动态Sql指的是&#xff0c;Sql语句是变化的&#xff0c;不是固…

Mybatis 动态SQL

Mybatis 动态SQL 一 .动态SQL 数组 array 使用foreach 标签 <!-- mybatis的集合操作知识点: 如果遇到集合参数传递,需要将集合遍历标签: foreach 循环遍历集合标签属性说明:1.collection 表示遍历的集合类型1.1 数组 关键字 array1.2 List集合 关键字 list1.3 Map集…

Mybatis动态SQL解析

文章目录 1 为什么需要动态SQL&#xff1f;2 动态标签有哪些?3 举例说明ifchoose (when, otherwise)trim (where, set)foreach 1 为什么需要动态SQL&#xff1f; 看一段Oracle存储过程代码&#xff1a; 由于前台传入的查询参数不同&#xff0c;所以写了很多的if else&#x…

Java MyBatis动态SQL

&#x1f9ed;MyBatis学习 &#x1f389; 内容回顾 Java MyBatis的介绍及其执行原理 Java MyBatis配置详解 Java Mybatis中使用Junit进行测试_程序员必备 Java MyBatis的使用 &#x1f4e2;今天我们进行 Java MyBatis动态SQL 的学习&#xff0c;感谢你的阅读&#xff0c;内容若…

mysql动态SQL用法

顾名思义“动态”SQL就是不固定的SQL&#xff0c;根据不同的条件把SQL语句进行拼接&#xff0c;来实现对数据库更加精准的操作。可以通过配置文件或者注解的形式实现&#xff0c;多用于多条件联查。 xml版&#xff08;配置文件&#xff09;&#xff1a; xml版的动态SQL 接…

动态SQL标签

所谓的动态SQL&#xff0c;本职还是SQL语句&#xff0c;只是可以在SQL层面&#xff0c;去执行一个逻辑代码 动态SQL就是在拼接SQL语句&#xff0c;我们只要保证SQL的正确性&#xff0c;按照SQL的格式&#xff0c;去排列组合。 建议&#xff1a; 先在MySQL中写出完整的SQL&am…

MyBatis动态SQL

文章目录 前言一、\<if\>标签二、\<where\>标签三、\<trim\>标签四、\<set\>标签五、\<foreach\>标签五、\<sql\>标签 与 \<include\>标签 前言 动态sql是Mybatis的强大功能特性之一&#xff0c;能够完成不同条件下的sql拼接 以上…