Jtoss Jtoss
首页
  • 数据结构与算法

    • 数据结构与算法 - 概述
    • 数据结构与算法 - 复杂度分析
    • 数据结构 - 线性表
    • 算法 - 常见排序算法
  • 代码规范

    • 代码简洁之道
    • 阿里巴巴开发手册
    • 谷歌Java编程风格指南
  • 设计模式

    • 编写高质量代码概述
    • 面向对象
    • 设计原则
    • 设计模式-创建型
    • 设计模式-结构型
    • 设计模式-行为型(上)
    • 设计模式-行为型(下)
    • 浅析框架源码中的设计模式
    • 业务框架实战案例
  • MySQL 基础

    • MySQL - 数据库设计规范
    • MySQL - 必知必会
  • MySQL 进阶

    • MySQL - 基础架构
    • MySQL - InnoDB存储引擎
    • MySQL - InnoDB缓冲池
    • MySQL - 事务与锁
    • MySQL - 索引
    • MySQL - 查询执行计划
    • MySQL - 性能优化
  • Redis 系列

    • Redis入门 - 基础相关
    • Redis进阶 - 数据结构
    • Redis进阶 - 持久化RDB和AOF
    • Redis进阶 - 事件机制
    • Redis进阶 - 事务
    • Redis进阶 - 高可用高可扩展
    • Redis进阶 - 缓存问题
    • Redis进阶 - 性能调优
  • Java 基础

    • Java 基础 - 知识点
    • Java 基础 - 面向对象
    • Java 基础 - Q/A
  • Java 进阶 - 集合框架

    • Java 集合框架详解
  • Java 进阶 - 多线程与并发

    • Java 并发 - 理论基础
    • Java 并发 - 线程基础
    • Java 并发 - 各种锁
    • Java 并发 - 关键字 volatile
    • Java 并发 - 关键字 synchronized
    • JUC - CAS与原子操作
    • JUC - 锁核心类AQS
    • JUC - 锁接口和类简介
    • JUC - 并发容器简介
    • JUC - 通信工具类
    • JUC - Fork-Join框架
    • JUC - 线程池
  • Java 进阶 - JVM

    • JVM - 概述
    • JVM - 类加载机制
    • JVM - 内存结构
    • JVM - 垃圾回收机制
    • JVM - 性能调优
  • Maven系列

    • Maven基础知识
    • Maven项目构建
    • Maven多模块配置
  • Spring 框架

    • Spring 框架 - 框架介绍
    • Spring 框架 - IOC详解
    • Spring 框架 - AOP详解
    • Spring 框架 - SpringMVC详解
  • Spring Boot 系列

    • Spring Boot - 开发入门
    • Spring Boot - 接口相关
  • Spring Cloud 系列
  • Mybatis 系列

    • Mybatis - 总体框架设计
    • Mybatis - 初始化基本过程
    • Mybatis - sqlSession执行过程
    • Mybatis - 插件机制
    • Mybatis - 事务管理机制
    • Mybatis - 缓存机制
  • 业务常见问题

    • Java 业务开发常见错误(一)
    • Java 业务开发常见错误(二)
    • Java 业务开发常见错误(三)
    • Java 业务开发常见错误(四)
    • Java 业务开发常见错误(五)
    • Java 业务开发常见错误(六)
  • IDEA系列

    • IDEA 2021开发环境配置
    • IDEA 快捷键
  • Git系列

    • git status中文乱码
  • 其他

    • Typora+Picgo 自动上传图片
    • hsdis 和 jitwatch
  • 实用技巧
  • 收藏
  • 摄影
  • 学习
  • 标签
  • 归档

Jason Huang

后端程序猿
首页
  • 数据结构与算法

    • 数据结构与算法 - 概述
    • 数据结构与算法 - 复杂度分析
    • 数据结构 - 线性表
    • 算法 - 常见排序算法
  • 代码规范

    • 代码简洁之道
    • 阿里巴巴开发手册
    • 谷歌Java编程风格指南
  • 设计模式

    • 编写高质量代码概述
    • 面向对象
    • 设计原则
    • 设计模式-创建型
    • 设计模式-结构型
    • 设计模式-行为型(上)
    • 设计模式-行为型(下)
    • 浅析框架源码中的设计模式
    • 业务框架实战案例
  • MySQL 基础

    • MySQL - 数据库设计规范
    • MySQL - 必知必会
  • MySQL 进阶

    • MySQL - 基础架构
    • MySQL - InnoDB存储引擎
    • MySQL - InnoDB缓冲池
    • MySQL - 事务与锁
    • MySQL - 索引
    • MySQL - 查询执行计划
    • MySQL - 性能优化
  • Redis 系列

    • Redis入门 - 基础相关
    • Redis进阶 - 数据结构
    • Redis进阶 - 持久化RDB和AOF
    • Redis进阶 - 事件机制
    • Redis进阶 - 事务
    • Redis进阶 - 高可用高可扩展
    • Redis进阶 - 缓存问题
    • Redis进阶 - 性能调优
  • Java 基础

    • Java 基础 - 知识点
    • Java 基础 - 面向对象
    • Java 基础 - Q/A
  • Java 进阶 - 集合框架

    • Java 集合框架详解
  • Java 进阶 - 多线程与并发

    • Java 并发 - 理论基础
    • Java 并发 - 线程基础
    • Java 并发 - 各种锁
    • Java 并发 - 关键字 volatile
    • Java 并发 - 关键字 synchronized
    • JUC - CAS与原子操作
    • JUC - 锁核心类AQS
    • JUC - 锁接口和类简介
    • JUC - 并发容器简介
    • JUC - 通信工具类
    • JUC - Fork-Join框架
    • JUC - 线程池
  • Java 进阶 - JVM

    • JVM - 概述
    • JVM - 类加载机制
    • JVM - 内存结构
    • JVM - 垃圾回收机制
    • JVM - 性能调优
  • Maven系列

    • Maven基础知识
    • Maven项目构建
    • Maven多模块配置
  • Spring 框架

    • Spring 框架 - 框架介绍
    • Spring 框架 - IOC详解
    • Spring 框架 - AOP详解
    • Spring 框架 - SpringMVC详解
  • Spring Boot 系列

    • Spring Boot - 开发入门
    • Spring Boot - 接口相关
  • Spring Cloud 系列
  • Mybatis 系列

    • Mybatis - 总体框架设计
    • Mybatis - 初始化基本过程
    • Mybatis - sqlSession执行过程
    • Mybatis - 插件机制
    • Mybatis - 事务管理机制
    • Mybatis - 缓存机制
  • 业务常见问题

    • Java 业务开发常见错误(一)
    • Java 业务开发常见错误(二)
    • Java 业务开发常见错误(三)
    • Java 业务开发常见错误(四)
    • Java 业务开发常见错误(五)
    • Java 业务开发常见错误(六)
  • IDEA系列

    • IDEA 2021开发环境配置
    • IDEA 快捷键
  • Git系列

    • git status中文乱码
  • 其他

    • Typora+Picgo 自动上传图片
    • hsdis 和 jitwatch
  • 实用技巧
  • 收藏
  • 摄影
  • 学习
  • 标签
  • 归档
  • Java 基础

  • Java 进阶 - 集合框架

    • Collections 框架概览
    • Collection - ArrayList & Vector 源码详解
    • Collection - CopyOnWriteArrayList 源码解析
    • Collection - LinkedList 源码详解
    • Collection - ArrayDeque 源码解析
    • Collection - PriorityQueue 源码解析
    • Map - HashMap & HashSet 源码解析
      • Java 7 HashMap
        • 概述
        • 方法剖析
        • get()
        • put()
        • remove()
      • Java 8 HashMap
        • 方法剖析
        • 重要常量
        • hash()
        • get()
        • put()
        • remove()
        • resize()
        • 链表转红黑树
        • resize时红黑树的split拆分
        • Fail-Fast
        • 为什么HashMap是非线程安全的
      • 两者异同点
        • 共同点
        • 不同点
      • HashSet
      • 参考
    • Map - LinkedHashMap & LinkedHashSet 源码解析
    • Map - TreeSet & TreeMap 源码解析
    • Map - WeekHashMap 源码解析
  • Java 进阶 - 多线程与并发

  • Java 进阶 - JVM

  • Java 进阶 - 版本特性

  • Java
  • Java 进阶 - 集合框架
Jason
目录

Map - HashMap & HashSet 源码解析

# Map - HashMap & HashSet 源码解析

# Java 7 HashMap

# 概述

之所以把 HashSet 和 HashMap 放在一起讲解,是因为二者在 Java 里有着相同的实现,前者仅仅是对后者做了一层包装,也就是说HashSet里面有一个HashMap(适配器模式)。因此本文将重点分析 HashMap。

HashMap 实现了 Map 接口,允许放入null元素,除该类未实现同步外,其余跟Hashtable大致相同,跟 TreeMap 不同,该容器不保证元素顺序,根据需要该容器可能会对元素重新哈希,元素的顺序也会被重新打散,因此不同时间迭代同一个 HashMap 的顺序可能会不同。 根据对冲突的处理方式不同,哈希表有两种实现方式,一种开放地址方式(Open addressing),另一种是冲突链表方式(Separate chaining with linked lists)。Java HashMap 采用的是冲突链表方式。

HashMap_base

从上图容易看出,如果选择合适的哈希函数,put()和get()方法可以在常数时间内完成。但在对 HashMap 进行迭代时,需要遍历整个 table 以及后面跟的冲突链表。因此对于迭代比较频繁的场景,不宜将 HashMap 的初始大小设的过大。

有两个参数可以影响 HashMap 的性能:初始容量(inital capacity)和负载系数(load factor)。初始容量指定了初始table的大小,负载系数用来指定自动扩容的临界值。当entry的数量超过capacity*load_factor时,容器将自动扩容并重新哈希。对于插入元素较多的场景,将初始容量设大可以减少重新哈希的次数。

将对象放入到HashMap或HashSet中时,有两个方法需要特别关心:hashCode()和equals()。hashCode()方法决定了对象会被放到哪个bucket里,当多个对象的哈希值冲突时,equals()方法决定了这些对象是否是“同一个对象”。所以,如果要将自定义的对象放入到HashMap或HashSet中,需要 @Override hashCode()和equals()方法。

# 方法剖析

# get()

get(Object key)方法根据指定的key值返回对应的value,该方法调用了getEntry(Object key)得到相应的entry,然后返回entry.getValue()。因此getEntry()是算法的核心。 算法思想是首先通过hash()函数得到对应bucket的下标,然后依次遍历冲突链表,通过key.equals(k)方法来判断是否是要找的那个entry。

HashMap_getEntry

上图中hash(k)&(table.length-1)等价于hash(k)%table.length,原因是 HashMap 要求table.length必须是 2 的指数,因此table.length-1就是二进制低位全是 1,跟hash(k)相与会将哈希值的高位全抹掉,剩下的就是余数了。

//getEntry()方法
final Entry<K,V> getEntry(Object key) {
	......
	int hash = (key == null) ? 0 : hash(key);
    for (Entry<K,V> e = table[hash&(table.length-1)];//得到冲突链表
         e != null; e = e.next) {//依次遍历冲突链表中的每个entry
        Object k;
        //依据equals()方法判断是否相等
        if (e.hash == hash &&
            ((k = e.key) == key || (key != null && key.equals(k))))
            return e;
    }
    return null;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14

# put()

put(K key, V value)方法是将指定的key, value对添加到map里。该方法首先会对map做一次查找,看是否包含该元组,如果已经包含则直接返回,查找过程类似于getEntry()方法;如果没有找到,则会通过addEntry(int hash, K key, V value, int bucketIndex)方法插入新的entry,插入方式为头插法。

HashMap_addEntry

//addEntry()
void addEntry(int hash, K key, V value, int bucketIndex) {
    if ((size >= threshold) && (null != table[bucketIndex])) {
        resize(2 * table.length);//自动扩容,并重新哈希
        hash = (null != key) ? hash(key) : 0;
        bucketIndex = hash & (table.length-1);//hash%table.length
    }
    //在冲突链表头部插入新的entry
    Entry<K,V> e = table[bucketIndex];
    table[bucketIndex] = new Entry<>(hash, key, value, e);
    size++;
}
1
2
3
4
5
6
7
8
9
10
11
12

# remove()

remove(Object key)的作用是删除key值对应的entry,该方法的具体逻辑是在removeEntryForKey(Object key)里实现的。removeEntryForKey()方法会首先找到key值对应的entry,然后删除该entry(修改链表的相应指针)。查找过程跟getEntry()过程类似。

HashMap_removeEntryForKey

//removeEntryForKey()
final Entry<K,V> removeEntryForKey(Object key) {
	......
	int hash = (key == null) ? 0 : hash(key);
    int i = indexFor(hash, table.length);//hash&(table.length-1)
    Entry<K,V> prev = table[i];//得到冲突链表
    Entry<K,V> e = prev;
    while (e != null) {//遍历冲突链表
        Entry<K,V> next = e.next;
        Object k;
        if (e.hash == hash &&
            ((k = e.key) == key || (key != null && key.equals(k)))) {//找到要删除的entry
            modCount++; size--;
            if (prev == e) table[i] = next;//删除的是冲突链表的第一个entry
            else prev.next = next;
            return e;
        }
        prev = e; e = next;
    }
    return e;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

# Java 8 HashMap

在 JDK7 中 HashMap,当成百上千个节点在 hash 时发生碰撞,存储一个链表中,那么如果要查找其中一个节点,那就不可避免的花费O(N) 的查找时间,这将是多么大的性能损失,这个问题终于在 JDK8 中得到了解决。

JDK8 中,HashMap 采用的是位桶+链表/红黑树的方式,当链表的存储的数据个数大于等于 8 的时候,不再采用链表存储,而采用了红黑树存储结构。这是 JDK7 与 JDK8 中 HashMap 实现的最大区别。 这么做主要是在查询的时间复杂度上进行优化,链表为O(n),而红黑树一直是O(logn),冲突(即为相同的hash值存储的元素个数) 超过 8 个,可以大大的提高查找性能。如下图所示

java-collection-hashmap8

注意,上图是示意图,主要是描述结构,不会达到这个状态的,因为这么多数据的时候早就扩容了。

Java7 中使用 Entry 来代表每个 HashMap 中的数据节点,Java8 中使用 Node,基本没有区别,都是 key,value,hash 和 next 这四个属性,不过,Node 只能用于链表的情况,红黑树的情况需要使用 TreeNode。

我们根据数组元素中,第一个节点数据类型是 Node 还是 TreeNode 来判断该位置下是链表还是红黑树的。

# 方法剖析

# 重要常量

DEFAULT_INITIAL_CAPACITY = 1 << 4
// HashMap默认的初始容量(16)
 
MAXIMUM_CAPACITY = 1 <<30
// HashMap能存的最大元素数量
 
DEFAULT_LOAD_FACTOR = 0.75
// 负载因子,默认为0.75,当map中的元素个数达到容量的75%时会触发扩容
 
TREEIFY_THRESHOLD = 8
// 当hash碰撞之后写入链表(拉链法),当链表的长度达到该阈值时,则可能会转化为红黑树
// 注意链表转换为红黑树,还与MIN_TREEIFY_CAPACITY有关
 
UNTREEIFY_THRESHOLD = 6
// 当红黑树的元素个数小于该值时,转换为链表形式
 
MIN_TREEIFY_CAPACITY = 64
// 当链表的长度超过了阈值(TREEIFY_THRESHOLD),且map的容量不小于64,链表将会转换为红黑树
// 这里的64,是指的map的容量(hash桶的数量),也就是说,当容量少于64时,即使超过树化阈值,也不会树化

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20

# hash()

元素应该放到table的哪个位置,是通过计算key的hash值,然后与map容量进行“与”操作得到,如下:

/**
 * 计算key的hash值:
 * 1.如果key为null,则hash值为0;
 * 2.如果可以不为null,否则就是将key的hashCode的和高16位进行异或计算(异或:相同为0,不同为1)
 */
static final int hash(Object key) {
    int h;
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}
1
2
3
4
5
6
7
8
9

确定数组的下标:

// 下面是伪代码
index = (capacity-1) & hash(key);
table[index] = newNode;
1
2
3

# get()

  • 计算 key 的 hash 值,根据 hash 值找到对应数组下标: hash & (length-1)
  • 判断数组该位置处的元素是否刚好就是我们要找的,如果不是,走第三步
  • 判断该元素类型是否是 TreeNode,如果是,用红黑树的方法取数据,如果不是,走第四步
  • 遍历链表,直到找到相等(==或equals)的 key
public V get(Object key) {
    Node<K,V> e;
    return (e = getNode(hash(key), key)) == null ? null : e.value;
}
final Node<K,V> getNode(int hash, Object key) {
    Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
    if ((tab = table) != null && (n = tab.length) > 0 &&
        (first = tab[(n - 1) & hash]) != null) {
        // 判断第一个节点是不是就是需要的
        if (first.hash == hash && // always check first node
            ((k = first.key) == key || (key != null && key.equals(k))))
            return first;
        if ((e = first.next) != null) {
            // 判断是否是红黑树
            if (first instanceof TreeNode)
                return ((TreeNode<K,V>)first).getTreeNode(hash, key);

            // 链表遍历
            do {
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    return e;
            } while ((e = e.next) != null);
        }
    }
    return null;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27

# put()

public V put(K key, V value) {
    return putVal(hash(key), key, value, false, true);
}

// 第四个参数 onlyIfAbsent 如果是 true,那么只有在不存在该 key 时才会进行 put 操作
// 第五个参数 evict 我们这里不关心
final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
               boolean evict) {
    Node<K,V>[] tab; Node<K,V> p; int n, i;
    // 第一次 put 值的时候,会触发下面的 resize(),类似 java7 的第一次 put 也要初始化数组长度
    // 第一次 resize 和后续的扩容有些不一样,因为这次是数组从 null 初始化到默认的 16 或自定义的初始容量
    if ((tab = table) == null || (n = tab.length) == 0)
        n = (tab = resize()).length;
    // 找到具体的数组下标,如果此位置没有值,那么直接初始化一下 Node 并放置在这个位置就可以了
    if ((p = tab[i = (n - 1) & hash]) == null)
        tab[i] = newNode(hash, key, value, null);

    else {// 数组该位置有数据
        Node<K,V> e; K k;
        // 首先,判断该位置的第一个数据和我们要插入的数据,key 是不是"相等",如果是,取出这个节点
        if (p.hash == hash &&
            ((k = p.key) == key || (key != null && key.equals(k))))
            e = p;
        // 如果该节点是代表红黑树的节点,调用红黑树的插值方法,本文不展开说红黑树
        else if (p instanceof TreeNode)
            e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
        else {
            // 到这里,说明数组该位置上是一个链表
            for (int binCount = 0; ; ++binCount) {
                // 插入到链表的最后面(Java7 是插入到链表的最前面)
                if ((e = p.next) == null) {
                    p.next = newNode(hash, key, value, null);
                    // TREEIFY_THRESHOLD 为 8,所以,如果新插入的值是链表中的第 8 个
                    // 会触发下面的 treeifyBin,也就是将链表转换为红黑树
                    if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                        treeifyBin(tab, hash);
                    break;
                }
                // 如果在该链表中找到了"相等"的 key(== 或 equals)
                if (e.hash == hash &&
                    ((k = e.key) == key || (key != null && key.equals(k))))
                    // 此时 break,那么 e 为链表中[与要插入的新值的 key "相等"]的 node
                    break;
                p = e;
            }
        }
        // e!=null 说明存在旧值的key与要插入的key"相等"
        // 对于我们分析的put操作,下面这个 if 其实就是进行 "值覆盖",然后返回旧值
        if (e != null) {
            V oldValue = e.value;
            if (!onlyIfAbsent || oldValue == null)
                e.value = value;
            afterNodeAccess(e);
            return oldValue;
        }
    }
    ++modCount;
    // 如果 HashMap 由于新插入这个值导致 size 已经超过了阈值,需要进行扩容
    if (++size > threshold)
        resize();
    afterNodeInsertion(evict);
    return null;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63

和 Java7 稍微有点不一样的地方就是,Java7 是先扩容后插入新值的,Java8 先插值再扩容,不过这个不重要。

# remove()

remove有两个接口,remove(key)、remove(key,value),内部都是调用一个removeNode方法,如下:

public V remove(Object key) {
    Node<K, V> e;
    return (e = removeNode(hash(key), key, null, false, true)) == null ? null : e.value;
}
 
public boolean remove(Object key, Object value) {
    return removeNode(hash(key), key, value, true, true) != null;
}
 
final Node<K, V> removeNode(int hash, Object key, Object value, boolean matchValue, boolean movable) {
    Node<K, V>[] tab;
    Node<K, V> p;
    int n, index;
    // map不为空,且hash对应的位置不为空,才进行查找,否则认为未找到,返回null
    if ((tab = table) != null && (n = tab.length) > 0 && (p = tab[index = (n - 1) & hash]) != null) {
        Node<K, V> node = null, e;
        K k;
        V v;
        // 匹配hash地址的第一个节点是否匹配,hash和key都匹配,则证明找到了要删除的元素
        if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k)))) {
            node = p;
        } else if ((e = p.next) != null) { // 第一个节点不匹配,则进行遍历查找
            // 遍历红黑树
            if (p instanceof TreeNode) {
                node = ((TreeNode<K, V>) p).getTreeNode(hash, key);
            } else {
                // 遍历链表
                do {
                    if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k)))) {
                        node = e;
                        break;
                    }
                    p = e;
                } while ((e = e.next) != null);
            }
        }
 
        // 如果node为null,证明未找到key对应的元素
        // node不为null,则根据调用的remove(key)还是remove(key,value)来判断
        if (node != null && (!matchValue || (v = node.value) == value || (value != null && value.equals(v)))) {
            // 要删除的节点匹配,如果是树节点类型,则从树中删除节点
            if (node instanceof TreeNode) {
                ((TreeNode<K, V>) node).removeTreeNode(this, tab, movable);
            } else if (node == p) {
                // 要删除的节点时第一个节点时,直接将头结点的下一个节点往前提一个位置(旧头节点被删除)
                tab[index] = node.next;
            } else {
                // 非头结点,修改指针,将下一个节点赋给父节点的next
                p.next = node.next;
            }
 
            // 修改次数加一,元素数量减一
            ++modCount;
            --size;
            afterNodeRemoval(node);
            return node;
        }
    }
    return null;
}  
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60

# resize()

resize() 方法用于初始化数组或数组扩容,每次扩容后,容量为原来的 2 倍,并进行数据迁移。

final Node<K,V>[] resize() {
    Node<K,V>[] oldTab = table;
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    int oldThr = threshold;
    int newCap, newThr = 0;
    if (oldCap > 0) { // 对应数组扩容
        if (oldCap >= MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 将数组大小扩大一倍
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                 oldCap >= DEFAULT_INITIAL_CAPACITY)
            // 将阈值扩大一倍
            newThr = oldThr << 1; // double threshold
    }
    else if (oldThr > 0) // 对应使用 new HashMap(int initialCapacity) 初始化后,第一次 put 的时候
        newCap = oldThr;
    else {// 对应使用 new HashMap() 初始化后,第一次 put 的时候
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }

    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;

    // 用新的数组大小初始化新的数组
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab; // 如果是初始化数组,到这里就结束了,返回 newTab 即可

    if (oldTab != null) {
        // 开始遍历原数组,进行数据迁移。
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                // 如果该数组位置上只有单个元素,那就简单了,简单迁移这个元素就可以了
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                // 如果是红黑树,具体我们就不展开了
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { 
                    // 这块是处理链表的情况,
                    // 需要将此链表拆成两个链表,放到新的数组中,并且保留原来的先后顺序
                    // loHead、loTail 对应一条链表,hiHead、hiTail 对应另一条链表,代码还是比较简单的
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    do {
                        next = e.next;
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        // 第一条链表
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        // 第二条链表的新的位置是 j + oldCap,这个很好理解
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86

关于扩容,在Java7的HashMap中,如果发生多线程更改HashMap(同时扩容),则可能会引起链表产生环的问题,这是因为Java7只是使用了数组加链表,插入链表的时候使用头插法,并且在扩容的时候链表节点的顺序会发生改变;而Java8在插入节点时使用是尾插法,在扩容的时候链表节点的顺序不会发生改变,可以避免出现环的问题。但这并不能说明Java8的HashMap就可以支持并发修改,因为其内部很多操作都没有保证原子性(,比如两个线程同时插入元素,size++,都未做原子性保证。

# 链表转红黑树

上面在put的时候,如果链表的长度超过树化阈值,则会触发树化操作,具体代码如下:

final void treeifyBin(Node<K,V>[] tab, int hash) {
    int n, index; Node<K,V> e;
 
    // 如果map的容量(数组的长度)为0,或者小于MIN_TREEIFY_CAPACITY(默认64),则进行扩容操作,而不进行转换红黑树
    // 底层数组,也称为hash桶,也就是说hash桶的数量小于64时,则会进行扩容操作
    if (tab == null || (n = tab.length) < MIN_TREEIFY_CAPACITY) {
        resize();
    } else if ((e = tab[index = (n - 1) & hash]) != null) {
        TreeNode<K,V> hd = null, tl = null;
        do {
            // 将链表节点转换为红黑树节点
            TreeNode<K,V> p = replacementTreeNode(e, null);
            if (tl == null)
                hd = p;
            else {
                p.prev = tl;
                tl.next = p;
            }
            tl = p;
        } while ((e = e.next) != null);
 
        // 转换红黑树的操作
        if ((tab[index] = hd) != null) {
            hd.treeify(tab);
        }
    }
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27

# resize时红黑树的split拆分

和链表一样,红黑树中的元素也需要挨个确定新索引位置,同样是分为 2 部分,一部分是索引不变,一部分的新索引为oldIndex+oldCapacity。注意,split 是HashMap中的内部类TreeNode的方法,而不是 HashMap 的方法。

/**
 * 扩容时,对同一个hash桶中的元素(红黑树)进行拆分,有可能拆分为两部分
 * part1.节点的hash和原数组的容量与之后为0 -> 移到新表后,索引和旧表保持不变
 * part2.节点的hash和原数组的容量与之后为0 -> 移到新表后,新索引为"oldIndex+oldCapacity"
 * 这两部分,在做完拆分后,判断是否需要将树转换为链表,如果各自的数量未超过UNTREEIFY_THRESHOLD(默认为6),则需转换为链表
 *
 * @param map   hashMap实例本身
 * @param tab   扩容新申请的数组
 * @param index 本次要拆分的下标索引(对应旧数组)
 * @param bit   旧数组的容量
 */
final void split(HashMap<K, V> map, Node<K, V>[] tab, int index, int bit) {
    TreeNode<K, V> b = this;
    // Relink into lo and hi lists, preserving order
    TreeNode<K, V> loHead = null, loTail = null; // loHead链着索引不变的节点
    TreeNode<K, V> hiHead = null, hiTail = null; // hiHead链着索引改变的节点
    int lc = 0, hc = 0;
    for (TreeNode<K, V> e = b, next; e != null; e = next) {
        next = (TreeNode<K, V>) e.next;
        e.next = null;
 
        // 如果当前节点和原数组的容量与之后为0,则扩容后的索引位置和与在旧表保持一致
        if ((e.hash & bit) == 0) {
            if ((e.prev = loTail) == null)
                loHead = e;
            else
                loTail.next = e;
            loTail = e;
            ++lc;
        } else {
            // 如果当前节点和原数组的容量与之后不为0,则扩容后的索引位置为"oldIndex+oldCapacity"
            if ((e.prev = hiTail) == null)
                hiHead = e;
            else
                hiTail.next = e;
            hiTail = e;
            ++hc;
        }
    }
 
    if (loHead != null) {
        if (lc <= UNTREEIFY_THRESHOLD)
            tab[index] = loHead.untreeify(map);
        else {
            tab[index] = loHead;
            if (hiHead != null) // (else is already treeified)
                loHead.treeify(tab);
        }
    }
    if (hiHead != null) {
        if (hc <= UNTREEIFY_THRESHOLD)
            tab[index + bit] = hiHead.untreeify(map);
        else {
            tab[index + bit] = hiHead;
            if (loHead != null)
                hiHead.treeify(tab);
        }
    }
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59

# Fail-Fast

因为 HashMap 是非线程安全的容器,也就是说,多线程访问的时候会有问题,比如一个有一个线程在遍历 Map,每遍历一项,执行某个操作(假设耗时 2 秒),此时另外一个线程对 Map 做了修改(比如删除了某一项),这个时候就会出现数据不一致的问题,此时 HashMap发现这种情况,读线程就会抛出 ConcurrentModificationException,防止继续读取脏数据,这个过程叫做快速失败。

实现快速失败,就是使用 HashMap 中的 modCount 变量,该变量存储的是 ma p中数据发生变化的次数,每发生一次变化,则modCount 加一,比如 put 操作后 modCount 会加1;一个线程如果要遍历 HashMap,会在遍历之前先记录 modCount 值,然后每迭代一次(访问下一个元素)时,先判断 modCount 值是否和最初的 modCount 是否相等,如果相等,则证明 map 未被修改过,如果不相等,则证明 map 被修改过,那么就会抛出 ConcurrentModificationException,实现快速失败。

# 为什么HashMap是非线程安全的

当容器发生扩容的时候,map 中的所有元素都会进行重新确认索引位置(reindex),如果是链表或者红黑树,还会进行 split,这个过程中,如果更改 map 中的元素,则可能会引起异常。如果要使用线程安全的 map,可以考虑 ConcurrentHashMap。

# 两者异同点

# 共同点

  1. 容量(capacity): 容量为底层数组的长度,JDK7 中为 Entry 数组,JDK8 中为 Node 数组

    • 容量一定为2的次幂

      static int indexFor(int h, int length) {      return h & (length-1);  }
      
      1

      这段代码是用来计算出键值对存放在一个数组的索引,h 是int hash = hash(key.hashCode())计算出来的,SUN 大师们发现, “当容量一定是 2^n 时,h & (length - 1) == h % length”,按位运算特别快 。

    • 默认初始容量 16 (容量为低层数组的长度,JDK7 中为 Entry 数组,JDK8 中为 Node 数组)

    • 最大容量 1<<30,即 2 的 30 次方

      1 << 30 = 10737418241 << 31 = -21474836481 << 32 = 11 << 33 = 21 << -1 = -2147483648
      
      1

      HashMap 的“最大容量“其实是 Integer.MAX_VALUE

  2. 加载因子(Load factor):HashMap 在其容量自动增加前可达到多满的一种尺度

    默认加载因子 = 0.75

    static final float DEFAULT_LOAD_FACTOR = 0.75f
    
    1
    • 加载因子越大、填满的元素越多 = 空间利用率高、但冲突的机会加大、查找效率变低(因为链表变长了)
    • 加载因子越小、填满的元素越少 = 空间利用率小、冲突的机会减小、查找效率高(链表不长) 0.75是一个"冲突的机会"与"空间利用率"之间寻找一种平衡与折衷的选择
  3. 扩容机制:扩容时 resize(2 * table.length),扩容到原数组长度的 2 倍。

  4. key为null:若key == null,则 hash(key) = 0,则将该键-值存放到数组table 中的第1个位置,即table [0]

     	static final int hash(Object key) {
            int h;
            return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
        }
    
    1
    2
    3
    4

# 不同点

  1. 发生 hash 冲突时:JDK7 发生 hash 冲突时,新元素插入到链表头中。 JDK8 发生 hash 冲突后,会优先判断该节点的数据结构式是红黑树还是链表,如果是红黑树,则在红黑树中插入数据;如果是链表,则将数据插入到链表的尾部并判断链表长度是否大于8,如果大于8要转成红黑树。

  2. 扩容时:JDK7 在扩容 resize() 过程中,采用单链表的头插入方式,在将旧数组上的数据转移到新数组上时,转移操作 = 按旧链表的正序遍历链表、在新链表的头部依次插入,即在转移数据、扩容后,容易出现链表逆序的情况 。 多线程下 resize() 容易出现死循环。此时若(多线程)并发执行 put()操作,一旦出现扩容情况,则容易出现环形链表,从而在获取数据、遍历链表时形成死循环(Infinite Loop),即死锁的状态 。

    JDK8 中转移数据操作 = 按旧链表的正序遍历链表、在新链表的尾部依次插入,所以不会出现链表逆序、倒置的情况,故不容易出现环形链表的情况 ,但 jdk1.8 仍是线程不安全的,因为没有加同步锁保护。

# HashSet

前面已经说过 HashSet 是对 HashMap 的简单包装,对HashSet的函数调用都会转换成合适的 HashMap 方法,因此 HashSet 的实现非常简单,只有不到 300 行代码。这里不再赘述。它特点如下:

  • 增删改查set中的元素,时间复杂度都为O(1);
  • 不会出现重复元素;
  • 顺序是不确定的;
//HashSet是对HashMap的简单包装
public class HashSet<E>
{
	......
    //HashSet里面有一个HashMap,用于存放数据
	private transient HashMap<E,Object> map;
    // map属性在put时的value
    private static final Object PRESENT = new Object();
    // 实例化HashSet,并且创建HashMap(使用默认初始容量16和默认负载因子0.75)
    public HashSet() {
        map = new HashMap<>();
    }
    ......
    // 加入一个元素到set中(其实是加入到HashSet的map属性中)
    // @return true:set不包含该元素; false:set已经包含该元素
    public boolean add(E e) {
        // 调用HashMap的put方法,也就是将加入的元素作为key,PRESENT常量作为value
        return map.put(e, PRESENT)==null;
    }
    ......
}
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21

# 参考

  • https://pdai.tech/md/java/collection/java-map-HashMap&HashSet.html
  • http://www.cnblogs.com/CarpenterLee/p/5440428.html
#Java#HashSet#HashMap
上次更新: 2024-08-19
Collection - PriorityQueue 源码解析
Map - LinkedHashMap & LinkedHashSet 源码解析

← Collection - PriorityQueue 源码解析 Map - LinkedHashMap & LinkedHashSet 源码解析→

最近更新
01
开始
01-09
02
AI工具分享
01-09
03
AI 导读
01-07
更多文章>
Theme by Vdoing | Copyright © 2022-2025 Jason Huang | 闽ICP备2025088096号-1
  • 跟随系统
  • 浅色模式
  • 深色模式
  • 阅读模式