数组(Array)是一种线性表数据结构。它用一组连续的内存空间,来存储一组具有相同类型的数据。
- 线性表(Linear List):数据排成像一条线一样的结构。每个线性表上的数据最多只有前和后两个方向。其实除了数组,链表、队列、栈等也是线性表结构。而非线性表如二叉树,堆,图等,数据之间并不是简单的前后关系。
- 连续的内存空间和相同类型的数据:可以保证数组的随机访问,但是也让数组的很多操作变得非常低效,比如要想在数组中删除、插入一个数据,为了保证连续性,就需要做大量的数据搬移工作。
随机访问
实现方式:
比如一个长度为 10 的 int 类型的数组 int[] a = new int[10],计算机给数组 a[10],分配了一块连续内存空间 1000 ~ 1039,其中,内存块的首地址为 base_address = 1000。
计算机会给每个内存单元分配一个地址,计算机通过地址来访问内存中的数据。当计算机需要随机访问数组中的某个元素时,它会首先通过下面的寻址公式,计算出该元素存储的内存地址:a[i]_address = base_address + i * data_type_size
(data_type_size 表示数组中每个元素的大小,比如数组中存储的是 int 类型数据,那么 data_type_size 就为 4 个字节)。
数组和链表的区别
链表适合插入、删除,时间复杂度 O(1);
数组是适合查找操作,但是查找的时间复杂度并不为 O(1)。即便是排好序的数组,你用二分查找,时间复杂度也是 O(logn)。所以,正确的表述应该是,数组支持随机访问,根据下标随机访问的时间复杂度为 O(1)。
插入
假设数组的长度为 n,现在,如果我们需要将一个数据插入到数组中的第 k 个位置。为了把第 k 个位置腾出来,给新来的数据,我们需要将第 k ~ n 这部分的元素都顺序地往后挪一位。
分析:如果需要插入的位置在末尾,那就不需要移动数据,此时时间复杂度为 O(1)。但如果在数组的开头插入元素,那所有的数据都需要依次往后移动一位,所以最坏时间复杂度是 O(n)。 因为我们在每个位置插入元素的概率是一样的,插入位置是 0 需要移动 n 个数据,插入位置是 1 那么需要移动 n-1 个数据,一共有 n 中可能性,所以平均情况时间复杂度为#card=math&code=%5Cfrac%7B1%2B2%2B3%2B…%2Bn-1%2Bn%7D%7Bn%7D%20%3D%20O%28n%29>) 。
如果数组中的数据是有序的,我们在某个位置插入一个新的元素时,就必须按照刚才的方法搬移 k 之后的数据。但是,如果数组中存储的数据并没有任何规律,数组只是被当作一个存储数据的集合。在这种情况下,如果要将某个数据插入到第 k 个位置,为了避免大规模的数据搬移,我们还有一个简单的办法就是,直接将第 k 位的数据搬移到数组元素的最后,把新的元素直接放入第 k 个位置。
在特定场景下,在第 k 个位置插入一个元素的时间复杂度就会降为 O(1)(应用在快速排序算法)。
删除
要删除第 k 个位置的数据,为了内存的连续性,也需要搬移数据,否则内存就不连续了,也会影响到随机访问。
和插入类似,如果删除数组末尾的数据,则最好情况时间复杂度为 O(1);如果删除开头的数据,则最坏情况时间复杂度为 O(n);平均情况时间复杂度也为 O(n)。
实际上,在某些特殊场景下,并不一定非得追求数组中数据的连续性。若将多次删除操作集中在一起执行,删除的效率会提高很多。
例:数组 a[10]中存储了 8 个元素:a,b,c,d,e,f,g,h,此时我们需要依次删除 a,b,c。
为了避免 d,e,f,g,h 这几个数据会被搬移三次,我们可以先记录下已经删除的数据。每次的删除操作并不是真正地搬移数据,只是记录数据已经被删除。当数组没有更多空间存储数据时,我们再触发执行一次真正的删除操作,这样就大大减少了删除操作导致的数据搬移(假删除,这就是 JVM 标记清除垃圾回收算法的核心思想)。
JVM 垃圾回收算法: 1.复制算法. 2.标记清除算法. 3.标记整理算法。 简单思想:数组中删除数据时,并不真正的删除,而是标记一下,先不进行数据的搬移工作,等数组空间不够用时,我们再执行删除操作,进行数据的搬移工作 —> 这样可以减少因为删除操作导致的数据搬移,这种思想在 JVM 垃圾回收算法的标记清除算法中也有体现,第一遍扫描先标记垃圾对象,第二遍扫描再清除垃圾对象 —> 这种垃圾回收算法容易产生内存碎片,导致出现虽然内存空间充足,但是无法放置大对象。
警惕数组的访问越界
int main(int argc, char* argv[]){
int i = 0;
int arr[3] = {0};
for(; i<=3; i++){
arr[i] = 0;
printf("hello world\n");
}
return 0;
}
该代码结果就是会无限打印“hello world”,数组大小为 3,a[0],a[1],a[2],而我们的代码因为书写错误,导致 for 循环的结束条件错写为了 i<=3 而非 i<3,所以当 i=3 时,数组 a[3]访问越界。
在 C 语言中,只要不是访问受限的内存,所有的内存空间都是可以自由访问的。根据我们前面讲的数组寻址公式,a[3]也会被定位到某块不属于数组的内存地址上,而这个地址正好是存储变量 i 的内存地址,那么 a[3]=0 就相当于 i=0,所以就会导致代码无限循环。
数组越界在 C 语言中是一种未决行为,并没有规定数组访问越界时编译器应该如何处理。因为,访问数组的本质就是访问一段连续内存,只要数组通过偏移计算得到的内存地址是可用的,那么程序就可能不会报任何错误。
很多计算机病毒也正是利用到了代码中的数组越界可以访问非法地址的漏洞,来攻击系统,所以写代码的时候一定要警惕数组越界。但并非所有的语言都像 C 一样,把数组越界检查的工作丢给程序员来做,像 Java 本身就会做越界检查,比如下面这几行 Java 代码,就会抛出 java.lang.ArrayIndexOutOfBoundsException。
int[] a = new int[3];
a[3] = 10;
容器 VS 数组
针对数组类型,很多语言都提供了容器类,比如 Java 中的 ArrayList、C++ STL 中的 vector。在项目开发中,如何选择?
ArrayList 最大的优势就是可以将很多数组操作的细节封装起来。比如前面提到的数组插入、删除数据时需要搬移其他数据等。另外,它还有一个优势,就是支持动态扩容。
数组本身在定义的时候需要预先指定大小,因为需要分配连续的内存空间。如果我们申请了大小为 10 的数组,当第 11 个数据需要存储到数组中时,我们就需要重新分配一块更大的空间,将原来的数据复制过去,然后再将新的数据插入。
而使用 ArrayList 时,每次存储空间不够的时候,它都会将空间自动扩容为 1.5 倍大小。但是因为扩容操作涉及内存申请和数据搬移,是比较耗时的。所以,如果事先能确定需要存储的数据大小,最好在创建 ArrayList 的时候事先指定数据大小。
- Java ArrayList 无法存储基本类型,比如 int、long,需要封装为 Integer、Long 类,而 Autoboxing、Unboxing 则有一定的性能消耗,所以如果特别关注性能,或者希望使用基本类型,就可以选用数组。
- 如果数据大小事先已知,并且对数据的操作非常简单,用不到 ArrayList 提供的大部分方法,也可以直接使用数组。
- 当要表示多维数组时,用数组往往会更加直观。比如 Object[][] array;而用容器的话则需要这样定义:ArrayList > array。
对于业务开发,直接使用容器就足够了,省时省力。毕竟损耗一丢丢性能,完全不会影响到系统整体的性能。但如果你是做一些非常底层的开发,比如开发网络框架,性能的优化需要做到极致,这个时候数组就会优于容器,成为首选。
数组为什么要从 0 开始编号
从数组存储的内存模型上来看,“下标”最确切的定义应该是“偏移(offset)”。计算 a[k]的内存地址只需要用这个公式:a[k]_address = base_address + k * type_size
。
如果数组从 1 开始计数,那我们计算数组元素 a[k]的内存地址就会变为:a[k]_address = base_address + (k-1)*type_size
。
所以如果数组从 1 开始编号,每次随机访问数组元素都多了一次减法运算,对于 CPU 来说,就是多了一次减法指令。
数组作为非常基础的数据结构,通过下标随机访问数组元素又是其非常基础的编程操作,效率的优化就要尽可能做到极致。所以为了减少一次减法操作,数组选择了从 0 开始编号,而不是从 1 开始。
不过最主要的原因可能是历史原因,C 语言设计者用 0 开始计数数组下标,之后的 Java、JavaScript 等高级语言都效仿了 C 语言,或者说,为了在一定程度上减少 C 语言程序员学习 Java 的学习成本,因此继续沿用了从 0 开始计数的习惯。实际上,很多语言中数组也并不是从 0 开始计数的,比如 Matlab。甚至还有一些语言支持负数下标,比如 Python。
思考
二维数组arr[m][n]
的寻址地址?
对于arr[i][j](i < m, j < n)
的寻址地址:arr[i][j]_address = base_address + ( i * n + j) * type_size
。
二维数组在存储空间中也是以线性表的方式,所以创建一个二维数组时需要指定数组大小。