1.存储单位

  • 位:即 bit,表示二进制位,要么是 0 ,要么是 1。它是计算机内部数据存储的最小单位。比如 11010100 共有8个二进制位,是一个8位二进制数。
  • 字节:即 byte,它由8个二进制位构成,即 1byte=8bit,是计算机内部计量的基本单位。一个英文字符占1个字节(8位),一个汉字占2个字节(16位)
  • 字:即word,它由若干个字节构成,是计算机内部进行数据处理和运算的基本单位。字的总的位数称为字长,不同档次的计算机字长是不一样的,比如32位机,它的1个字由4个字节构成,字长为32位,也就是说其CPU一次操作处理的实际位数是32位。同理,64位机可以处理64位。由此可见,计算机的字长越大,其性能越优越。
  • KB,MB:1024byte = 1KB,1024KB = 1MB。往上还有GB,TB。

PS:数据传输大多以 bit 为单位,比如我们常说的网速100M/s,M/s其实Mbit/s,也就是兆比特每秒,我们还可以写成100Mbps。

2.数制

2.1 定义

数制也叫进制/进位制,是人们规定的一种进位方法。对于任何一种进制 —— X 进制,就表示某一位置上的数运算时是逢 X 进一位。比如,十进制是逢十进一,十六进制是逢十六进一,二进制就是逢二进一,以此类推,x 进制就是逢 x 进位。

2.2 常见制和相关概念

进位制二进制八进制十进制十六进制
进位规则逢二进一逢八进一逢十进一逢十六进一
基数281016
数码0,10,1…70,1…90,1…9,A…F
位权2^i8^i10^i16^i
前缀0b0o0x
后缀BODH

例如,16进制数101可以表示为101H、(101)下标16,或者0x101。

2.3 数制之间的对应关系

2.4 数制之间的转换

  • x 转十:
    按权展开求和,比如二进制101对应十进制是1x2²+0x2¹+1x2º
  • 十转 x:
    • 整数部分,除X取余,倒序;
    • 小数部分,乘X取整,正序。
  • 二转八/十六:
    以小数点为界,分别向左向右分成三位一组,不够三位补0,分组后对应成八进制数;二转十六同理,只是四位一组。
  • 八/十六转二:
    每一位八进制数转化为对应的三位二进制数;十六转二同理,只是四位二进制数。

PS:八进制和十六进制之间不能直接转换,八进制需要先转成二进制或十进制,在由对应的二进制或十进制转成十六进制,反过来也一样。

3.编码

3.1 数字编码

数字编码在深入理解计算机系统cp2:定点数的表示和运算中再进行详细介绍。

3.2 BCD码

3.2.1 什么是 BCD码?

用四位二进制数来表示一位十进制数,称为二–十进制编码,简称 BCD(Binary Coded Decimal)码。

3.2.2 为什么需要 BCD码?

BCD 码其实是为了处理十进制转化为二进制的问题而存在的。
前面我们介绍了二进制与十进制之间的转换,但这种转换对计算密集型应用友好,对输入/输出密集型应用则不友好 —— 因此设计了 BCD码。拿 8421BCD码 举例,它将 0~9 一一映射为一个四位二进制数,从而做到快捷转换。比如, 321 的 8421BCD码 直接就是 0011 0010 0001,而无需再想之前那样乘2取余的麻烦运算。

3.2.3 8421BCD码

BCD码有很多,比如 8421BCD码,余三码等,这里我们只讲第一种。具体的对应关系如下:

注意:8421BCD码 只有 0000~1001 共十个,而 1010、1011…等等不是8421BCD码。

3.3 字符编码

3.3.1 为什么需要字符编码?

  • 计算机只能理解0和1,无法理解英文、字母、汉字和其他特殊字符,这些字符需要经过编码才能成为计算机可以理解的二进制数。
  • 由字符到二进制数称为编码,反过来则是解码。
  • 从字符到二进制数,需要有一个一一对应的映射,这个映射通过编码规则来实现。
  • 通常所说的编码其实包括编码+字符集(即字符的集合体),比如 Unicode 字符集,就有 UTF-8,UTF-16 等多种编码。

3.3.2 编码规则的演变

  • ASCII
    1) /ˈæski/,即 American Standard Code for Information Interchange,美国信息交换标准代码。本来一个字节有8位,每一位有0和1两种状态,则一个字节共有2^8=256种状态,可以表示256种字符。但是美国佬比较自私,觉得只要可以表示自己的字母和一些特殊字符就足够了,所以 ASCII 没有占用最高位(而是固定为0),实际只用到了后面7位,它可以表示 2^7=128 种状态,也就是表示128个字符。
    2) 很显然,这用来表示字母是足够的,但要想表示其它语言的字符,128还是太少了。
    PS:附送 ASCII 对照表一张:

  • GB2312
    1) 既然美国佬只解决了字母和特殊符号的编码问题,那么我们中国人只好实现自己的编码,从而来表示汉字了。所以这时候出现了 GB2312 编码(国标码)。
    2) 问题:不幸的是,各个国家都是这么想的,所以小日本有了 Shift_JIS 编码,棒子有了 Euc-kr 编码…..一时之间各国都有了自己的标准,那么对于一个多语言混合的文本来说,存在着不同的编码规则,最终必然导致乱码。

  • Unicode
    1) Unicode 解决了编码统一的问题。每种语言的每个字符在 Unicode 的规则下,都只有统一且唯一的对应二进制编码。它的表示方法是U+[16进制数]。例如,大写字母 A 编码为 U+0041,汉字“严”编码为 U+4E25
    2) 问题:Unicode 一般用2个字节(也就是16位)表示一个字符,这在表示 ASCII 字符的时候会出现问题。我们知道,ASCII 字符实际只需要一个字节就够了,并且最高位甚至都还不需要用到,但是 Unicode 又规定表示一个字符至少需要2个字节,那么一个 ASCII 字符前面就必须要补0以满足这个规则,例如字母 A 就需要用 00000000 01000001 表示,这些多余的0是一个极大的资源浪费。

  • UTF-8
    1) UTF:实际传输过程中,基于不同的系统平台,对 Unicode 会有不不同的实现方式,其实现方式称为 Unicode Transformation Format,即 UTF。
    2) 作为 Unicode 的一种实现方式,UTF-8 展现了一定的灵活性——它是一种变长编码,会根据具体字符来改变所需要的表示字节。其编码规则只有两条:

    i>. 对于 128 个 ASCII 字符只需一个字节表示,字节的第一位补 0,后面 7 位为这个字符的 ASCII 二进制数。Unicode 范围为 U+0000 至U+007F。
    ii>. 对于 n 字节的符号(n>1),第一个字节的前 n 位都设为 1,第 n+1 位设为 0,后面字节的前两位一律设为 10。剩下的没有提及的二进制位,全部为这个符号的 Unicode 码二进制数。Unicode 范围由 U+0080 起。

也可以看下面这张图:

以汉字“严”为例,演示如何实现 UTF-8 编码。
“严”的 Unicode 是 U+4E25(二进制数 100111000100101),据表,U+4E25 处在第三行的范围内(U+0800 ~ U+FFFF),因此“严”的UTF-8 编码需要三个字节,即格式 1110xxxx 10xxxxxx 10xxxxxx。然后,从“严”的最后一个二进制位开始,依次从后向前填入格式中的 x,多出的位补 0。这样就得到 UTF-8 编码(二进制)是 11100100 10111000 10100101,转换成十六进制就是 E4B8A5

参考:
https://segmentfault.com/a/1190000005936800
https://www.liaoxuefeng.com/wiki/1016959663602400/1017075323632896