
二进制位(Bit)是计算机科学中信息表示的最小单位,对应英文术语"binary digit"(简称bit),其核心含义为采用二进制数制中的“0”或“1”进行数据存储与逻辑运算。该术语由数学家John Wilder Tukey于1947年首次提出,后经贝尔实验室工程师Claude Shannon在信息论中系统阐述。
从技术特性看,每个二进制位代表两种互斥状态,如电路中的高/低电平、磁性存储介质的磁极方向或光学媒介的反射/非反射状态。这种二元特性使其成为现代数字电路设计与信息编码的基础单元。
在存储体系中,8个二进制位构成1字节(Byte),这是现代计算机架构的基本数据单位。国际电气与电子工程师协会(IEEE)标准文件IEEE 1541-2002明确指出,二进制位作为基础计量单位,在数据存储容量、网络传输速率等领域的标准化表述中具有法定计量地位。
中国国家标准GB/T 5271.1-2000《信息技术 词汇 第1部分:基本术语》将二进制位定义为“能区别两种可能状态的字符或物理量”,强调其在逻辑运算、数据存储及通信协议中的基础作用。
二进制位(bit)是计算机科学中最基本的信息单位,其名称来源于“binary digit”(二进制数字)。以下是详细解释:
定义与特性
核心作用
实际应用场景
扩展概念
例如,二进制数1010
包含4个位,其十进制值为:
$$
1×2 + 0×2 + 1×2 + 0×2^0 = 10
$$
计算机通过亿万级二进制位的协同工作,实现了复杂的数据处理与存储功能。
【别人正在浏览】