这个新思路你知道吗?javascript中的多种进制与进制转
进制介绍
JavaScript中提供的进制表示方法有四种:十进制、二进制、十六进制、八进制。
对于数值字面量,主要使用不同的前缀来区分:十进制(Decimal):
取值数字09;不用前缀。二进制(Binary):
取值数字0和1;前缀0b或0B。十六进制(Hexadecimal):
取值数字09和af;前缀0x或0X。八进制(Octal):
取值数字07;前缀0o或0O(ES6规定)。
需要注意的是,非严格模式下浏览器支持:如果有前缀0并且后面只用到07八个数字的数值时,该数值视为八进制;但如果前缀0后面跟随的数字中有8或者9,则视为十进制。
严格模式下,如果数字加前缀0,则报错:UncaughtSyntaxError:Decimalswithleadingzerosarenotallowedinstrictmode。
各进制的数值,如果取值数字超过给定的范围,则会报错:UncaughtSyntaxError:Invalidorunexpectedtoken。
在JavaScript内部的默认情况下,二进制、十六进制、八进制字面量数值,都会自动转为十进制进行运算。0x22340b11170o33270x220b111410o331239(0x33)。toString()51(0x33)。valueOf()51
除了十进制是Javascript默认的数字进制以外,其他三种进制方式平时使用较少,主要在处理底层数据、字节编码或者位运算等时候才会碰到。进制转换
本文将主要讨论进制转换时的问题。
JavaScript提供了原生函数,进行十进制与其他各进制之间的相互转换。
其中,从其他进制转换成十进制,有三种方式:parseInt(),Number(),(一元运算符)。这三种方式都只能转换整数。
从十进制转换成其他进制,可以使用Number。prototype。toString()。支持小数。parseInt(str,radix)
第一个参数是需要解析的字符串;其他进制不加前缀。
第二个参数是一个进制基数,表示转换时按什么进制来理解这个字符串,默认值10,表示转十进制。
第二个参数如果非数字,则自动转数字,如无法转称数字则忽略该参数;是数字时,必须是236的整数,超出该范围,返回NaN。parseInt(1111,2)15parseInt(1234,8)668parseInt(18af,16)6319parseInt(1111)1111
如果不传入第二参数,则parseInt会默认使用十进制来解析字符串;但是,如果字符串以0x开头,会被认为是十六进制数。
而其他进制的字符串,0o21(八进制),0b11(二进制)不会以该进制基数自动转换,而是得到0。
所以,在使用parseInt进行进制转换时,为了保证运行结果的正确性和稳定性,第二个参数不能省略。parseInt(0x21)33parseInt(0o21)0parseInt(0b11)0parseInt(111,add)111parseInt(111,787)NaN
如果需要解析的字符串中存在对于当前进制基数无效的字符,则会从最高位取有效字符进行转换,没有效字符则返回NaN。parseInt(88kk,16)136,0x88parseInt(kk,16)NaNNumber()
可以把字符串转为数字,支持其他进制的字符串,默认转成十进制数字。
字符串中如果存在无效的进制字符时,返回NaN。
记住,需要使用进制前缀,0b,0o,0x。Number(0b11100)28Number(0o33)27Number(0x33)51Number(0x88kk)NaN(一元运算符)
与Number()一样,可以把字符串转为数字,支持其他进制的字符串,默认转成十进制数字。
字符串中如果存在无效的进制字符时,返回NaN。
也需要使用进制前缀。0b11100280o33270x33510x88kkNaN
可以看到,基本和Number()是一样的,都在本质上是对数字的一种转换处理。Number。prototype。toString(radix)
它支持传入一个进制基数,用于将数字转换成对应进制的字符串,它支持转换小数。
未指定默认值为10,基数参数的范围236,超过范围,报错:RangeError。15。。toString(2)1111585。。toString(8)11114369。。toString(16)1111(11。25)。toString(2)1011。01自定义转换
除了这些原生函数以外,也可以自己实现进制数字之间的转换函数。
根据相应的规则,就可以实现十进制与二进制、十六进制之间的转换的一些方法。十进制与十六进制转换
以下代码是针对整数在十进制与十六进制之间的转换,根据基本规则进行换算。
十六进制是以09、af进行描述数字的一种方式,其中09取本身数字的值,而af则取1015的值。
且字母不区分大小写。functionint2Hex(num0){if(num0){return0}constHEXS0123456789abcdeflethexwhile(num){hexHEXS。charAt(num16)hexnumMath。floor(num16)}returnhex}functionhex2Int(hex){if(typeofhex!stringhex){returnNaN}consthexs〔。。。hex。toLowerCase()〕letresInt0for(leti0;ihexs。length;i){consthvhexs〔i〕letnumhv。charCodeAt()58?hv:((code97)10)resIntresInt16num}returnresInt}
如果要转换八进制,实际上与十六进制很类似,只需根据八进制的数值范围进行部分改动即可。八进制一般使用非常少,不单独列出。
下面将重点介绍二进制转换的相关知识,包括小数的二进制表示与转换。十进制和二进制转换
在十进制与二进制的转换中,我们将考虑小数,理解小数是如何在这两者之间进行转换。
先选定一个数字,比如:11。125,我们看下该数字在二进制里的表示:(11。125)。toString(2)1011。001
可以看到,11。125的二进制表示为:1011。001。下面将以这个数字为例进行转换操作。十进制数字转换成二进制
首先需要了解的是,二进制小数表示方法是如何得来的:整数部分,用二进制表示可以如此计算,数字11:
1121
521
220
121
整数部分的规则,得到的结果是从下往上,倒着排1011就是二进制的11。小数用二进制表示可以如此计算,小数0。125:
例如十进制的0。125
0。12520。250
0。2520。50
0。5211
只有等于1时才结束,如果结果不等于1将会一直循环下去。
小数部分的规则,得到的结果是从上往下,顺着排0。001就是二进制的0。125。整数小数,所以11。125的二进制表示方式:1011。001。
根据以上整数和小数分开计算的规则,就可以得出十进制转二进制的函数,如下:functionc10to2(num){整数constnumIntegerMath。floor(num)小数constnumDecimalnumnumIntegerletintegers〔〕if(numInteger0){integers〔0〕}else{letintegerValnumIntegerwhile(integerVal!1){integers。push(integerVal20?0:1)integerValMath。floor(integerVal2)}integers。push(1)}constresIntegerintegers。reverse()。join()letdecimals〔〕if(numDecimal){letdecimalValnumDecimal最多取49位的长度letcount49while(decimalVal!1count0){decimalValdecimalVal2if(decimalVal1){decimals。push(1)if(decimalVal1){decimalValdecimalVal1}}else{decimals。push(0)}count}}constresDecimaldecimals。join()returnresInteger(resDecimal?(。resDecimal):)}小数在转换成二进制时,会存在无限循环的问题,上面的代码里截取了前49个值。
所以,这里就会引出了一个问题,就是常见的一个数字精度问题:0。10。2!0。3。0。10。2!0。3
直接看一下0。1转二进制:
0。120。2
0。220。4
0。420。8
0。821。6
0。621。2
0。220。4循环开始
0。420。8
0。821。6
0。621。2
。。。
。。。
无限循环
0。2转二进制:
0。220。4
0。420。8
0。821。6
0。621。2
0。220。4循环开始
0。420。8
0。821。6
0。621。2
。。。
。。。
无限循环
因为无法得到1,可以发现有限十进制小数,0。1转换成了无限二进制小数0。00011001100。。。,0。2转成了0。001100110011。。。。
由于无限循环,必然会导致精度丢失,正好0。10。2计算得到的数字在丢失精度后的最后一位不为0,所以导致结果为:0。30000000000000004。
如果截取精度后最后一位为0,那自然就不存在结果不相等的情况,如0。10。60。7,事实上,0。1和0。6转二进制后都会丢失精度,但截取到的数值都是0,所以相等。
同样不相等的还设有0。10。7!0。8等等。
所以是计算时转二进制的精度丢失,才导致的0。10。2!0。3。
在JavaScript中所有数值都以IEEE754标准的64bit双精度浮点数进行存储的。
IEEE754标准的64位双精度浮点数的小数部分最多支持53位二进制位。
因浮点数小数位的限制而需要先截断二进制数字,再转换为十进制,所以在进行算术计算时会产生误差。
这里能看到,如果十进制小数要被转化为有限二进制小数,那么它计算后的小数第一位数必然要是5结尾才行(因为只有0。52才能变为整数)。二进制数字转换成十进制
方法是:将二进制分成整数和小数两部分,分别进行转换,然后再组合成结果的十进制数值。整数部分:这里直接使用parseInt函数,parseInt(1011,2)11。小数部分:如1011。001的小数位001,使用下表的计算方式。
小数部分001
基数的位数次幂212223
每位与基数乘积0(21)0(22)1(23)
每位乘积结果000。125最后的结果是每位乘积结果相加:000。1250。125。
整数与小数合起来,就得到了1011。001的十进制数字:11。125。
根据规则,代码实现如下所示:functionc2To10(binaryStr){if(typeofbinaryStr!stringbinaryStr){returnNaN}const〔binIntStr,binDecStr〕binaryStr。split(。)letbinDecimal0if(binDecStr){binDecimal〔。。。binDecStr〕。reduce((res,val,index){resNumber(val)(2((index1)))returnres},0)}returnparseInt(binIntStr,2)binDecimal
原文链接:https:www。cnblogs。comjimojianghup15624693。html