我正在对一些代码进行基准测试,即使使用完全相同的算法,也无法像java.math.BigInteger
那样快速运行。所以我将java.math.BigInteger
源复制到我自己的包中并尝试了这个:
//import java.math.BigInteger;
public class MultiplyTest {
public static void main(String[] args) {
Random r = new Random(1);
long tm = 0, count = 0,result=0;
for (int i = 0; i < 400000; i++) {
int s1 = 400, s2 = 400;
BigInteger a = new BigInteger(s1 * 8, r), b = new BigInteger(s2 * 8, r);
long tm1 = System.nanoTime();
BigInteger c = a.multiply(b);
if (i > 100000) {
tm += System.nanoTime() - tm1;
count++;
}
result+=c.bitLength();
}
System.out.println((tm / count) + "nsec/mul");
System.out.println(result);
}
}
当我运行它(在MacOS上为jdk 1.8.0_144-b01)时,它输出:
12089nsec/mul
2559044166
当我使用取消注释的导入行运行它时:
4098nsec/mul
2559044166
使用BigInteger的JDK版本与我的版本相比,它几乎快三倍,即使它使用完全相同的代码。
我用javap检查了字节码,并在运行选项时比较了编译器输出:
-Xbatch -XX:-TieredCompilation -XX:+PrintCompilation -XX:+UnlockDiagnosticVMOptions
-XX:+PrintInlining -XX:CICompilerCount=1
并且两个版本似乎生成相同的代码。使用一些我在代码中无法使用的预先计算优化的热点也是如此吗?我一直都明白他们没有。是什么解释了这种差异
是的,HotSpot JVM有点“作弊”,因为它有一些你在Java代码中找不到的BigInteger
方法的特殊版本。这些方法称为JVM intrinsics。
特别是,BigInteger.multiplyToLen
是HotSpot中的一种内在方法。 JVM源代码库中有一个特殊的hand-coded assembly implementation,但仅适用于x86-64架构。
您可以使用-XX:-UseMultiplyToLenIntrinsic
选项禁用此instrinsic以强制JVM使用纯Java实现。在这种情况下,性能将与您复制的代码的性能类似。
附:这是其他HotSpot内在方法的list。
在Java 8中,这确实是一种内在的方法;稍微修改过的方法版本:
private static BigInteger test() {
Random r = new Random(1);
BigInteger c = null;
for (int i = 0; i < 400000; i++) {
int s1 = 400, s2 = 400;
BigInteger a = new BigInteger(s1 * 8, r), b = new BigInteger(s2 * 8, r);
c = a.multiply(b);
}
return c;
}
运行此:
java -XX:+UnlockDiagnosticVMOptions
-XX:+PrintInlining
-XX:+PrintIntrinsics
-XX:CICompilerCount=2
-XX:+PrintCompilation
<YourClassName>
这将打印许多行,其中一行将是:
java.math.BigInteger::multiplyToLen (216 bytes) (intrinsic)
另一方面,在Java 9中,该方法似乎不再是内在的,而是反过来它调用一个内在的方法:
@HotSpotIntrinsicCandidate
private static int[] implMultiplyToLen
因此,在Java 9下运行相同的代码(具有相同的参数)将揭示:
java.math.BigInteger::implMultiplyToLen (216 bytes) (intrinsic)
在它下面是该方法的相同代码 - 只是稍微不同的命名。