我试图得到 1 + 2 + ... + 1000000000
的总和,但是我在 PHP 和 Node.js中得到了有趣的结果。
PHP
$sum = 0;
for($i = 0; $i <= 1000000000 ; $i++) {
$sum += $i;
}
printf("%s", number_format($sum, 0, "", "")); // 500000000067108992
Node.js
var sum = 0;
for (i = 0; i <= 1000000000; i++) {
sum += i ;
}
console.log(sum); // 500000000067109000
正确答案可以使用
1 + 2 + ... + n = n(n+1)/2
正确答案 = 500000000500000000000000000000000000000000000000000000000000000000000000000000,所以我决定试试另一种语言。
去吧
var sum , i int64
for i = 0 ; i <= 1000000000; i++ {
sum += i
}
fmt.Println(sum) // 500000000500000000
但是它工作得很好! 那么我的 PHP 和 Node.js 代码有什么问题吗?
也许这是一个解释语言的问题,这就是为什么它在围棋这样的编译语言中起作用的原因?如果是这样,其他解释语言(如 Python 和 Perl)是否也存在同样的问题?