Я сделал тест для сравнения строковых операций на нескольких языках для выбора языка для серверного приложения. Результаты казались нормальными, пока я, наконец, не попробовал С++, что меня очень удивило. Поэтому я задаюсь вопросом, не пропустил ли я какую-либо оптимизацию и пришел сюда для помощи.
Тест - это в основном интенсивные струнные операции, в том числе конкатенация и поиск. Тест выполняется на Ubuntu 11.10 amd64, с GCC версии 4.6.1. Аппарат Dell Optiplex 960, 4G RAM и четырехъядерный процессор.
в Python (2.7.2):
def test():
x = ""
limit = 102 * 1024
while len(x) < limit:
x += "X"
if x.find("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) > 0:
print("Oh my god, this is impossible!")
print("x length is : %d" % len(x))
test()
который дает результат:
x length is : 104448
real 0m8.799s
user 0m8.769s
sys 0m0.008s
в Java (OpenJDK-7):
public class test {
public static void main(String[] args) {
int x = 0;
int limit = 102 * 1024;
String s="";
for (; s.length() < limit;) {
s += "X";
if (s.indexOf("ABCDEFGHIJKLMNOPQRSTUVWXYZ") > 0)
System.out.printf("Find!\n");
}
System.out.printf("x length = %d\n", s.length());
}
}
который дает результат:
x length = 104448
real 0m50.436s
user 0m50.431s
sys 0m0.488s
в Javascript (Nodejs 0.6.3)
function test()
{
var x = "";
var limit = 102 * 1024;
while (x.length < limit) {
x += "X";
if (x.indexOf("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) > 0)
console.log("OK");
}
console.log("x length = " + x.length);
}();
который дает результат:
x length = 104448
real 0m3.115s
user 0m3.084s
sys 0m0.048s
в С++ (g++ -Ofast)
Не удивительно, что Nodejs работают лучше, чем Python или Java. Но я ожидал, что libstdС++ даст гораздо лучшую производительность, чем Nodejs, результат которого действительно удивил меня.
#include <iostream>
#include <string>
using namespace std;
void test()
{
int x = 0;
int limit = 102 * 1024;
string s("");
for (; s.size() < limit;) {
s += "X";
if (s.find("ABCDEFGHIJKLMNOPQRSTUVWXYZ", 0) != string::npos)
cout << "Find!" << endl;
}
cout << "x length = " << s.size() << endl;
}
int main()
{
test();
}
который дает результат:
x length = 104448
real 0m5.905s
user 0m5.900s
sys 0m0.000s
Краткое резюме
ОК, теперь посмотрим сводку:
- javascript на Nodejs (V8): 3.1s
- Python на CPython 2.7.2: 8.8s
- С++ с libstdС++: 5.9s
- Java на OpenJDK 7: 50.4s
Удивительно! Я попробовал "-O2, -O3" на С++, но это помогло. С++ кажется всего лишь 50% производительности javascript в V8 и даже беднее CPython. Может ли кто-нибудь объяснить мне, если я пропустил некоторую оптимизацию в GCC или это так? Большое вам спасибо.