Почему циклы для memset() в 1 и 10 миллионов раз стоят одинаково?

Вот мой код:

#include <iostream>
#include <sys/time.h>
#include <string.h>

using namespace std;

int main()
{
    char* a = (char*)malloc(1024);
    int times = 10000000;
    struct timeval begin, end;
    gettimeofday(&begin, NULL);
    for(int i=0; i<times; i++){
        memset(a, 1, 1024);
    }
    gettimeofday(&end, NULL);
    cout << end.tv_sec - begin.tv_sec << "." << end.tv_usec - begin.tv_usec << endl;
    return 0;
}

Когда я устанавливаю время на 1M, выход составляет около 0,13 секунды, однако, когда я устанавливаю время на 10M, выход все еще составляет около 0,13 секунды. Что вызывает такое обстоятельство? Это связано с оптимизацией Linux или компилятора?

1 ответ

Решение

ОБНОВЛЕНИЕ: оптимизация отключена

Я думаю, вам нужно использовать более точный chrono вместо time.h и отключить оптимизацию компилятора:

#include <iostream>
#include <string.h>
#include <chrono>

#ifdef __GNUC__
    #ifdef __clang__
        static void test() __attribute__ ((optnone)) {
    #else
        static void __attribute__((optimize("O0"))) test() {
    #endif
#elif _MSC_VER
    #pragma optimize( "", off )
        static void test() {
#else
    #warning Unknow compiler!
        static void test() {
#endif

    char* a = (char*) malloc(1024);

    auto start = std::chrono::steady_clock::now();
    for(uint64_t i = 0; i < 1000000; i++){
        memset(a, 1, 1024);
    }
    std::cout<<"Finished in "<<std::chrono::duration<double, std::milli>(std::chrono::steady_clock::now() - start).count()<<std::endl;
}

#ifdef _MSC_VER
    #pragma optimize("", on)
#endif

int main() {
    test();

    return 0;
}

10M: закончено в 259.851 1M: закончено в 26.3928

Другие вопросы по тегам