2014-01-07 4 views
11

Я пишу библиотеку, которая использует системные вызовы асинхронного ввода-вывода Linux и хотела бы знать, почему функция io_submit демонстрирует плохое масштабирование файловой системы ext4. Если возможно, что я могу сделать, чтобы получить io_submit, чтобы не блокировать большие размеры запросов ввода-вывода? Я уже делаю следующее (как описано here):Linux AIO: Плохое масштабирование

  • Использование O_DIRECT.
  • Совместите буфер ввода-вывода с 512-байтной границей.
  • Установите размер буфера на кратное размеру страницы.

Для того, чтобы наблюдать, как долго ядро ​​проводит в io_submit, я провел тест, в котором я создал один тестовый Gb файл, используя dd и /dev/urandom, и несколько раз уронил системный кэш (sync; echo 1 > /proc/sys/vm/drop_caches) и читать все более крупные части файла. На каждой итерации я печатал время, отсчитываемое io_submit, и время, ожидаемое для завершения запроса на чтение. Я провел следующий эксперимент в системе x86-64 под управлением Arch Linux с версией ядра 3.11. Машина имеет SSD и процессор Core i7. На первом графике отображается количество прочитанных страниц относительно времени ожидания io_submit. Второй график отображает время ожидания ожидающего завершения запроса на чтение. Время измеряется в секундах.

enter image description here

enter image description here

Для сравнения, я создал подобный тест, который использует синхронную IO с помощью pread. Вот результаты:

enter image description here

кажется, что асинхронный IO работает как ожидается, до запросить размеры около 20000 страниц. После этого io_submit блоков. Эти наблюдения привели к следующим вопросам:

  • Почему не время исполнения io_submit?
  • В чем причина этого плохого масштабирования?
  • Нужно ли разделить все запросы на чтение файловых систем ext4 на несколько запросов, каждый из которых составляет менее 20 000 страниц?
  • Откуда это «магическое» значение 20 000? Если я запустил свою программу в другой системе Linux, как я могу определить самый большой размер запроса ввода-вывода для использования, не испытывая плохого поведения масштабирования?

Код, используемый для проверки асинхронного ввода-вывода, приведен ниже. Я могу добавить другие списки источников, если вы считаете их релевантными, но я попытался опубликовать только те детали, которые, как я думал, могут иметь значение.

#include <cstddef> 
#include <cstdint> 
#include <cstring> 
#include <chrono> 
#include <iostream> 
#include <memory> 
#include <fcntl.h> 
#include <stdio.h> 
#include <time.h> 
#include <unistd.h> 
// For `__NR_*` system call definitions. 
#include <sys/syscall.h> 
#include <linux/aio_abi.h> 

static int 
io_setup(unsigned n, aio_context_t* c) 
{ 
    return syscall(__NR_io_setup, n, c); 
} 

static int 
io_destroy(aio_context_t c) 
{ 
    return syscall(__NR_io_destroy, c); 
} 

static int 
io_submit(aio_context_t c, long n, iocb** b) 
{ 
    return syscall(__NR_io_submit, c, n, b); 
} 

static int 
io_getevents(aio_context_t c, long min, long max, io_event* e, timespec* t) 
{ 
    return syscall(__NR_io_getevents, c, min, max, e, t); 
} 

int main(int argc, char** argv) 
{ 
    using namespace std::chrono; 
    const auto n = 4096 * size_t(std::atoi(argv[1])); 

    // Initialize the file descriptor. If O_DIRECT is not used, the kernel 
    // will block on `io_submit` until the job finishes, because non-direct 
    // IO via the `aio` interface is not implemented (to my knowledge). 
    auto fd = ::open("dat/test.dat", O_RDONLY | O_DIRECT | O_NOATIME); 
    if (fd < 0) { 
     ::perror("Error opening file"); 
     return EXIT_FAILURE; 
    } 

    char* p; 
    auto r = ::posix_memalign((void**)&p, 512, n); 
    if (r != 0) { 
     std::cerr << "posix_memalign failed." << std::endl; 
     return EXIT_FAILURE; 
    } 
    auto del = [](char* p) { std::free(p); }; 
    std::unique_ptr<char[], decltype(del)> buf{p, del}; 

    // Initialize the IO context. 
    aio_context_t c{0}; 
    r = io_setup(4, &c); 
    if (r < 0) { 
     ::perror("Error invoking io_setup"); 
     return EXIT_FAILURE; 
    } 

    // Setup I/O control block. 
    iocb b; 
    std::memset(&b, 0, sizeof(b)); 
    b.aio_fildes = fd; 
    b.aio_lio_opcode = IOCB_CMD_PREAD; 

    // Command-specific options for `pread`. 
    b.aio_buf = (uint64_t)buf.get(); 
    b.aio_offset = 0; 
    b.aio_nbytes = n; 
    iocb* bs[1] = {&b}; 

    auto t1 = high_resolution_clock::now(); 
    auto r = io_submit(c, 1, bs); 
    if (r != 1) { 
     if (r == -1) { 
      ::perror("Error invoking io_submit"); 
     } 
     else { 
      std::cerr << "Could not submit request." << std::endl; 
     } 
     return EXIT_FAILURE; 
    } 
    auto t2 = high_resolution_clock::now(); 
    auto count = duration_cast<duration<double>>(t2 - t1).count(); 
    // Print the wait time. 
    std::cout << count << " "; 

    io_event e[1]; 
    t1 = high_resolution_clock::now(); 
    r = io_getevents(c, 1, 1, e, NULL); 
    t2 = high_resolution_clock::now(); 
    count = duration_cast<duration<double>>(t2 - t1).count(); 
    // Print the read time. 
    std::cout << count << std::endl; 

    r = io_destroy(c); 
    if (r < 0) { 
     ::perror("Error invoking io_destroy"); 
     return EXIT_FAILURE; 
    } 
} 
+2

Пробовал ли вы один и тот же тест со старой версией ядра? Например, 3.4? Я говорю только для того, чтобы убедиться, что это связано не с недавней, но еще не обнаруженной ошибкой в ​​ядре. – Shahbaz

+0

@Shahbaz Нет, еще нет - спасибо за предложение. Я сделаю это и снова отправлю сюда. –

+0

Я не понимаю ваш график. Похоже, что AIO после 20K страниц * работает в постоянном режиме *, а не в блоках. –

ответ

3

Я понимаю, что очень мало (если есть) файловых систем на Linux полностью поддерживает AIO. Некоторые операции с файловой системой все еще блокируются, а иногда io_submit() будет, косвенно через операции с файловой системой, вызывать такие блокирующие вызовы.

Мое понимание заключается в том, что основные пользователи ядра AIO в первую очередь заботятся о том, что AIO действительно асинхронен на необработанных блочных устройствах (то есть нет файловой системы). по сути, поставщики баз данных.

Here's соответствующее сообщение из списка рассылки linux-aio. (head нити)

Возможное полезная рекомендация:

Добавить больше запросов через/SYS/блок/ххх/очереди/nr_requests и проблема будет лучше.

1

Вам не хватает цели использовать AIO в первую очередь. В ссылочном примере показана последовательность операций [fill-buffer], [write], [write], [write], ... [read], [read], [read], .... Фактически вы заполняете данные по трубе. В конце концов, труба заполняется, когда вы достигли предела пропускной способности ввода-вывода для вашего хранилища. Теперь вы заняты, ожидая, что проявляется в вашей линейной деградации производительности.

Прирост производительности для записи AIO заключается в том, что приложение заполняет буфер, а затем сообщает ядру начать операцию записи; управление возвращается к приложению сразу, а ядро ​​все еще владеет буфером данных и его содержимым; пока ядро ​​не завершит команду ввода-вывода, приложение не должно касаться буфера данных, потому что вы еще не знаете, какая часть (если таковая имеется) буфера фактически сделала его на носитель: измените буфер до ввода-вывода и вы повредили данные, выходящие на средства массовой информации.

И наоборот, коэффициент усиления от чтения AIO - это когда приложение выделяет буфер ввода-вывода, а затем сообщает ядру начать заполнять буфер. Управление немедленно возвращается в приложение, и приложение должно оставить только один буфер, пока ядро ​​не сообщит, что оно завершено буфером, отправив событие завершения ввода-вывода.

Таким образом, поведение, которое вы видите, является примером быстрого заполнения конвейера хранилищем. В конце концов данные генерируются быстрее, чем хранилище может сосать данные, а производительность падает до линейности, в то время как конвейер заправляется так быстро, как он опустеет: линейное поведение.

Пример программы использует AIO, но это все еще линейная программа остановки и ожидания.

+0

Цель оживленного ожидания в моей программе - определить, сколько времени ядро ​​проводит в функции' io_submit', а также время, затрачиваемое между представление запроса ввода-вывода и вставка запроса в очередь завершения. Я согласен с вами в том, что цель AIO - разрешить приложению делать другие полезные вещи, пока ядро ​​заполняет буфер. То, что показывают мои измерения, заключается в том, что Linux AIO на ext4 не подходит для этого, потому что почти все время проводится в самой функции 'io_submit'. –

+0

Приведенный пример также не использует конвейерную обработку: только одна операция чтения всегда отправляется. Запись/очистка кеша выполняется во внешнем скрипте перед запуском программы. Вся цель этого упражнения состояла в том, чтобы просто измерить, сколько времени занимает 'io_submit'. Пожалуйста, дайте мне знать, если вы все еще думаете, что я неправильно понял, что вы пытались мне сказать. Как бы то ни было, я думаю, что вы неверно истолковали то, что я пытался показать своим экспериментом. –

+2

Боюсь, что этот ответ не отражает проблему ОП. Ядро AIO перестанет работать асинхронно (если оно выполняется асинхронно вообще, оно все равно выполняется только при очень строгих ограничениях) в неочевидных условиях, таких как очередность нескольких запросов или очередность слишком большой. Это то, что я испытал. Причина в том, что (согласно тому, что мне было сказано тогда), очередь запросов конечного размера и разделение слишком больших запросов. Таким образом, ядро ​​AIO просто не работает (в смысле асинхронности). – Damon