Опашка за задачи

  • Изпращайте задачите си към опашката веднага, дори в нея да има стотици чакащи задачи (ваши или на други потребители). Не чакайте първо да се изпразни опашката — това може да не се случи скоро, ако други потребители я пълнят активно по същото време. Системата за честно споделяне на ресурсите работи като пренарежда чакащите в опашката задачи на всички потребители според използването на клъстера в миналото, а не като пречи на пускането на задaчи на тези, които са превишили отредения им дял. Използвайте възможността за известяване по електронната поща при започване и/или приключване на задачата.
  • Задаването на реалистичен период за изпълнение на вашата задача с помощта на ресурсния параметър h_rt ще позволи на планировчика да разпредели по-добре изпълнението на задачите Ви. Изчислителна система Physon разделя изпълнението на задачите по време на три типа:
  1. къси ( h_rt < 4 h)
  2. средни (4 h < h_rt < 48 h )
  3. дълги ( 48 h < h_rt < 168 h)
  4. свръх-дълги задачи (168 h < h_rt < 500 h) – този ресурс е забранен по подразбиране, свържете се със системния администратор на адрес hpc <AT> phys.uni-sofia.bg, за повече информация.

Паралелни програми (Open MPI)

  • Когато оценявате паметта, която програмата ви ще използва по време на изпълнението си, за да укажете правилна стойност на h_vmem, следва да имате предвид, че Open MPI използва известно количество допълнителна памет за буфериране на съобщенията. В зависимост от типа и големината на задачата, тази памет може да достигне до 800 MB на слот.
  • При пускане на дълги (над 48 часа) паралелни задачи, задължително указвайте параметър -q p_long.q. Така се заобикаля досадна грешка в системата за пакетно изпълнение на задачите. Без този параметър задачата ще остане в чакащото състояние qw докато не я изтриете или модифицирате с командата:
    qalter -q p_long.q номер-на-задачата
  • Програми които правят MPI_Alltoall извиквания като например разпределеното 2/3D FFT могат да повишат ефективността чрез следният параметър към mpirun:
    --mca coll_tuned_use_dynamic_rules 1 --mca coll_tuned_alltoallv_algorithm 2
    директивата заменят алгоритъма по подразбиране на MPI_Alltoall извикването.