This commit is contained in:
2026-03-16 17:40:54 +03:00
parent 23ac524a4f
commit 05f05a8a96
3 changed files with 8 additions and 0 deletions

View File

@@ -48,6 +48,8 @@ sacct -j <JOBID_CUDA> --format=JobID,JobName,Partition,State,Start,End,Elapsed,N
В текущей конфигурации СКЦ в `tornado-k40` GPU выбирается самим разделом, поэтому в `slurm`-скрипте не используется `--gres=gpu:1`. Сам скрипт запускается из `SLURM_SUBMIT_DIR`, как в рабочем примере из методички, чтобы сборка и логи всегда шли именно в `~/supercomputers/task1`, а не во временную директорию Slurm.
Модули `compiler/gcc/11` и `nvidia/cuda/11.6u2` загружаются прямо внутри `run_cuda.slurm` до запуска программы. Это важно: если загрузить их только в отдельном `build.sh`, бинарник может собраться с новой `libstdc++`, а запускаться уже с системной, что даёт ошибки вида `GLIBCXX_* not found`.
После завершения посмотри:
```bash

View File

@@ -12,6 +12,10 @@ set -euo pipefail
cd "${SLURM_SUBMIT_DIR}"
ROOT_DIR="${SLURM_SUBMIT_DIR}"
module purge
module load compiler/gcc/11
module load nvidia/cuda/11.6u2
mkdir -p results bin
./scripts/build.sh

View File

@@ -13,6 +13,8 @@ set -euo pipefail
cd "${SLURM_SUBMIT_DIR}"
ROOT_DIR="${SLURM_SUBMIT_DIR}"
module purge
mkdir -p results
LINPACK_DIR="${LINPACK_DIR:-/linux/share/mkl/benchmarks/linpack}"