== Formato básico de un fichero slurm == Un fichero slurm no es más que un shell script que mediante una cabecera de líneas de comentario, instruye a slurm sobre las características del trabajo a realizar, y mediante unas líneas de órdenes lanza los procesos en sí. A los ficheros slurm se le suele poner la extensión {{{.slurm}}}, pero es algo convencional y no obligatorio. De esa manera podríamos tener un fichero slurm que se llamara {{{trabajo-uno.slurm}}} El caso más sencillo de uso sería algo así: {{{ #!/bin/bash #SBATCH -J hello #SBATCH -p normal #SBATCH -o hello-%j-%a.out #SBATCH --array=1-10 # Ejecutar un script python con un argumento srun python hello-parallel-fast.py $SLURM_ARRAY_TASK_ID }}} La primera línea nos indica que se trata de un fichero a ser interpretado por el bash. Vemos como todas las líneas de comentario siguientes van dirigidas para ser preprocesadas por el comando {{{sbatch}}} que veremos en otro apartado. Son las siguientes: - -J le da nombre al trabajo tal como se verá en la cola. - -p especifica la partición que se usará para el trabajo, {{{normal}}} o {{{fat}}} en nuestro caso. - -o especifica el nombre de los ficheros de salida para cada una de las ejecuciones. Se pueden usar variables como {{{%j}}} que se sustituirá por el nombre del trabajo o {{{%a}}} que se sustituye por la iteración de la ejecución del array. - --array especifica el número de iteraciones que se realizarán, de 1 a 10 en este caso, pudiendo usar el valor del array como argumento de nuestro programa. Al final viene la línea que ejecuta nuestro proceso en sí. Se precede por el comando {{{srun}}} y simplemente ejecuta el programa python {{{hello-parallel-fast.py}}} pasándole como argumento el identificador de la ejecución del array que se trate, que como hemos dicho irá de uno a diez. '''Al invocar el fichero con {{{sbatch trabajo-uno.slurm}}}, el gestor de colas mandará diez veces el mismo proceso a diez nodos diferentes de la partición normal de nuestro cluster. ''' Si nuestro programa en python necesita muy poca memoria y un solo procesador, es evidente que estamos desperdiciando muchos recursos reservando 10 nodos para este trabajo, que se puede dilatar durante muchas horas o días. Es por ello que en la parte de "casos de uso" veremos como poder afinar más en la selección de recursos para no acaparar nosotros solos todos los nodos.