Dostępna jest nowa wersja modułu dla programu GROMACS na superkomputerze LEM (na partycji lem-gpu).
GROMACS/2024.6-foss-2023b-CUDA-12.4.0
Z dniem 16.03.2026 z Superkomputera Bem2 (partycje bem2-cpu, bem2-cpu-short, bem2-cpu-normal, bem2-cpu-interactive) zostały wycofane następujące moduły pakietu VASP:
VASP/5.4.4-intel2021a VASP/5.4.4-patch4-intel2021a VASP/5.4.4-vtst198-intel2021a VASP/5.4.4-wannier90-intel2021a)Wersja VASP 5.4.4 jest dostępna na Superkomputerze LEM (moduł: VASP/5.4.4-gcc-13.3.0, partycje lem-cpu, lem-cpu-short, lem-cpu-normal, lem-cpu-interactive) i jest na bieżąco uaktualniana oraz optymalizowana pod kątem wydajności.
Z dniem 16.03.2026 z Superkomputera Bem2 (partycje bem2-cpu, bem2-cpu-short, bem2-cpu-normal, bem2-cpu-interactive) zostaną wycofane następujące pakiety obliczeniowe:
VASP/5.4.4-intel2021a VASP/5.4.4-patch4-intel2021a VASP/5.4.4-vtst198-intel2021a VASP/5.4.4-wannier90-intel2021a)Powyższe wersje programów są dostępne na Superkomputerze LEM (partycje lem-cpu, lem-cpu-short, lem-cpu-normal, lem-cpu-interactive) i są na bieżąco uaktualniane oraz optymalizowane wydajnościowo.
Wdrożono nowy uproszczony mechanizm do opcjonalnego usuwania katalogów TMPDIR po zakończeniu zadania.
Jeśli użytkownik nie ma potrzeby przechowywania katalogu TMPDIR po zakończeniu zadania (niezależnie od tego czy zakończyło się poprawnie lub niepoprawnie), istnieje możliwość wywołania usunięcia katalogu TMPDIR po zakończeniu zadania za pomocą opcji srun/sbatch: --extra=FORCE_RM_TMPDIR.
Więcej informacji można znaleźć w dokumentacji.
Zaktualizowano serwery superkomputerze LEM:
09.02.2026 w godzinach 9:00-10:00 odbędzie się przerwa serwisowa serwera ui.wcss.pl w celu przeprowadzenia niezbędnych aktualizacji. Serwer w tym czasie będzie niedostepny dla użytkowników.
W 05.02.2026 (czwartek) zostanie przeprowadzona aktualizacja oprogramowania na superkomputerze LEM:
Zmiana dotyczyć będzie jedynie nowych zadań, a dotychczasowe zadania nie będą zakłócone.
Zaktualizowano system kolejkowy SLURM do wersji 25.11.2.
Lista zmian w oprogramowaniu jest dostępna tutaj.
lem-cpu oraz lem-gpu), możliwy wydłużony czas oczekiwania na uruchomienie nowych zadań do czasu skończenia prac serwisowych;squeue, sacct) oraz kolejkowaniem nowych zadań (komendy sbatch, srun);Z dniem 12.01.2026 z Superkomputera Bem2 (partycje bem2-cpu, bem2-cpu-short, bem2-cpu-normal, bem2-cpu-interactive) zostaną wycofane następujące pakiety obliczeniowe:
VASP/6.2.0-intel2021a, VASP/6.4.0-intel2022a, VASP/6.4.2-16Feb24-intel2022a, VASP/6.4.2-intel2022a, VASP/6.5.0-intel2022a)ORCA/6.0.0-gompi-2023a-avx2, ORCA/6.0.1-gompi-2023b-avx2)GROMACS/2023.3-foss-2023a)Powyższe wersje programów są dostępne na Superkomputerze LEM (partycje lem-cpu, lem-cpu-short, lem-cpu-normal, lem-cpu-interactive) i są na bieżąco uaktualniane oraz optymalizowane wydajnościowo.
Przerwa serwisowa komputera kwantowego zostanie wydłużona do 13.01.2026.
Przepraszamy za utrudnienia.
W związku z wymaganą przerwą serwisową, dostęp do komputera kwantowego Odra5 będzie niemożliwy do 9 stycznia 2026 roku.
Przepraszamy za utrudnienia.
Zmiana domyślnej partycji SLURM z bem2-cpu na lem-cpu.
Zadania zlecone bez podania partycji SLURM (opcja -p <PARTITIONNAME>) zostaną zakolejkowane do partycji lem-cpu. Wersje oprogramowania w udostępnianych modułach mogą się nieznacznie różnić.
Dostępna jest nowa wersja modułu dla programu ORCA na superkomputerze LEM (na partycji lem-cpu).
ORCA/6.1.1-gompi-2023b-avx2
Jest to domyślna wersja do obliczeń na superkomputerze LEM po uruchomieniu skryptu sub-orca.
Uruchomiono nową usługę "Przetwórz na komputerze kwantowym", która umożliwia wykonywanie algorytmów kwantowych oraz realizację eksperymentów impulsowych na rzeczywistych komputerach kwantowych, w tym na pierwszym w Polsce komputerze kwantowym “Odra5” wykorzystującym technologię nadprzewodników, uruchomionym w WCSS na Politechnice Wrocławskiej.
Odra 5 to pięciokubitowy komputer IQM Spark, wykonany przez fińską firmę IQM i oparty na niskotemperaturowych kubitach nadprzewodzących, który otwiera nowe mozliwości badawcze w dziedzinie informatyki i technologii kwantowych.
W ramach usługi "Przetwórz na komputerze kwantowym" użytkownicy mogą uruchamiać własne algorytmy kwantowe, korzystając z dedykowanych bibliotek, takich jak Qiskit, Qrisp oraz Cirq. Istnieje również możliwość niskopoziomowego sterowania procesorem kwantowym Odra 5 za pomocą modułów IQM Pulla oraz IQM Exa.
Dodatkowo usługa umożliwia ograniczony dostęp do komputerów kwantowych udostępnianych w ramach chmurowej usługi IQM Resonance, takich jak IQM Emerald (54 kubity), IQM Garnet (20 kubitów), IQM Sirius (16 kubitów).
Naukowcy i studenci zainteresowani dostępem do komputera kwantowego Odra5 mogą składać wnioski o uruchomienie usługi "Przetwórz na komputerze kwantowym" za pośrednictwem platformy e-science.pl, wypełniając formularz dostępny pod poniższym linkiem:
Nowy system plików Lustre TMPDIR z superkomputera Lem został udostępniony również węzłom obliczeniowym superkomputera Bem2. Oznacza to, że system plików Lustre TMPDIR jest od teraz wspólny dla superkomputerów Bem2 i Lem.
Dotychczasowy system plików Lustre TMPDIR na superkomputerze Bem2 będzie dostępny do końca roku wyłącznie w trybie tylko do odczytu na serwerze ui.wcss.pl pod ścieżką /lustre/tmp-bem2 (np. w celu odzyskania danych z katalogów TMPDIR z aktualnie trwających zadań na partycjach bem2-cpu-short lub bem2-cpu-normal).
Więcej informacji na temat systemu TMPDIR można znaleźć w dokumentacji
Dodano moduł NAMD/3.0.2-foss-2025a-CUDA-12.8.0 na partycji lem-gpu.
Zaktualizowano system kolejkowy SLURM do wersji 25.05.4.
Lista zmian w oprogramowaniu jest dostępna tutaj.
W dniu 20 października Cyfronet ogłosił konkurs na regularny dostęp do zasobów LUMI.
Oficjalna informacja o konkursie dostępna jest na stronie Cyfronetu
Dodano moduł crystal/17.1.0.2-gfortran-9.3 na partycji lem-cpu. Skorzystać z modułu można za pomocą unowocześnionego skryptu sub-crystal. Nowy skrypt jest niekompatybilny z partycją bem2-cpu.
Obliczenia wykonują się teraz na $TMPDIR a w celu pobrania z katalogu roboczego plików należy skorzystać z opcji -C, np:
sub-crystal -c 32 -m 200 test.d12 -C "test.f9*"
Dodano flagę --exec umożliwiającą wybranie pliku wykonywalnego dla obliczeń.
Dodano dwa nowe skrypty:
sub-vasp-6.4.3
sub-vasp-6.5.1
Których celem jest lepsza obsługa VASP na superkomputerze Lem, w szczególności zadań wielowęzłowych.
Obliczenia wykonują się teraz na $TMPDIR a do polecenia należy podać wszystkie pliki wejściowe, np:
sub-vasp-6.5.1 -c 128 -n 2 -m 1400 INCAR KPOINTS POSCAR POTCAR
Flaga -B powinno być użyta w celu skopiowania zadanych plików po zakończeniu zdania do katalogu z którego wysłano zadanie.
Domyślne ustawienie dla $TMPDIR to lustre, jednak dla zadań jednowęzłowych stanowczo zaleca się korzystanie z local lub shm, np:
sub-vasp-6.5.1 -c 64 -n 1 -m 600 --gres=storage:local:500g INCAR KPOINTS POSCAR POTCAR
Trwają prace nad wersją vasp-gpu
Dodano ParaView w wersji 6.0. Dostępne poprzez platformę ood.e-science.pl .
Zaktualizowano system kolejkowy SLURM do wersji 25.05.2.
Między innymi aktualizacja naprawiła błąd z przekazywaniem X11, który dotyczył serwerów z partycji LEM.
Lista zmian w oprogramowaniu jest dostępna tutaj.
Zmieniono skrypt sub-psi4 wedle nowej konwencji analogicznej do skryptu sub-gaussian .
Pliki są teraz przenoszone na TMPDIR i tam wykonywane są obliczenia. Dokładne informacje na temat dostępnych opcji można uzyskać komendą sub-psi4 --help .
Dodano skrypt sub-openmolcas.
1. Zaktualizowano sub-fluent
Fluent kończy teraz obliczenia w przypadku napotkania błędu poprzez automatyczne dopisywanie na początku pliku dziennika:
/file/set-batch-options yes yes no
oraz
/exit yes
na jego końcu.
Przed rozpoczęciem obliczeń sub-fluent przenosi teraz wszystkie pliki do TMPDIR (wejściowy oraz podane flagą --copy np. domyślnie --copy="*.cas" ) a log jest zapisywany do oddzielnego pliku zamiast do pliku slurm.out.
2. Dodano nowe wersje programów cfx, fluent, workbench na partycji lem-cpu.
ansys/cfx/2025r1
ansys/fluent/2025r1
ansys/workbench/2025r1
Dostępna jest nowa wersja modułu dla programu CP2K na superkomputerze LEM.
CP2K/2025.2
Jest to domyślna wersja do obliczeń na superkomputerze LEM po uruchomieniu skryptu sub-cp2k.
Dostępna jest nowa wersja modułu dla programu SCM AMS na superkomputerze LEM.
AMS/2025.103
Na partycjach lem-cpu oraz lem-gpu zwiększono limit jednocześnie uruchomionych zadań ze 150 do 250 dla każdej Usługi "Przetwórz na superkomputerze". Dla partycji bem2-cpu limit ten został zmniejszony do 50 jednocześnie uruchomionych zadań - ograniczenie jest spowodowane rozwojem innych usług obliczeniowych
Zachęcamy do korzystania z najnowszych serwerów obliczeniowych superkomputera LEM.
Na partycjach lem-cpu oraz lem-gpu przekazywanie środowiska graficznego programów w zadaniach interaktywnych za pomocą X11 jest tymczasowo niedostępne z powodu błędu w najnowszej wersji systemu kolejkowania SLURM.
Aby uruchomić programy z graficznym środowiskiem na partycjach lem-cpu oraz lem-gpu należy skorzystać z portalu https://ood.e-science.pl i zakładki xterm.
Na węzłach obliczeniowych superkomputera LEM (partycje lem-cpu oraz lem-gpu) zaktualizowano system operacyjny do wersji AlmaLinux 9.6 wraz z systemowym oprogramowaniem i bibliotekami.
Dostępna jest nowa wersja modułu dla programu MOLPRO na superkomputerze LEM.
molpro/2025.2.0
Jest to domyślna wersja do obliczeń na superkomputerze LEM po uruchomieniu skryptu sub-molpro.
Dostępna jest nowa wersja modułu dla programu ORCA na superkomputerze LEM.
ORCA/6.1.0-gompi-2023b-avx2
Jest to domyślna wersja do obliczeń na superkomputerze LEM po uruchomieniu skryptu sub-orca.
Dostępna jest nowa wersja modułu dla programu Gaussian.
gaussian/16.C.02
Jednocześnie informujemy że wersja C.01 będzie wycofywana z superkomputera a wszystkie moduły Gaussian będą wycofywane z superkomputera Bem2.
Udostępniono nowy system plików Lustre TMP dla superkomputera LEM na współdzielone katalogi TMPDIR dla zadań wielowęzłowych.
Więcej informacji na temat systemu wyboru TMPDIR można znaleźć w dokumentacji.
Katalogi TMPDIR w systemie Lustre TMP są tworzone pod ścieżką TMPDIR=/lustre/tmp/slurm/$SLURM_JOB_ID.
Nowy system plików Lustre TMP jest dostępny na następujących partycjach SLURM:
lem-cpu-short, lem-cpu-normal, lem-cpu-interactivelem-gpu-short, lem-gpu-normal, lem-cpu-interactiveKatalogi tymczasowej przestrzeni dyskowej TMPDIR=/lustre/tmp/slurm/$SLURM_JOB_ID są dostępne jedynie z poziomu zadań SLURM i nie są od razu widoczne po zalogowaniu na serwer ui.wcss.pl. Aby przejrzeć pliki pod TMPDIR należy najpierw uruchomić sesję interaktywną za pomocą komendy sub-interactive (dla superkomputera Bem2) lub sub-interactive-lem-cpu (dla superkomputera LEM).
W przypadku zadań wielowęzłowych, Lustre TMP jest domyślnym systemem plików, na którym tworzony jest katalog TMPDIR.
Aby korzystać z systemu plików Lustre TMP w dowolnym zadaniu (tzn. innym niż wielowęzłowe), przy zlecaniu zadania za pomocą komend srun lub sbatch należy użyć opcji --gres=storage:lustre:1.
Uwaga! Korzystanie z systemu Lustre TMP na superkomputerze LEM dla zadań jednowęzłowych jest niewskazane!
Superkomputer Bem2 (partycje bem2-cpu-short i bem2-cpu-normal) oraz superkomputer LEM posiadają swoje odrębne tymczasowe systemy plików Lustre - katalogi pod ściezką /lustre/tmp z superkomputera Bem2 nie są dostępne na superkomputerze LEM i vice versa.
Umożliwiono przechowywanie katalogu TMPDIR po zakończeniu zadania, również dla tych zadań, które korzystały z lokalnych TMPDIR.
Katalog TMPDIR jest przechowywany przez kolejne 14 dni po zakończeniu zadania.
Zachowane katalogi TMPDIR znajdują się pod ścieżką /lustre/tmp/slurm/finished_jobs/${SLURM_JOB_ID} i są dostępne jedynie z poziomu węzłów obliczeniowych tego samego superkomputera, na którym były liczone (Bem2 lub LEM).
Wprowadzono nową wersje komendy sub-gaussian do zlecania zadań dla programu Gaussian16.
Aby uzyskać pomoc na temat korzystania z komendy, należy użyć komendy bez dodatkowych argumentów lub z opcją --help.
Istotne zmiany w funkcjonowaniu komendy:
lem-cpu$TMPDIR. Dodatkowe pliki należy przekazywać za pomocą opcji --copy.chk generowane w TMPDIR nie będą automatycznie kopiowane do SLURM_SUBMIT_DIRTMPDIR domyślnego dla danej partycji:
lem-cpu - lokalny **TMPDIR**, z domyślnym limitem na zajętość 200G (możliwy do zmiany za pomocą opcji --gres=storage:local:<QUOTA>)bem2-cpu - współdzielony TMPDIR na Lustre TMP (bez ograniczeń na zajętość)Więcej informacji na temat systemu wyboru TMPDIR można znaleźć w dokumentacji.
Udostępniono nowe serwery CPU superkomputera LEM, wyposażone m.in. w procesory AMD EPYC 9554 i dyski NVME (przeznaczone na lokalne katalogi TMPDIR).
Szczegołowe informacje na temat aktualnych partycji SLURM można znaleźć w dokumentacji.
Utworzono nowe partycje lem-cpu-short i lem-cpu-normal z nowymi serwerami CPU superkomputera LEM.
Aby zlecić zadanie należy podać opcję srun/sbatch -p lem-cpu.
Zachęcamy do korzystania z tych partycji szczególnie w przypadku programów obliczeniowych takich jak Gaussian lub ORCA.
Uwaga! Aktualnie, serwery z partycji **lem-cpu-short** i **lem-cpu-normal** nie posiadają dostępu do wspóldzielonego systemu Lustre TMP na katalogi TMPDIR. Planowane jest udostępnienie tego systemu plików jest w niedalekiej przyszłości.
Obecnie, na partycjach Lem CPU możliwe jest korzystanie jedynie z lokalnych katalogów TMPDIR tworzonych na dyskach NVME. Dostępne są dwie konfiguracje serwerów Lem CPU: z maksymalną pojemnością NVME 1700GB lub 3400GB.
Więcej informacji na temat nowego systemu wyboru TMPDIR można znaleźć w dokumentacji.
Udostępniono nową komendę sub-interactive-lem-cpu do zlecania zadań interaktywnych korzystających z węzłów Lem CPU.
Zestaw oprogramowania udostępniany w postaci modułów jest inny na partycjach Lem CPU i Bem2 CPU (dostępne oprogramowanie na każdej z partycji można wyświetlić za pomocą komendy module avail). W przypadku braku danego modułu na partycji Lem CPU można skontaktować się z administratorami pisząc na helpdesk@e-science.pl.
Udostępniono nowe zasoby obliczeniowe superkomputera LEM, który znajduje się w pierwszej setce najszybszych superkomputerów na świecie z rankingu TOP500 (https://top500.org/system/180272/).
Szczegołowe informacje na temat aktualnych partycji można znaleźć w dokumentacji.
Utworzono nowe partycje lem-gpu-short i lem-gpu-normal z serwerami wyposażonymi w GPU NVIDIA H100. Zadania zlecone w tych partycjach wymagają dostępu do Usługi “Przetwórz na superkomputerze” posiadającej niewykorzystane GPU godziny oraz alokacji przynajmniej jednej karty GPU (opcja **--gres=gpu:hopper:1**).
Więcej informacji na temat prowadzenia obliczeń z wykorzystaniem GPU znajduje się w dokumentacji.
Zmieniono nazewnictwo dotychczasowych partycji SLURM:
short → bem2-cpu-shortnormal → bem2-cpu-normalinteractive → bem2-cpu-interactiveZasady korzystania z partycji pozostały niezmienne.
Wprowadzono mechanizm do automatycznego rozdzielania zadania do partycji *-short oraz ***-normal na podstawie deklarowanego czasu trwania zadania. Dzięki temu użytkownicy nie muszą sami pamiętać o alokowaniu zadań w odpowiedniej partycji*-short lub*-normal .
Przy zlecaniu zadania komendą srun lub sbatch wystarczy podać odpowiednią nazwę -p <PARTYCJA> (np. -p bem2-cpu):
bem2-cpu → rozdziela zadania pomiędzy bem2-cpu-short oraz bem2-cpu-normallem-gpu → rozdziela zadani pomiędzy lem-gpu-short oraz lem-gpu-normalWprowadzono możliwość wyboru rodzaju katalogów tymczasowej przestrzeni dyskowej na obliczenia TMPDIR na potrzeby przetrzymywania plików tymczasowych. W zależności od wybranej partycji, dostępne są różne rodzaje katalogów TMPDIR:
Wyboru katalogu TMPDIR dokonuje się za pomocą opcji --gres=storage:<RODZAJ>:<ILOŚĆ>, podając rodzaj i maksymalną ilość miejsca dla wybranego typu katalogu TMPDIR. W przypadku braku wyboru rodzaju katalogu TMPDIR przydzielane są domyślne katalogi TMPDIR, które są dobierane na podstawie wybranej partycji.
Więcej informacji na temat nowego systemu wyboru TMPDIR można znaleźć w dokumentacji.
Udostępniono nową komendę sub-interactive-lem-gpu do zlecania zadań interaktywnych korzystających z GPU.
Zmieniono ilość dostępnej pamięci dla zadań SLURM z partycji bem2-cpu-short oraz bem2-cpu-normal (dawnych partycji short oraz normal) ze 183G/372G na 177G/357G. Aktualnie, ilość dostępnej pamięci dla zadań SLURM wynosi 95% całkowitej pamięci węzłów obliczeniowych.
Więcej informacji na temat możliwie maksymalnej ilości zasobów per węzeł dla zadań SLURM można znaleźć w dokumentacji.
Zaktualizowano system kolejkowy SLURM do wersji 24.11.3.
Aktualizacja nie wnosi znaczących zmian z perspektywy użytkownika i dotyczy głównie mechanizmów działania kontrolerów slurm.
Jej celem jest przede wszystkim poprawa stabilności działania systemu kolejkowego oraz rozwiązanie znanych problemów, które zostały zauważone również w WCSS, na przykład problemów z uruchamianiem komendy srun wewnątrz zadań.
Lista zmian w oprogramowaniu jest dostępna tutaj.
SCM organizuje serię darmowych webinariów związanych z wykorzystaniem AMSa w badaniach naukowych. Tematyka to:
Link do strony:
https://www.scm.com/news/join-the-third-edition-of-the-amsterdam-modeling-suite-webinar-series/
Zakończono aktualizację oraz modernizację węzła dostępowego ui.wcss.pl.
Podczas próby połączenia ssh pojawi się komunikat "WARNING: REMOTE HOST IDENTIFICATION HAS CHANGED!":
W razie wystąpienia problemów, prosimy o kontakt z centrum pomocy pod adresem helpdesk@e-science.pl.
Strona internetowa serwisu HPC Info: https://hpc-info.kdm.wcss.pl
Serwis HPC Info służy do monitorowania zużycia zasobów obliczeniowych przez użytkowników superkomputera w ramach usługi "Przetwórz na superkomputerze".
Użytkownicy serwisu mają wygodny dostęp do takich informacji jak:
Więcej informacji znajduje się w dokumentacji HPC Info.
Strona internetowa platformy Open OnDemand: https://ood.e-science.pl
Platforma Open OnDemand została utworzona, aby uprościć dostęp do zasobów superkomputera przez interfejs webowy. Umożliwia ona użytkownikom m.in. uruchamianie wybranych aplikacji, przesyłanie plików oraz monitorowanie zadań.
Szczegółowe informacje znajdują się w instrukcji Open OnDemand.
Katalogi TMPDIR=/lustre/tmp/slurm/$SLURM_JOB_ID są przetrzymywanie 14 dni po zakończeniu zadania (o każdym statusie zakończenia) i są dostępne jedynie dla swoich właścicieli. Po tym czasie katalogi **$TMPDIR** są automatycznie usuwane.
Wprowadzony mechanizm ma za zadanie między innymi umożliwić restart nieudanych lub przerwanych obliczeń z plików restartowych (jeśli są dostępne) lub uruchamianie kolejnych obliczeń na podstawie wyników z poprzednich obliczeń, bez konieczności przenoszenia danych pomiędzy katalogiem domowym $HOME lub katalogiem z Przestrzeni Dyskowej (PD).
UWAGA! Kopie zapasowe katalogów w przestrzeni tymczasowej
**/lustre/tmp**nie są wykonywane. Zawartość systemu plików/lustre/tmpnie jest w żaden sposób zabezpieczana przez WCSS i może zostać w każdej chwili skasowana lub utracona bez ostrzeżenia. Użytkownicy powinni zabezpieczać ważne wyniki we własnym zakresie.
Najnowsza wersja pakietu SCM AMS 2024.102 dostępna na Bem2. Więcej informacji w artykule.
Naprawiono problemy związane z licencją AMS oraz korzystaniem ze skryptu sub-ams-2023.104
Najnowsza wersja pakietu TURBOMOLE 7.8 dostępna na Bem2. Więcej informacji w artykule.
Zmiana ścieżek artykułów dotyczących Komputerów Dużej Mocy z /pl/kdm/bem2/..... na /pl/kdm/.....
Przykład:
https://man.e-science.pl/pl/kdm/bem2/dostep -> https://man.e-science.pl/pl/kdm/dostep
Na superkomputerze rozpoczęto rejestr zużycia zasobów przez wszystkie Usługi “Przetwórz na superkomputerze”.
Aby sprawdzić stan zużycia zasobów przez dostępne usługi, po zalogowaniu na superkomputer należy skorzystać z komendy `service-balance`.
Podstawowe zasady funkcjonowania nowego systemu rejestrowania zużycia zasobów:
Więcej informacji znajduje się w dokumentacji Rejestr zużycia zasobów.
Wprowadzono limity schedulera na wywołania RPC od użytkowników.
Limity to:
Wprowadzenie limitów ma za zadanie usprawnić działanie schedulera, uniemożliwić przeciążenia oraz ataki na system przez wysyłanie nadmiernej ilości zapytań do serwera w krótkim czasie.
squeue, sinfo, srun, sbatch, scancel itd.Przykład: jeśli użytkownik zleci 150 zadań w pętli bash, 50 zostanie zleconych natychmiast, pozostałe 100 będzie zlecane po 2 zadania na sekundę. Zatem cała operacja potrwa około 200 sekund.
Dostępna nowa wersja pakietu NBO 7, więcej informacji w artykule.
Utworzono nową partycję “interactive” w systemie kolejkowania SLURM, dedykowaną krótkim zadaniom interaktywnym.
W przypadku partycji "interactive", nałożono następujące limity zasobów obliczeniowych per użytkownik:
-t 6:00:00)-c 24)-N 2)--mem 45GB)Aby rozpocząć zadanie interaktywne na partycji "interactive", przy wywoływaniu komendy srun należy użyć dodatkowych opcji -p interactive -q interactive -A kdm. Przykładowo:
$ srun -N 1 -c 1 -t 01:00:00 -p interactive -q interactive -A kdm --pty /bin/bash
Więcej informacji na temat uruchamiania zadań interaktywnych znajduje się w Sekcji Uruchamianie zadań.
Ponownie dostępny jest pakiet SCM AMS w tym: ADF, BAND, DFTB, REAXFF.
Zadania można zlecać używając skryptu sub-ams-2022.103
26.02.2024 wyłączony został serwis FTP pod adresem ftp.kdm.wcss.pl.
Oprogramowanie z FTP zostało udostępnione na platformie nextcloud.e-science.pl w katalogu kdm-software.
Wszyscy aktywni użytkownicy superkomputera mają dostęp do zasobu.
Wprowadzono mechanizm automatycznego czyszczenia katalogów $tmpdir zadań które z różnych przyczyn zakończyły się niepowodzeniem, lub system kolejkowy nie potrafił prawidłowo zakończyć.
Pliki tymczasowe takich zadań przechowywane są w katalogu /lustre/tmp/slurm/missing_jobs/ i dostępne dla użytkowników przez 21 dni. Po tym czasie są automatycznie usuwane.
Zaktualizowano system kolejkowy SLURM do wersji 23.11.3.
Aktualizacja nie wnosi zmian z perspektywy użytkownika i dotyczy głównie mechanizmów działania kontrolerów slurm.
Jej celem jest przede wszystkim poprawa stabilności działania systemu kolejkowego oraz rozwiązanie znanych problemów które zostały zauważone również w WCSS.
Lista zmian w oprogramowaniu jest dostępna tutaj.
Udostępniono dedykowane zasoby pamięci dyskowej na długoterminowe przechowywanie danych, zwane jako Przestrzeń Dyskowa (PD). Na superkomputerze, każda Usługa “Przetwórz na superkomputerze” posiada jeden dedykowany katalog w Przestrzeni Dyskowej, zwany katalogiem PD, w którym wszyscy użytkownicy danej Usługi mogą długoterminowo przechowywać swoje dane i bezpośrednio dzielić je z innymi użytkownikami tej Usługi.
**PD-info**;/home/$USER;* Dla Usług Przetwórz na superkomputerze, dla których we wniosku nie sprecyzowano ilości pamięci dyskowej na katalog Przestrzeni Dyskowej oraz dla wszystkich Usług Przetwórz na superkomputerze rozpoczętych przed październikiem 2023 (tj. wprowadzeniem nowej wersji platformy E-SCIENCE.PL)
Więcej informacji znajduje się w dokumentacji Przestrzeń Dyskowa w ramach Usługi "Przetwórz na superkomputerze".
Program ORCA jest programem bardzo wymagającym w kwestii zasobów dyskowych a jego profil operacji I/O nie nadaje się do uruchamiania go na systemie plików LUSTRE.
W związku z tym wprowadzono zmiany w skryptach sub-orca:
--mem z 20G na 30G$TMPDIR z domyślnej /lustre/tmp/slurm/$SLURM_JOB*_*ID na /dev/shm/$SLURM_JOB_IDWprowadzone zmiany skutkują zdecydowanie większym zapotrzebowaniem zadań ORCA na pamięć RAM, dlatego zalecamy:
--mem dla swoich zadań.out pojawi się wpis z informacją oom-killer należy zadaniu dać jeszcze więcej pamięci RAMKorzyści płynące z tego rozwiązania dotyczą wszystkich użytkowników klastra:
Za kolejność uruchamiania zadań w systemach kolejkowych odpowiada tzw. “scheduler”.
W związku z prośbami użytkowników oraz dobrymi praktykami współdzielenia zasobów na klastrze wprowadziliśmy następujące zmiany:
W związku z powyższymi zmianami zadania interaktywne nie mają szans uruchomić się z opcją **-I**, uprzejmie prosimy zaprzestania używania tej opcji i cierpliwe oczekiwanie na przydzielenie zasobów dla zadań interaktywnych.
Jednocześnie informujemy, że trwają prace na kolejką interactive która znacznie skróci czas oczekiwania na zasoby dla zadań interaktywnych.
18.12.2023 zaktualizowaliśmy system kolejkowy do wersji 23.11.1.
Lista zmian w oprogramowaniu jest dostępna tutaj.
Trwają prace konfiguracyjne oraz obserwacje nowej wersji systemu kolejkowego. Zauważone problemy prosimy zgłaszać na helpdesk KDM.