SPIS TREŚCI

WSTĘP. 1

RANKING TOP500. 2

Supercomputer Fugaku. 2

Prometheus. 3

Summit 5

Sunway TaihuLight 7

PERSPEKTYWY ROZWOJU SUPERSZYBKICH KOMPUTERÓW.. 7

PROBLEMY ROZWIĄZYWANE DZIĘKI SUPERKOMPUTEROM.. 8

ISTOTA SZYBKIEGO PROCESORA, JEGO LICZBY, PAMIĘCI OPERACYJNEJ I OPROGRAMOWANIA. 9

ŹRÓDŁA. 10

 

JAK ROZWIJAJĄ SIĘ MOŻLIWOŚCI SUPERKOMPUTERÓW?


WSTĘP

Na samym początku chcielibyśmy wyjaśnić, czym tak właściwie jest superkomputer. Jest to komputer znacznie przewyższający możliwościami powszechnie używane komputery, w szczególności dysponujący wielokrotnie większą mocą obliczeniową. Określenie pojawiło się w latach 60. XX w. w odniesieniu do komputerów produkowanych przez CDC (Control Data Corporation) i później przez Cray, które jest amerykańskim przedsiębiorstwem komputerowym. Były one produkowane w dziesiątkach egzemplarzy i  kosztowały po kilka milionów dolarów. Współcześnie większość superkomputerów to pojedyncze egzemplarze, zaprojektowane i  wyprodukowane na zamówienie, zazwyczaj z seryjnie produkowanych procesorów i innych podzespołów. Koszty ich produkcji sięgają miliarda dolarów. Postęp techniczny w dziedzinie informatyki powoduje, że każdy superkomputer staje się przestarzały w ciągu kilku lat i jego używanie przestaje być opłacalne. Maszyny zaliczane dwadzieścia lat temu do klasy superkomputerów miały wydajność porównywalną z dzisiejszymi urządzeniami przenośnymi. Superkomputery używane są głównie do przeprowadzania złożonych fizycznych symulacji, takich jak prognozowanie pogody, badania zmian klimatu, modelowanie reakcji chemicznych, badanie aerodynamiki samolotów czy badania procesów starzenia broni termojądrowej.


RANKING TOP500

TOP500 to strona internetowa przedstawiająca listę 500 superkomputerów uzyskujących najlepsze wyniki w teście LINPACK. Lista jest aktualizowana dwa razy w ciągu roku i prezentowana na dwóch konferencjach naukowych: w  czerwcu na ISC High Performance i w listopadzie na ACM/IEEE Supercomputing Conference. Na stronie umieszczane są również historyczne listy od 1993 roku, wraz ze statystykami pokazującymi min. położenie geograficzne prezentowanych superkomputerów, ich producentów, używane technologie, architekturę i przeznaczenie. Na podstawie danych historycznych pokazany jest też ogólny trend, pokazujący podwajanie się wyników superkomputerów średnio, co 14 miesięcy, zgodnie z prawem Moore'a.

Pierwsza dziesiątka rankingu z czerwca 2020 roku:

·        Supercomputer Fugaku (Japonia)

·        Summit (USA)

·        Sierra (USA)

·        Sunway TaihuLight (Chiny)

·        Tianhe-2A (Chiny)

·        HPC5 (Włochy)

·        Selene (USA)

·        Frontera (USA)

·        Marconi-100 (Włochy)

·        Piz Daint (Szwajcaria)


Supercomputer Fugaku

Przedstawienie i ogólne informacje:

Nazwa ,,Fugaku’’ pochodzi od alternatywnej nazwy góry Fudżi. Ten superkomputer znajduje się i jest wykorzystywany w instytucie badawczym Riken w Kobe w Japonii. Niewyobrażalna moc obliczeniowa komputera, umożliwia mu m.in. opracowanie wytycznych na potrzeby rządu i firm walczących z COVID-19. Sprawdzano między innymi różne modele rozprzestrzeniania się koronawirusa SARS-CoV-2 w Japonii oraz testowano skuteczność narzędzi do śledzenia kontaktów w ograniczaniu liczby chorych. Możliwości maszyny wykorzystano również podczas tworzenia modelu sztucznej inteligencji pozwalającego na przewidywanie tsunami na obszarach przybrzeżnych.

Fugaku będzie również kluczowy dla projektu, który w Japonii nazwano „Society 5.0”– społeczeństwem przyszłości. Czemu 5.0? Bo społeczeństwo 1.0 to byli zbieracze-łowcy, 2.0 rolnicy, 3.0 społeczeństwo przemysłowe, a 4.0 społeczeństwo oparte na przetwarzaniu informacji. Według tej specyfikacji społeczeństwo 5.0 będzie wspólnotą skoncentrowaną na człowieku, która równoważy rozwój ekonomiczny z rozwiązywaniem problemów społecznych przez system łączący ze sobą cyberprzestrzeń i przestrzeń fizyczną”. Być może posłuży też kiedyś do symulowania pracy ludzkiego mózgu. Ze względu na liczbę neuronów i połączeń między nimi, sięgającą setek bilionów, dokładne symulacje naszych „białkowych superkomputerów” wymagać będą, bowiem mocy obliczeniowej rzędu eksaflopsów.

Według rankingu TOP500 z czerwca i listopada 2020 oraz z czerwca i  listopada bieżącego roku, jest to najszybszy superkomputer na świecie. Wybraliśmy go właśnie z powodu zajmowanej przez niego pozycji w tym rankingu oraz przez to, że nie spada z niej od 2020 roku. Ponad to w ostatnim czasie był pierwszy również w innych rankingach, takich jak: HPCG, HPL-AI oraz Graph 500.

Parametry:

Superkomputer jest zbudowany w oparciu o 64-rdzeniowy mikroprocesor Fujitsu A64FX, wykorzystujący architekturę procesora ARM w wersji 8.2A. Superkomputer używa 158 976 procesorów A64FX komunikujących się za pomocą opracowanego przez Fujitsu systemu komunikacyjnego zwanego Tofu-D, każdy z nich o taktowaniu 2.2GHz. Dysponuje pamięcią operacyjną wielkości 5,087,232 GB.

Urządzenie korzysta z systemu operacyjnego Linux oraz lekkiego jądra McKernel. Infrastruktura, na której działają jądra nazywana jest interfejsem dla heterogenicznych jąder (IHK). Symulacje o wysokiej wydajności są uruchamiane w McKernel, z systemem Linux dostępnym dla wszystkich innych usług zgodnych z POSIX. System operacyjny jest dostępny, jako otwarte oprogramowanie w serwisie Github.

Moc obliczeniowa Fugaku to 415,5 petaflopów, 2,8 razy więcej niż oferuje zepchnięty na drugą pozycję Summit, dotychczasowy lider zestawienia TOP500.

Koszty:

W 2018 roku Nikkei poinformowało, że program będzie kosztować 130 miliardów jenów, czyli 1,2 miliarda dolarów. Koszt programu wywołał kontrowersje – w czerwcu 2020 The New York Times napisał m.in. o tym, że superkomputery w niedalekiej przyszłości będą kosztować mniej i wyprzedzą wydajność Fugaku.

Prometheus

Parametry i ogólne informacje:

Wybraliśmy go, ponieważ jesteśmy zainteresowani pójściem na AGH po ukończeniu nauki w liceum. Pracujący w ACK Cyfronet AGH Prometheus od momentu uruchomienia w 2015 pozostaje nadal na liście TOP500 najszybszych superkomputerów świata, w czerwcu 2020 roku zajął 288 pozycję. Pozycję tę zapewnia mu moc obliczeniowa 2,65 petaflopsów, której osiągnięcie było możliwe przede wszystkim dzięki użyciu wydajnych serwerów platformy HP Apollo 8000 i połączeniu ich superszybką siecią InfiniBand o przepustowości 56 Gb/s. Superkomputer posiada 53.748 rdzeni obliczeniowych o taktowaniu 2.5GHz (energooszczędnych i wydajnych procesorów Intel Haswell oraz Intel Skylake) oraz 283,5 TB pamięci operacyjnej w technologii DDR4. Do Prometheusa dołączone są dwa systemy plików o łącznej pojemności 10 PB i szybkości dostępu 180 GB/s. Wyposażony jest również w karty NVIDIA Tesla z procesorami graficznymi GPGPU. Prometheus został zbudowany przez firmę Hewlett-Packard zgodnie z założeniami opracowanymi przez ekspertów Cyfronetu. Urządzenie korzysta z systemu operacyjnego Linux.


Architektura superkomputera Prometheus odpowiada na zróżnicowane potrzeby naukowców dostarczając zasobów zorganizowanych w partycjach:

·        klasycznej partycji ogólnego przeznaczenia z wydajnymi dwuprocesorowymi węzłami obliczeniowymi (Intel Xeon E5-2680v3 Haswell i Intel Xeon Gold 6128),

·        zestawu serwerów wyposażonych w akceleratory graficzne GPGPU NVIDIA Tesla K40 XL,

·        partycji akceleracyjnej wyposażonej w zestaw urządzeń uzupełniających konfigurację Prometheusa o kilka rodzajów akceleratorów (m.in.: karty GPGPU – NVIDIA K80, karty Intel Xeon Phi 7120P oraz karty Nallatech z układami FPGA Altera Stratix V: P395-AB2-330A-30 i P395-D8-330A-30),

·        partycji dedykowanej dla obliczeń związanych ze sztuczną inteligencją, wyposażonej w akceleratory graficzne GPGPU NVIDIA Tesla V100. Warto wspomnieć, że partycja ta stanowi system o mocy obliczeniowej ponad 4 petaflopsów dla operacji tensorowych i 256 teraflopsów dla standardowych obliczeń wykonywanych na liczbach podwójnej precyzji, co czyni go najszybszym dedykowanym rozwiązaniem dla sztucznej inteligencji dostępnym dla potrzeb nauki w Polsce.

Prometheusa wyróżnia nowatorski system chłodzenia cieczą. Dzięki wykorzystanej technologii jest jednym z najbardziej energooszczędnych superkomputerów tej klasy na świecie. Dla utrzymania odpowiedniej temperatury cieczy chłodzącej w naszym klimacie wystarczają tańsze w eksploatacji wymienniki ciepła (ang. dry-cooler), zamiast konsumujących duże ilości energii elektrycznej generatorów wody lodowej oraz klasycznych klimatyzatorów technologicznych. Cieczą chłodzone są zarówno procesory CPU, GPGPU jak i moduły pamięci przy pomocy specjalnego hermetycznego systemu rurek cieplnych i stykowego przekazu ciepła pomiędzy serwerami i układem, w którym krąży ciecz. Same serwery pozostają „suche" – można je w każdej chwili wyjąć bez niebezpieczeństwa wycieku cieczy w układzie chłodzenia. Chłodzenie cieczą umożliwiło osiągnięcie bardzo wysokiej gęstości instalacji – aż 144. serwerów obliczeniowych w pojedynczej szafie. Prometheus został zainstalowany w nowoczesnej hali komputerowej Cyfronetu, specjalnie przystosowanej do jego eksploatacji. Prawidłowe funkcjonowanie superkomputera zapewniają ważne elementy infrastruktury technicznej, takie jak system gwarantowanego zasilania z dodatkowym agregatem prądotwórczym oraz nowoczesnymi systemami klimatyzacji technologicznej i gaszenia gazem.

W 2019 roku do Prometheusa dołączono najszybszy w Polsce akademicki system dedykowany dla potrzeb sztucznej inteligencji, dzięki czemu możliwe stało się efektywne łączenie symulacji wielkoskalowych z metodami uczenia maszynowego i prowadzenie badań w tym samym środowisku obliczeniowym i na wspólnych zbiorach danych. System zbudowany jest z czterech serwerów HPE Apollo 6500, z których każdy wyposażony jest w dwa procesory Intel Xeon Gold 5220, osiem akceleratorów NVIDIA Tesla V100 oraz 384 GB pamięci operacyjnej. System posiada moc obliczeniową ponad 4 petaflopsów dla operacji tensorowych i 256 teraflopsów dla standardowych obliczeń wykonywanych na liczbach podwójnej precyzji. System służy do badań w zakresie chemii, biologii, medycyny oraz rozwoju algorytmów dla autonomicznych pojazdów.

Superkomputery umożliwiają znaczące skrócenie czasu wykonywania obliczeń, które przy użyciu pojedynczych komputerów często zajęłyby wiele lat (w konkretnych rzeczywistych przypadkach ponad 150, 700 czy nawet 1000 lat), a tu mogą być wykonane najczęściej w ciągu zaledwie kilku dni. Użytkownicy Cyfronetu mogą korzystać z profesjonalnego wsparcia – od dostępu do pełnej dokumentacji, poprzez szkolenia, aż po indywidualne konsultacje z ekspertami.

Summit

Parametry i ogólne informacje:

Wybrałliśmy to urządzenie, ponieważ Stany Zjednoczone są jednym z krajów, które mogą pomóc całemu światu w walce z pandemią Covid i są w czołówce najszybciej rozwijających się państw świata. Summit to superkomputer opracowany przez IBM do użytku w Oak Ridge National Laboratory (ORNL) w Stanach Zjednoczonych, o teoretycznej mocy obliczeniowej ok. 200 petaflopsów. Jego moc obliczeniowa zmierzona testem LINPACK to 148,6 petaflopsów, dzięki czemu od czerwca 2018 do czerwca 2020 był najszybszym superkomputerem na świecie według rankingu TOP500, w czerwcu 2020 zajął już drugą pozcyję. Według rankingu Green500 (z czerwca 2019) superkomputer Summit był również trzecim pod względem energooszczędności superkomputerem na świecie ze zmierzoną wydajnością 14,719 Gflops/W.

Superkomputer składa się z 4608 węzłów, z których każdy zawiera dwa 22-rdzeniowe procesory IBM POWER9 22C 3,07 GHz i sześć jednostek graficznych NVIDIA Tesla V100, połączonych za pomocą podwójnej szyny Mellanox EDR 100 Gb/s InfiniBand. Ponadto każdy węzeł jest wyposażony w 512 GB pamięci RAM (DDR4), 96 GB pamięci HBM2, oraz 1,6 TB pamięci nieulotnej (NVM).

W sumie Summit posiada 9216 procesorów IBM POWER9 i 23 040 procesorów graficznych Nvidia Tesla V100 (2 397 824 rdzeni CPU+GPU) oraz 2,3 petabajtów pamięci RAM. Superkomputer pracuje pod kontrolą systemu Red Hat Enterprise Linux (RHEL), wersja 7.4. Jednym z pakietów oprogramowania, które planuje się wykorzystać jest QMCPACK, implementujący kwantowe metody Monte Carlo.

Zastosowanie superkomputera Summit:

 

·        astrofizyka – modelowanie procesów zachodzących podczas wybuchu gwiazd supernowych (w tym powstawanie nowych pierwiastków),

·        badania nad nowotworami – prace nad narzędziami zdolnymi do automatycznej klasyfikacji i analizy istniejących danych dotyczących zdrowia w celu odkrycia wcześniej niezaobserwowanych związków między czynnikami chorobowymi, takimi jak geny, markery biologiczne czy środowisko zewnętrzne. Zespół laboratorium przewiduje, że w połączeniu z innymi danymi (w tym niestrukturyzowanymi, takimi jak raporty tekstowe i obrazy medyczne), algorytmy uczenia maszynowego pomogą zbudować wszechstronny obraz populacji nowotworowej (w USA) na poziomie szczegółowości uzyskiwanym zwykle tylko dla pacjentów z badań klinicznych,

·        biologia systemowa – zastosowanie technik uczenia maszynowego i sztucznej inteligencji do analizy zbiorów danych genetycznych i biomedycznych w celu lepszego zrozumienia zjawisk związanych z ludzkim zdrowiem (takich jak wyniki badań, przebiegi chorób itp.). Według zespołu ORNL, techniki sztucznej inteligencji mogą pomóc zidentyfikować wzorce w funkcjonowaniu, współpracy i ewolucji białek ludzkich oraz całych systemów komórkowych. Wzorce te mogą łącznie odzwierciedlać mechanizmy rozwoju fenotypów klinicznych i obserwowalnych cech chorób (m.in. choroby Alzheimera, chorób serca lub uzależnień) oraz przyczynić się do procesu lepszego dopasowania oraz odkrywania nowych leków. W marcu 2020 r. użyto go w walce z wirusem SARS-CoV-2.

·        inżynieria materiałowa – prace nad materiałami nowej generacji, w tym związków do magazynowania, przekształcania i produkcji energii. Dzięki dużej mocy obliczeniowej stanie się możliwe modelowanie zjawisk na poziomie subatomowym.

Sunway TaihuLight

Parametry i ogóne informacje:

Superkomputer o mocy obliczeniowej 93 petaflopsów, uruchomiony w 2016 roku w Wuxi w Chinach. W czerwcu 2016 roku znalazł się na pierwszym miejscu listy TOP500 – superkomputerów o największej mocy obliczeniowej na świecie, prześcigając wcześniejszego rekordzistę Tianhe-2, o mocy obliczeniowej 33 petaflopsów. Sunway TaihuLight utrzymywał ten rekord przez 2 lata, aż do 8 lipca 2018 roku, gdy liderem rankingu został Summit zbudowany przez IBM-a (o mocy obliczeniowej 200 petaflopsów). Systemem operacyjnym jest Sunway Raise OS 2.0.5, oparty na Linux. Wybrałyśmy go, gdyż spodobał nam się wygląd tego superkomputera.

Koszty budowy Sunway TaihuLight wyniosły 1,8 miliarda juanów (273 miliony dolarów). Budowę i oprogramowanie sfinansowały w równych częściach: Rząd Chin, prowincja Jiangsu i miasto Wuxi. Komputer składa się z 40960 64-bitowych procesorów RISC SW26010, każdy zawierający 260 rdzeni i pracuje z częstotliwością 1,45 GHz. Daje to w sumie ponad 10 milionów rdzeni. Jego teoretyczna moc obliczeniowa wynosi 125 petaflopsów, a zmierzona testem LINPACK 93 petaflopsów. Sunway TaihuLight posiada 1,31 PB pamięci operacyjnej i wymaga do zasilania 15,4 MW.

Porównanie kosztu budowy do oficjalnych kosztów budowy Tianhe-2 (390 milionów dolarów) pokazuje, że zastosowanie własnej produkcji (oraz opracowania) procesorów okazało się dla Chin tańsze niż produktów Intela (Xeon). Prawdopodobnie chodziło jednak o uniezależnienie się od embarga na import procesorów zachodnich (poprzedni chiński superkomputer nie mógł być rozbudowany z tego powodu). Oraz od importowania zachodniej elektroniki. Chińczycy w 2014 wydali na import elektroniki więcej niż na import ropy.

PERSPEKTYWY ROZWOJU SUPERSZYBKICH KOMPUTERÓW

Do czego może się przydać miliard miliardów operacji zmiennoprzecinkowych na sekundę? Choćby do znacznego przyspieszenia obliczeń potrzebnych do symulacji w wielu dziedzinach: od poszukiwań nowych leków, materiałów i tworzyw, przez lepsze prognozowanie pogody, symulowanie trzęsień ziemi i fal tsunami – aż po czysto naukowe poszukiwania fundamentalnych praw fizyki lub wyjaśnianie tajemnic wszechświata.

Zastosowania takiej maszyny mogą umożliwić zupełnie nowy poziom możliwości, które są częścią „osobliwości”, którą przewiduje wielu naukowców. Możemy sobie tylko wyobrazić taki świat- zmieniające się odkrycia, które będą wypływać z tej technologii i jej wykładniczo większych możliwości. Być może odtworzymy na przykład najwcześniejsze momenty Wielkiego Wybuchu w najdrobniejszych szczegółach.

Mając już modele ludzkiego mózgu we wcześniejszych dekadach, naukowcy mogą wykorzystać takie maszyny do jednoczesnego uruchomienia milionów tych symulacji w czasie rzeczywistym, aby zbadać dynamikę całej populacji. Jeszcze bardziej ekscytującą (i przerażającą) możliwością jest pojawienie się pierwszej super sztucznej inteligencji z superkomputerem, jako mózgiem.


PROBLEMY ROZWIĄZYWANE DZIĘKI SUPERKOMPUTEROM

Superkomputery mają wiele zastosowań, w siłach zbrojnych, różnych badaniach naukowych, czy w przedsiębiorstwach. Mają duże zastosowanie w nauce np.: badają struktury biocząsteczek, które produkują biopaliwa, ma na celu to zwiększenie wydajności uzyskiwania tych paliw, symulują procesy w silnikach spalinowych, po raz kolejny, aby zwiększyć ich wydajność. Dzięki takim komputerom rozwija się broń termojądrowa, czy polepsza sterowność poprzeczną i stateczność kierunkową samolotów, przez symulacje ich aerodynamiki.

Superkomputery gwarantują również wysoki zwrot z inwestycji. Kalkulacje przeprowadzone przez ekspertów UE pokazują, że każde 1 euro zainwestowane w te komputery przynosi 867 euro w przychodach, a 69 euro w zyskach. Dzięki symulacji obsługiwanej przez systemy superkomputerów, europejscy producenci samochodów opracowują nowe platformy samochodowe w ciągu 24 miesięcy zamiast 60. To przekłada się na oszczędności na poziomie 40 mld euro, a przy tym podnosi jednocześnie bezpieczeństwo i komfort.

Superkomputery można wykorzystać także do modelowania trzęsień ziemi. Naukowcy mogą przewidzieć, jak fale sejsmiczne będą się przemieszczać zarówno lokalnie, jak i globalnie. Jest to problem, który jeszcze dwie dekady temu wydawał się nie do rozwiązania, jednak dzięki zastosowaniu superkomputerów naukowcy mogą rozwiązywać bardzo złożone równania, które odzwierciedlają rzeczywistość. Możliwe, jest, więc, że w przyszłości odkryjemy wiele więcej, przez superkomputery naukowcy odkrywają coraz więcej o wszechświecie, potrafią w części odtworzyć Wielki Wybuch. Kto wie, co będzie dalej.


ISTOTA SZYBKIEGO PROCESORA, JEGO LICZBY, PAMIĘCI OPERACYJNEJ I OPROGRAMOWANIA

Uważamy, że jeśli oprogramowanie jest dobrze napisane i zoptymalizowane i działa na najnowszym systemie, to wtedy nie będzie potrzebne używanie większej ilości procesorów, które będą użyte na bardziej zaawansowanych działaniach można też rozłożyć działanie programu na wszystkie procesory po równo i wtedy będą działały z mniejszą częstotliwością, ale będą sobie prawdopodobnie radzić sprawniej, jeśli chodzi o działanie programu.

Pamięć operacyjna to też ważny aspekt sprawnego działania programu, ponieważ z małą ilością pamięci RAM o niskiej częstotliwości nasz program będzie działał wolniej o ile w ogóle będzie działał, ale jeśli program jest dobrze zoptymalizowany pod względem użycia pamięci operacyjnej, duża ilość pamięci operacyjnej może mieć mniejsze znaczenie i będzie nieużywana.


RECENZJA

Niedawno przeczytalysmy niezwykle interesujacy material dotyczacy superkomputerów. Opieral sie on na wywiadzie z mgr. Lukaszem Flisem, kierownikiem dzialu oprogramowania HPC Akademickiego Centrum Komputerowego Cyfronet AGH. Dotyczyl on Prometeusza bedacego najszybszym superkomputerem w Polsce, który w czerwcu 2020 roku zajal 288 pozycje w rankingu 500 najszybszych komputerów swiata serwisu TOP500.org.

 

Autor wywiadu w niezwykle ciekawy sposób odnosi sie do slów rozmówcy "Mozna powiedziec, ze to maszyna badawcza ogólnego zastosowania" opisujac szeroki wachlarz zastosowan Prometeusza, poczawszy od wykorzystywania tego urzadzenia w projektach miedzynarodowych, gdzie odnosi on pewne sukcesy, konczac na szczeblu krajowym. Twórca przybliza równiez mniej zapoznanym z tematem odbiorcom Prometeusza jako superkomputer oraz nakresla jego konkurentów na liscie TOP500. Zarówno tych zagranicznych - do których zaliczmy superkomputery Sunway TaihuLight czy Tianhe-2, jak i tych pochodzacych z Polski - poznanskiego EAGLE czy gdanskiego TRYTON. Calosc materialu jest zwienczona pozytywnym stwierdzeniem eksperta, ze nasz kraj wypada calkiem niezle jesli chodzi o liczbe duzych komputerów, a my jako mieszkancy nie mamy sie czego wstydzic. Nie uwazam co prawda, ze ten material jest niezbedny do przeczytania przez kazdego kogo interesuje temat superkomputerów, jednak jest on niewatpliwie interesujaca pozycja, gdyz zawiera wiele ciekawych watków. Nie polecalabym go oczywiscie osobom bardziej zaglebionym w temacie, gdyz moze ich odrzucic dosyc prosty jezyk i male zglebienie pewnych tematów. Uwazam jednak, ze idealnie nada sie on dla osób które dopiero zaczynaja interesowac sie tym tematem lub takich, które maja jakas niewielka wiedze w tym zakresie.


ŹRÓDŁA

https://pl.wikipedia.org/wiki/TOP500 (krótki opis rankingu TOP500) https://pl.wikipedia.org/wiki/Fugaku_ (superkomputer), https://www.top500.org/system/179807/  https://www.sztucznainteligencja.org.pl/fugaku-ostatni-samuraj/  (informacje o superkomputerze Fugaku) https://www.cyfronet.pl/inicjatywy_i_zasoby/18331,artykul,superkomputer_prometheus.html (informacje i parametry superkomputeru Prometheus) https://pl.wikipedia.org/wiki/Summit_ (superkomputer) (parametry superkomputera Summit)
https://pl.wikipedia.org/wiki/Superkomputer (definicja i opis ogólny superkomputerów)
https://pl.wikipedia.org/wiki/Sunway_TaihuLight  (informacje o superkomputerze Sunway TaihuLight)
https://www.computerworld.pl/news/Co-superkomputer-moze-zrobic-dla-ciebie,411261.html (informacje o użyciu)
https://www.chip.pl/2021/05/superkomputery-do-czego-sie-ich-uzywa/ (informacje o użyciu)
https://www.futuretimeline.net/data-trends/20-supercomputer-future-prediction.htm (przyszłość superkomputerów)

https://biotechnologia.pl/technologie/polski-superkomputer-pomaga-naukowcom-w-badaniach-po-obliczenia-wykonywane-przez-superkomputery-coraz-czesciej-siega-biznes,17634 (wywiad)