example, SEMESTRY, Sem 6, Algorytmy Rownolegle, 2007, Wyklad
[ Pobierz całość w formacie PDF ]
Przykładowe pytania na zaliczenie z Algorytmów rozproszonych i równoległych, 2006/2007
Prosz
Ä™
nie robi
ć
ci
Ä…
g/gotowców z odpowiedziami na te pytania – lista ta ma na celu umo
Ŝ
liwienie
zorientowania si
Ä™
co do szczegółowo
Å›
ci zaliczenia. Z do
Å›
wiadczenia z poprzednim rokiem mog
Ä™
powiedzie
ć
,
Ŝ
e warto nauczy
ć
si
Ä™
o pół oceny "na zapas".
Przykładowe pytania bardziej ogólne: (dla zainteresowanych, powiedzmy, ocen
Ä…
3.0 i 3.5).
1.
Podaj i krótko omów zalety równoległego odczytu z pliku w porównaniu z odczytem pliku przez jeden
procesor z nast
Ä™
puj
Ä…
cym rozesłaniem danych do pozostałych procesorów.
2.
Na czym polega dekompozycja trywialna?
3.
Podaj prawo Amdahla. Jakie s
Ä…
jego konsekwencje?
4.
Pewien program wykonuje si
Ä™
na komputerze szeregowym w czasie 2400 godzin. 99% nakładu
obliczeniowego programu mo
Ŝ
na zrównolegli
ć
. Ile czasu b
Ä™
dzie si
Ä™
wykonywał ten program na 10
procesorach? Ile na 100 procesorach? Załó
Ŝ
brak narzutów na komunikacj
Ä™
i doskonałe zbilansowanie
pracy.
5.
Omów ró
Ŝ
nic
Ä™
mi
Ä™
dzy komputerami realizuj
Ä…
cymi architektur
Ä™
SIMD i MIMD.
6.
Co to jest zakleszczenie?
7.
Zdefiniuj rozproszony system komputerowy.
8.
Omów koncepcj
Ä™
podziału pracy
master-slave
.
9.
W jaki sposób mo
Ŝ
na sprawdzi
ć
na ilu procesorach wykonywany jest program?
10.
Omów operacj
Ä™
rozesłania (
broadcast
). Podaj konkretny przykład, w którym miałaby ona zastosowanie.
11.
Omów problem wy
Å›
cigów (
race condition
).
12.
Podaj trzy wady mierzenia wydajno
Å›
ci komputerów za pomoc
Ä…
MIPS.
13.
Omów operacj
Ä™
rozproszenia (
scatter
).
14.
Na czym, w kontek
Å›
cie MPI-2, polega współoperatywno
ść
?
15.
Omów dekompozycj
Ä™
funkcjonaln
Ä…
.
16.
Przedstaw cechy pami
Ä™
ci współdzielonej. Jakie s
Ä…
jej wady, a jakie zalety?
17.
Przedstaw cechy pami
Ä™
ci rozproszonej. Jakie s
Ä…
jej wady, a jakie zalety?
18.
Narysuj grafy odpowiadaj
Ä…
ce czterem wybranym, stosowanym w praktyce topologiom komputerów
równoległych.
19.
Czym, w terminologii programowania równoległego, s
Ä…
ziarna?
20.
Na czym polega
load balancing
? Jak jest realizowany w ró
Ŝ
nych rodzajach dekompozycji?
21.
Czym, w MPI-2, ró
Ŝ
ni si
Ä™
komunikacja jednostronna od dwustronnej?
22.
Omów w jaki sposób komputery wektorowe ró
Ŝ
ni
Ä…
si
Ä™
od komputerów szeregowych.
Przykładowe pytania bardziej szczegółowe: (dla zainteresowanych, powiedzmy, ocen
Ä…
4.0 i
wy
Ŝ
sz
Ä…
).
23.
Scharakteryzuj operacj
Ä™
redukcji w MPI.
24.
Wyja
Å›
nij dlaczego dodawanie zmiennoprzecinkowe nie jest operacj
Ä…
Å‚
Ä…
czn
Ä…
.
25.
Czym ró
Ŝ
ni si
Ä™
komunikacja (mi
Ä™
dzy w
Ä™
złami obliczeniowymi) ustrukturalizowana od nieustruktura-
lizowanej? Statyczna od dynamicznej?
26.
Czym ró
Ŝ
ni
Ä…
si
Ä™
operacje plikowe nieblokuj
Ä…
ce od blokuj
Ä…
cych?
27.
Omów koncepcj
Ä™
widoków stosowan
Ä…
przy równoległym dost
Ä™
pie do we/wy w MPI.
28.
Co to jest spójno
ść
sekwencyjna?
29.
W jaki sposób mo
Ŝ
na sprawdzi
ć
ile elementów odczytano z pliku po wykonaniu MPI::File::Read()?
30.
Jakie zało
Ŝ
enie czynione przy wyprowadzeniu prawa Amdahla powoduje,
Ŝ
e prawo to nie jest absolutne?
31.
10 procesorów poł
Ä…
czonych w topologii pier
Å›
cienia przesyła do siebie wiadomo
Å›
ci tak,
Ŝ
e ka
Ŝ
dy procesor
wysyła i odbiera wiadomo
Å›
ci do i od swoich bezpo
Å›
rednich s
Ä…
siadów. Podaj sposób, który pozwala
unikn
ąć
zakleszczenia w powy
Ŝ
szej sytuacji.
32.
Jakie trudno
Å›
ci wi
ąŜą
si
Ä™
z wykorzystaniem mechanizmu wyj
Ä…
tków w MPI-2?
33.
Po co potrzebna jest operacja Fence() stosowana w komunikacji jednostronnej?
34.
Na czym polega i kiedy jest stosowana operacja pakowania (MPI::Datatype::Pack()) w MPI?
35.
Scharakteryzuj trudno
Å›
ci napotykane przy przesyłaniu obiektów klas za pomoc
Ä…
wymiany wiadomo
Å›
ci.
36.
Opisz krótko jakie kroki nale
Ŝ
y podj
ąć
aby wykona
ć
zdalny zapis do pami
Ä™
ci (Put()) z w
Ä™
zła #0 do w
Ä™
zła
#1, podaj przykład pseudokodu, który taki zapis realizuje.
Å›
Prawda to, czy fałsz? (dla wszystkich :) )
37.
W operacji redukcji Reduce() bufor odbiorczy jest zamazywany na ka
Ŝ
dym z procesorów.
38.
Wska
ź
nik pozycji w pliku, który przesuwamy przez MPI::File::Seek() jest niezale
Ŝ
ny dla ka
Ŝ
dego
procesu.
39.
Bufory nadawczy i odbiorczy w operacji redukcji mog
Ä…
nakłada
ć
si
Ä™
na siebie.
40.
W programie w C++ wystarczy jako pierwsz
Ä…
instrukcj
Ä™
w funkcji main() wykona
ć
MPI::Init()
aby zapewni
ć
,
Ŝ
e
Ŝ
adne operacje we/wy nie zostan
Ä…
wykonane przed wywołaniem MPI::Init().
41.
Nie jest mo
Ŝ
liwe cofanie wska
ź
nika pozycji w pliku.
42.
Przyspieszenie S(N) programu równoległego mo
Ŝ
e osi
Ä…
ga
ć
warto
Å›
ci wi
Ä™
ksze od 1.
43.
Mo
Ŝ
liwa jest sytuacja, w której podczas przesyłania jednej wiadomo
Å›
ci MPI::Recv() zako
Å„
czy si
Ä™
u odbiorcy, zanim MPI::Send() zako
Å„
czy si
Ä™
u nadawcy.
44.
W systemie z pami
Ä™
ci
Ä…
rozproszon
mamy do czynienia ze wspóln
Ä…
przestrzeni
Ä…
adresow
Ä…
.
Ä…
[ Pobierz całość w formacie PDF ]