Go to file
2017-07-12 11:38:06 +02:00
app initial exercise 2017-07-12 11:38:06 +02:00
src initial exercise 2017-07-12 11:38:06 +02:00
.gitignore initial exercise 2017-07-12 11:38:06 +02:00
.travis.yml initial exercise 2017-07-12 11:38:06 +02:00
LICENSE initial exercise 2017-07-12 11:38:06 +02:00
README.md initial exercise 2017-07-12 11:38:06 +02:00
Setup.hs initial exercise 2017-07-12 11:38:06 +02:00
stack.yaml initial exercise 2017-07-12 11:38:06 +02:00
zettel10.cabal initial exercise 2017-07-12 11:38:06 +02:00

Übungszettel 10

Parallelismus & Nebenläufigkeit

Issue 1

Im Modul Parallel finden Sie eine Funktion, die Sie noch von Zettel 3 kennen. Zur Erinnerung: Die Funktion nBesteEingaben gibt Ihnen mit beliebiger numerischer Genauigkeit diejenigen Eingaben (4-Tupel, jeweils mit Werten aus [-10,10]) zurück, für die eine komlizierteFunktion maximal wird. Hierfür wird der komplizierten Funktion mithilfe von List-Applicative (kartesisches Produkt) eine lange, beliebig dichte Liste möglicher Eingabewerte zwischen (-10,-10,-10,-10) und (10,10,10,10) übergeben. Bei einem Abstand von 0.5 ergeben sich damit 41^4 = 2 825 761 Berechnungen. Diese lohnt es sich zu parallelisieren.

Parallelisieren Sie die Funktion nBesteEingaben, mit mindestens drei verschiedenen Strategien für Listen aus Control.Parallel.Strategies.

Um ihre Parallelisierung zu testen, verwenden Sie die folgenden Terminalbefehle:

stack exec -- MainParallel1 +RTS -N1 -s
stack exec -- MainParallel1 +RTS -N2 -s
stack exec -- MainParallel1 +RTS -N4 -s
stack exec -- MainParallel1 +RTS -N8 -s

-Nx steht hierbei für die Verwendung von x Kernen.

Eine sinnvolle Parallelisierung erkennen Sie daran, dass die Berechnung schneller wird, je mehr echte Kerne Sie für zur Verfügung stellen.

Notieren sie die Laufzeiten ihrer Versuche in einer Tabelle und geben sie den Speedup (-N1-Zeit/-NxZeit) an.

Issue 2

Sie werden bemerkt haben, dass der Speedup sich nicht linear mit der Anzahl der Kerne steigern lässt. Nach Amdahls Gesetz ist bei vielen Kernen der nicht-parallelisierte Part (in unserem Fall das sortieren) für die schlechte Performance verantwortlich.

Da wir uns nur für die Top n eingaben interessieren, schreiben sie eine Funktion

topn :: Int -> [a] -> [a]

welche nach n Einsortierungsversuchen das zu sortierende Element verwirft (z.B. als Liste oder Array) und somit die Sortierung frühestmöglich abbricht.

Füllen sie die Speedup-Tabelle erneut aus. Was ändert sich?

Issue 3

Sie besitzen eine Bank und sollen Überweisungen programmieren. Sie finden in Banking.hs alles fertig. Nur noch die debit-Funktion muss geschrieben werden, die von dem ersten auf das Zweite Konto überweist.

Im Szenario der Main-Funktionen hat die Bank 10 verschiedene Server, die gleichzeitig dieselbe Transaktion auf der Datenbank ausführen wollen (also haben sie mehrere "Banken" in der Main, die auch alle etwas ausgeben, aber alle zeigen denselben Kontostand, da die Konten selbst nur 1x existieren).

Führen sie anschließend MainBanking1 und MainBanking2 aus. Was können sie beobachten? Wie kommt es zu den Ergebnissen?

Hint (optional!): Mittels stack exec -- MainBanking1 +RTS -ls können sie ein eventlog ausgeben lassen, welches sie mittels threadscope (stack install threadscope) ansehen können.

Was passiert, wenn sie dies mit -N1 ausführen? Wieso?

Issue 4

Da sie in Aufgabe 3 in Probleme gelaufen sind (sind sie doch, oder? ;) ), benutzen sie hier statt MVars die STM-eigenen TMVars.

In STMBanking.hs finden sie die gleiche Situation vor - nur müssen sie hier mit STM statt mit MVar arbeiten.

Führen sie anschließend MainSTMBanking1 und MainSTMBanking2 aus. Was können sie beobachten? Inwiefern unterscheiden sich die Ergebnisse zu den MVars?

Hint (optional!): Mittels stack exec -- MainBanking1 +RTS -ls können sie ein eventlog ausgeben lassen, welches sie mittels threadscope (stack install threadscope) ansehen können.

Was passiert, wenn sie dies mit -N1 ausführen? Wieso?

Wo sind die Unterschiede zu MVars (Performance, Einfachheit der Programmierung, Resistenz gegen Programmierfehler, ..)? Beschreiben sie kurz wie sich ihre Probleme mit der jeweiligen Implementation anfühlten und wieso sie welche Lösung selbst bevorzugen würden.