Open Source & Linux Lab

It's better when it's simple

User Tools

Site Tools


courses:high_performance_computing:lectures

Программа

1. Введение

  1. Тенденции развития вычислительных систем, обуславливающие необходимость применения распределённых (параллельных) методов вычислений. Примеры вычислительно ёмких задач из разных областей науки.
  2. Классификация параллельных систем (SIMD, MISD…, SMP, MPP)
  3. Современные высокопроизводительные системы: начиная от расширений SSE, через многоядерность к узлам кластеров
  4. Понятия ускорения, эффективности (закон Амдала)
  5. Многопоточность или IPC
  6. План курса

2. Создание/завершение потоков

  1. Механизм запуска потока
  2. Корректное завершение потоков:
    • cancellation points
    • interrupted exception
    • примеры кода в glibc
  3. Сравнение различных потоков (POSIX, boost, java)
  4. Проброс исключений между потоками

3. Примитивы синхронизации

  1. Необходимость синхронизации: простые гонки данных
  2. Реализация примитивов синхронизации: алгоритм булочника
  3. Виды мьютексов:
    • рекурсивные/нерекурсивные
    • read/write
    • spin
    • futex
  4. Корректные захват/освобождение примитивов
  5. CAS-операции и атомики
  6. Условные переменные:
    • использование wait/notify
    • Spurious wakeups

4. Алгоритмы синхронизации

  1. Грубая
  2. Тонкая
  3. Оптимистичная
  4. Ленивая
  5. Неблокирующая (параллель с ORM)

5. Атомарные снимки регистров

  1. Классификация алгоритмов:
    • lock-free
    • wait-free
  2. SWMR-регистры
  3. Lock-free snapshot
  4. Wait-free snapshot

6. Ошибки || программирования

  1. Основные ошибки многопоточного программирования
    • Гонки данных (Data Race)
    • Взаимная блокировка (Deadlock)
  2. Специфические ошибки
    • Реакция потока на сигнал
    • Блокировки при fork многопоточных программ
    • Проблема ABA
    • Инверсия приоритетов

7. Профилирование многопоточных приложений

  1. Средства анализа производительности
    • Утилита time
    • Intel Parallel Studio
    • Valgrind (модули callgrind, cachegrind)
  2. Пример поиска узких мест

8. Java.util.concurrent и Fork-Join Framework

  1. Пулы потоков, корректное завершение пула
  2. Контроль задач через Future
  3. Потокобезопасные контейнеры

9. OpenMP и Intel TBB

  1. Обзор OpenMP:
    • параллельные секции
    • области видимости переменных
    • ограничения
  2. Обзор Intel TBB:
    • алгоритмы
    • аллокаторы
    • деревья задач
    • особенности планирования (work stealing…)
    • flow graphs (параллель с BPEL)

10. Шаблоны || программирования

  1. Структурные шаблоны:
    • Декомпозиция по задачам
    • Геометрическая декомпозиция
    • Recursive Data
    • Pipeline
  2. Некоторые программные структуры:
    • Parallel loops
    • Boss/Worker
  3. Разное:
    • Double check
    • Local Serializer

11. Кластерные вычисления

  1. Виды кластерных систем:
    • Балансировки нагрузки
    • Высокой надёжности
    • Вычислительные
  2. История и назначение стандарта MPI
  3. Обмен сообщениями:
    • С блокировкой
    • Без блокировки
    • Отложенные запросы на взаимодействие
  4. Взаимодействие процессов:
    • Группы и коммуникаторы
    • Операции коллективного взаимодействия процессов
    • Редукция
    • Виртуальные топологии
  5. Средства анализа производительности:
    • Jumpshot
    • Intel® Trace Analyzer и Intel® Trace Collector

12. Консенсус. Сети Петри

  1. Консенсус:
    • Консенсусное число RMW-регистров
    • Универсальность CAS-операций
  2. Верификация || программ (сети Петри)

13. Оптимизации в компиляторах

  1. Статические оптимизации
  2. Оптимизации циклов:
    • Развёртывание
    • Повторение
    • Вынесение инварианта
  3. JIT-оптимизации
    • Объединение захвата примитивов
    • Оптимистичный захват
    • Адаптивные блокировки
    • Замена виртуального вызова

14. Транзакционная память

  1. Идея transactional memory
    • Software transactional memory
    • Hardware transactional memory
  2. Преимущества и круг задач
  3. Реализация HTM на линейках кэша
  4. Lock teleportation

15. Асинхронный ввод/вывод

  1. Блокирующий/неблокирующий
  2. Синхронный (реактор)/асинхронный (проактор)
  3. Преимущества асинхронной работы и реализация со стороны операционной системы
  4. Библиотеки асинхронного ввода/вывода

16. Wait-free MRMW снимок регистров

  1. Напоминание о MRSW алгоритме
  2. Переход к bounded версии на битовых handchake
  3. Расширание до MRMW

17. Средства поиска ошибок

  1. Google Thread Sanitizer
  2. Intel Parallel Studio
  3. Valgrind (модуль helgrind)
  4. Пример использования

18. Модель памяти

  1. Устройство кэшей процессора
  2. Пример на протоколе MESI
  3. Барьеры памяти (store/load)
  4. Модели памяти: Sequential consistency…
  5. Acquire/release семантика

19. Lock-free изнутри

  1. User-space RCU
  2. Схемы управления памятью:
    • Tagged pointers
    • Hazard pointer

20. Линеаризуемость

  1. Понятие линеаризуемости
  2. Lock-free стек Trieber
  3. Пример на очередях
  4. Lock-free очередь Michael & Scott
  5. Точки линеаризации

21. Flat-Combining

  1. Схема Flat-Combining
  2. Возможные оптимизации за счёт интерференции операций
  3. Сравнение производительности с lock-free очередью Michael & Scott

22. Оптимизации в реализации контейнеров

  1. Relaxed SkipList

23. Модель акторов

  1. Суть модели
  2. Применение в современных языках
  3. Шаблоны применения
courses/high_performance_computing/lectures.txt · Last modified: 2018/05/19 15:08 by kel