Open Source & Linux Lab

It's better when it's simple

User Tools

Site Tools


courses:high_performance_computing:lectures

This is an old revision of the document!


Программа

1. Введение

  1. Тенденции развития вычислительных систем, обуславливающие необходимость применения распределённых (параллельных) методов вычислений. Примеры вычислительно ёмких задач из разных областей науки.
  2. Классификация параллельных систем (SIMD, MISD…, SMP, MPP)
  3. Современные высокопроизводительные системы: начиная от расширений SSE, через многоядерность к узлам кластеров
  4. Понятия ускорения, эффективности (закон Амдала)
  5. План курса

2. Создание/завершение потоков

  1. Механизм запуска потока
  2. Корректное завершение потоков:
    • cancellation points
    • interrupted exception
    • примеры кода в glibc
  3. Сравнение различных потоков (POSIX, boost, java)
  4. Проброс исключений между потоками

3. Примитивы синхронизации

  1. Необходимость синхронизации: простые гонки данных
  2. Реализация примитивов синхронизации: алгоритм булочника
  3. Виды мьютексов:
    • рекурсивные/нерекурсивные
    • read/write
    • spin
    • futex
  4. Корректные захват/освобождение примитивов
  5. CAS-операции и атомики
  6. Условные переменные:
    • использование wait/notify
    • Spurious wakeups

4. Алгоритмы синхронизации

  1. Грубая
  2. Тонкая
  3. Оптимистичная
  4. Ленивая
  5. Неблокирующая (параллель с ORM)

5. Атомарные снимки регистров

  1. Классификация алгоритмов:
    • lock-free
    • wait-free
  2. SWMR-регистры
  3. Lock-free snapshot
  4. Wait-free snapshot

6. Ошибки || программирования

  1. Основные ошибки многопоточного программирования
    • Гонки данных (Data Race)
    • Взаимная блокировка (Deadlock)
    • Потерянный сигнал
  2. Специфические ошибки
    • Реакция потока на сигнал
    • Блокировки при fork многопоточных программ
    • Проблема ABA
    • Инверсия приоритетов

7. Профилирование многопоточных приложений

  1. Средства анализа производительности
    • Intel Parallel Studio
    • Valgrind (модули callgrind, cachegrind)
    • Google Profiler
  2. Пример поиска узких мест

8. Java.util.concurrent и Fork-Join Framework

  1. Пулы потоков, корректное завершение пула
  2. Контроль задач через Future
  3. Потокобезопасные контейнеры

9. OpenMP и Intel TBB

  1. Обзор OpenMP:
    • параллельные секции
    • области видимости переменных
    • ограничения
  2. Обзор Intel TBB:
    • алгоритмы
    • аллокаторы
    • деревья задач
    • особенности планирования (work stealing…)
    • flow graphs (параллель с BPEL)

10. Шаблоны || программирования

  1. Структурные шаблоны:
    • Декомпозиция по задачам
    • Геометрическая декомпозиция
    • Recursive Data
    • Pipeline
  2. Некоторые программные структуры:
    • Parallel loops
    • Boss/Worker
  3. Разное:
    • Double check
    • Local Serializer

11. Кластерные вычисления

  1. Виды кластерных систем:
    • Балансировки нагрузки
    • Высокой надёжности
    • Вычислительные
  2. История и назначение стандарта MPI
  3. Обмен сообщениями:
    • С блокировкой
    • Без блокировки
    • Отложенные запросы на взаимодействие
  4. Взаимодействие процессов:
    • Группы и коммуникаторы
    • Операции коллективного взаимодействия процессов
    • Редукция
    • Виртуальные топологии
  5. Средства анализа производительности:
    • Jumpshot
    • Intel® Trace Analyzer и Intel® Trace Collector

12. Консенсус. Сети Петри

  1. Линеаризуемость
  2. Консенсус:
    • Консенсусное число RMW-регистров
    • Универсальность CAS-операций
  3. Верификация || программ (сети Петри)

13. Оптимизации в компиляторах

  1. Статические оптимизации
  2. Оптимизации циклов:
    • Развёртывание
    • Повторение
    • Вынесение инварианта
  3. JIT-оптимизации
    • Объединение захвата примитивов
    • Оптимистичный захват
    • Адаптивные блокировки
    • Замена виртуального вызова

14. Транзакционная память

  1. Идея transactional memory
  2. Software transactional memory
  3. Hardware transactional memory:
    • Пример на протоколе MESI
    • Немного о барьерах (store/load)
  4. Преимущества и круг задач

15. Асинхронный ввод/вывод

  1. Блокирующий/неблокирующий
  2. Синхронный (реактор)/асинхронный (проактор)
  3. Преимущества асинхронной работы и реализация со стороны операционной системы
  4. Библиотеки асинхронного ввода/вывода

16. Wait-free MRMW снимок регистров

  1. Напоминание о MRSW алгоритме
  2. Переход к bounded версии на битовых handchake
  3. Расширание до MRMW

17. Средства поиска ошибок

  1. Google Thread Sanitizer
  2. Intel Parallel Studio
  3. Valgrind (модуль helgrind)
  4. Пример использования

18. Модель памяти

  1. Sequential consistency
  2. Acquire/release семантика
  3. Relaxed семантика

19. Lock-free изнутри

  1. User-space RCU
  2. Схемы управления памятью:
    • Tagged pointers
    • Hazard pointer

20. Модель акторов

  1. Суть модели
  2. Применение в современных языках
  3. Шаблоны применения
courses/high_performance_computing/lectures.1457805162.txt.gz · Last modified: 2016/03/12 20:52 by kel