10. Применения бенчмарков
• Performance analysis
• Сравнение алгоритмов
• Оценка улучшений производительности
7/81 1.1 Теория: Почему мы об этом говорим?
11. Применения бенчмарков
• Performance analysis
• Сравнение алгоритмов
• Оценка улучшений производительности
• Анализ регрессии
7/81 1.1 Теория: Почему мы об этом говорим?
12. Применения бенчмарков
• Performance analysis
• Сравнение алгоритмов
• Оценка улучшений производительности
• Анализ регрессии
• . . .
7/81 1.1 Теория: Почему мы об этом говорим?
13. Применения бенчмарков
• Performance analysis
• Сравнение алгоритмов
• Оценка улучшений производительности
• Анализ регрессии
• . . .
• Научный интерес
7/81 1.1 Теория: Почему мы об этом говорим?
14. Применения бенчмарков
• Performance analysis
• Сравнение алгоритмов
• Оценка улучшений производительности
• Анализ регрессии
• . . .
• Научный интерес
• Маркетинг
7/81 1.1 Теория: Почему мы об этом говорим?
15. Применения бенчмарков
• Performance analysis
• Сравнение алгоритмов
• Оценка улучшений производительности
• Анализ регрессии
• . . .
• Научный интерес
• Маркетинг
• Весёлое времяпрепровождение
7/81 1.1 Теория: Почему мы об этом говорим?
21. План performance-работ
1 Поставить задачу
2 Выбрать метрики
3 Выбрать инструмент
4 Провести эксперимент
9/81 1.2 Теория: Общая методология
22. План performance-работ
1 Поставить задачу
2 Выбрать метрики
3 Выбрать инструмент
4 Провести эксперимент
5 Получить результаты
9/81 1.2 Теория: Общая методология
23. План performance-работ
1 Поставить задачу
2 Выбрать метрики
3 Выбрать инструмент
4 Провести эксперимент
5 Получить результаты
6 Выполнить анализ и сделать выводы
9/81 1.2 Теория: Общая методология
24. План performance-работ
1 Поставить задачу
2 Выбрать метрики
3 Выбрать инструмент
4 Провести эксперимент
5 Получить результаты
6 Выполнить анализ и сделать выводы
Анализ полученных данных — самый важный этап
9/81 1.2 Теория: Общая методология
37. Performance spaces
Непонимание проблематики влечёт за собой следующие
проблемы:
• Легко обмануть себя, сделать неправильные выводы,
принять вредные бизнес-решения
12/81 1.2 Теория: Общая методология
38. Performance spaces
Непонимание проблематики влечёт за собой следующие
проблемы:
• Легко обмануть себя, сделать неправильные выводы,
принять вредные бизнес-решения
• Легко пропустить важную конфигурацию, которая испортит
жизнь в продакшене
12/81 1.2 Теория: Общая методология
39. Performance spaces
Непонимание проблематики влечёт за собой следующие
проблемы:
• Легко обмануть себя, сделать неправильные выводы,
принять вредные бизнес-решения
• Легко пропустить важную конфигурацию, которая испортит
жизнь в продакшене
• Легко повестись на кривые бенчмарки или чёрный
маркетинг
12/81 1.2 Теория: Общая методология
40. Окружение
C# compiler старый csc / Roslyn
CLR CLR2 / CLR4 / CoreCLR / Mono
OS Windows / Linux / MacOS / FreeBSD
JIT LegacyJIT-x86 / LegacyJIT-x64 / RyuJIT-x64
GC MS (разные CLR) / Mono (Boehm/Sgen)
Toolchain JIT / NGen / .NET Native
Hardware тысячи его
. . . . . .
13/81 1.2 Теория: Общая методология
41. Окружение
C# compiler старый csc / Roslyn
CLR CLR2 / CLR4 / CoreCLR / Mono
OS Windows / Linux / MacOS / FreeBSD
JIT LegacyJIT-x86 / LegacyJIT-x64 / RyuJIT-x64
GC MS (разные CLR) / Mono (Boehm/Sgen)
Toolchain JIT / NGen / .NET Native
Hardware тысячи его
. . . . . .
И не забываем про версии, много-много версий
13/81 1.2 Теория: Общая методология
42. Интересное про Skylake
Почитаем Intel® 64 and IA-32 Architectures Optimization Reference Manual:
2.1.3 THE SKYLAKE MICROARCHITECTURE: Cache and Memory Subsystem
• Simultaneous handling of more loads and stores enabled by enlarged
buffers.
• Page split load penalty down from 100 cycles in previous generation
to 5 cycles.
• L3 write bandwidth increased from 4 cycles per line in previous
generation to 2 per line.
• L2 associativity changed from 8 ways to 4 ways.
14/81 1.2 Теория: Общая методология
59. DateTime vs Stopwatch
var start = DateTime.Now;
Foo();
var finish = DateTime.Now;
var time = (finish - start).TotalMilliseconds;
vs
var sw = Stopwatch.StartNew();
Foo();
sw.Stop();
var time = sw.ElapsedMilliseconds;
19/81 1.3 Теория: Таймеры
63. Характеристики таймеров
• Монотонность
замеры должны неуменьшаться
• Resolution
минимальное положительное время между замерами
• Latency
время на получение замера
20/81 1.3 Теория: Таймеры
68. DateTime.UtcNow
OS Implementation
Windows GetSystemTimeAsFileTime
Linux gettimeofday
OS Runtime Time∗
Latency Windows Full/Core ≈7–8ns
Latency Windows Mono ≈30–31ns
Resolution Windows Any ≈0.5..15.625ms
Latency Linux Mono ≈26–30ns
Resolution Linux Mono ≈1µs
∗
Intel i7-4702MQ CPU 2.20GHz
См. также: http://aakinshin.net/en/blog/dotnet/datetime/
21/81 1.3 Теория: Таймеры
74. Важно помнить про таймеры
• Важно понимать значения Latency и Resolution
24/81 1.3 Теория: Таймеры
75. Важно помнить про таймеры
• Важно понимать значения Latency и Resolution
• 1 tick ≠ Resolution
24/81 1.3 Теория: Таймеры
76. Важно помнить про таймеры
• Важно понимать значения Latency и Resolution
• 1 tick ≠ Resolution
• Время может идти назад
24/81 1.3 Теория: Таймеры
77. Важно помнить про таймеры
• Важно понимать значения Latency и Resolution
• 1 tick ≠ Resolution
• Время может идти назад
• Два последовательных замера могут быть равны
24/81 1.3 Теория: Таймеры
78. Важно помнить про таймеры
• Важно понимать значения Latency и Resolution
• 1 tick ≠ Resolution
• Время может идти назад
• Два последовательных замера могут быть равны
• Два последовательных замера могут различаться на миллисекунды
24/81 1.3 Теория: Таймеры
79. Важно помнить про таймеры
• Важно понимать значения Latency и Resolution
• 1 tick ≠ Resolution
• Время может идти назад
• Два последовательных замера могут быть равны
• Два последовательных замера могут различаться на миллисекунды
Тем временем...
24/81 1.3 Теория: Таймеры
82. Микробенчмаркинг
Плохой бенчмарк
// Resolution(Stopwatch) = 466 ns
// Latency(Stopwatch) = 18 ns
var sw = Stopwatch.StartNew();
Foo(); // 100 ns
sw.Stop();
WriteLine(sw.ElapsedMilliseconds);
Небольшое улучшение
var sw = Stopwatch.StartNew();
for (int i = 0; i < N; i++) // (N * 100 + eps) ns
Foo();
sw.Stop();
var total = sw.ElapsedTicks / Stopwatch.Frequency;
WriteLine(total / N);
26/81 1.4 Теория: Количество итераций
83. Прогрев
Запустим бенчмарк несколько раз:
int[] x = new int[128 * 1024 * 1024];
for (int iter = 0; iter < 5; iter++)
{
var sw = Stopwatch.StartNew();
for (int i = 0; i < x.Length; i += 16)
x[i]++;
sw.Stop();
Console.WriteLine(sw.ElapsedMilliseconds);
}
27/81 1.4 Теория: Количество итераций
84. Прогрев
Запустим бенчмарк несколько раз:
int[] x = new int[128 * 1024 * 1024];
for (int iter = 0; iter < 5; iter++)
{
var sw = Stopwatch.StartNew();
for (int i = 0; i < x.Length; i += 16)
x[i]++;
sw.Stop();
Console.WriteLine(sw.ElapsedMilliseconds);
}
Результат:
176
81
62
62
62
27/81 1.4 Теория: Количество итераций
85. Несколько запусков метода
Run 01 : 529.8674 ns/op
Run 02 : 532.7541 ns/op
Run 03 : 558.7448 ns/op
Run 04 : 555.6647 ns/op
Run 05 : 539.6401 ns/op
Run 06 : 539.3494 ns/op
Run 07 : 564.3222 ns/op
Run 08 : 551.9544 ns/op
Run 09 : 550.1608 ns/op
Run 10 : 533.0634 ns/op
28/81 1.4 Теория: Количество итераций
90. Накладные расходы
var sw = Stopwatch.StartNew();
int x = 0;
for (int i = 0; i < N; i++) // overhead
x++; // target operation
sw.Stop();
33/81 1.5 Теория: Различные сложности
91. Изоляция бенчмарков
Плохой бенчмарк
var sw1 = Stopwatch.StartNew();
Foo();
sw1.Stop();
var sw2 = Stopwatch.StartNew();
Bar();
sw2.Stop();
34/81 1.5 Теория: Различные сложности
92. Изоляция бенчмарков
Плохой бенчмарк
var sw1 = Stopwatch.StartNew();
Foo();
sw1.Stop();
var sw2 = Stopwatch.StartNew();
Bar();
sw2.Stop();
Вспомним про:
• Interface method dispatch
• Garbage collector and autotuning
• Conditional jitting
34/81 1.5 Теория: Различные сложности
93. Борьба с оптимизациями
• Dead code elimination
• Inlining
• Constant folding
• Instruction Level Parallelism
• Branch prediction
• . . .
35/81 1.5 Теория: Различные сложности
98. False sharing в действии
private static int[] x = new int[1024];
private void Inc(int p)
{
for (int i = 0; i < 10000001; i++)
x[p]++;
}
private void Run(int step)
{
var sw = Stopwatch.StartNew();
Task.WaitAll(
Task.Factory.StartNew(() => Inc(0 * step)),
Task.Factory.StartNew(() => Inc(1 * step)),
Task.Factory.StartNew(() => Inc(2 * step)),
Task.Factory.StartNew(() => Inc(3 * step)));
Console.WriteLine(sw.ElapsedMilliseconds);
}
40/81 1.5 Теория: Различные сложности
99. False sharing в действии
private static int[] x = new int[1024];
private void Inc(int p)
{
for (int i = 0; i < 10000001; i++)
x[p]++;
}
private void Run(int step)
{
var sw = Stopwatch.StartNew();
Task.WaitAll(
Task.Factory.StartNew(() => Inc(0 * step)),
Task.Factory.StartNew(() => Inc(1 * step)),
Task.Factory.StartNew(() => Inc(2 * step)),
Task.Factory.StartNew(() => Inc(3 * step)));
Console.WriteLine(sw.ElapsedMilliseconds);
}
Run(1) Run(256)
≈400ms ≈150ms
40/81 1.5 Теория: Различные сложности
100. Бенчмаркинг — это сложно
Anon et al., “A Measure of Transaction Processing Power”
There are lies, damn lies and then there are performance measures.
41/81 1.5 Теория: Различные сложности
106. Задача
Какой из методов работает быстрее?
[MethodImpl(MethodImplOptions.NoInlining)]
public void Empty0() {}
[MethodImpl(MethodImplOptions.NoInlining)]
public void Empty1() {}
[MethodImpl(MethodImplOptions.NoInlining)]
public void Empty2() {}
[MethodImpl(MethodImplOptions.NoInlining)]
public void Empty3() {}
45/81 2.1 Практика: Сложности нанобенчмаркинга
107. Попытка решения
Давайте забенчмаркаем!
private void MeasureX() // X = 0, 1, 2, 3
{
for (int i = 0; i < Rep; i++)
{
var sw = Stopwatch.StartNew();
for (int j = 0; j < N; j++)
EmptyX(); // X = 0, 1, 2, 3
sw.Stop();
Write(sw.ElapsedMilliseconds + " ");
}
}
46/81 2.1 Практика: Сложности нанобенчмаркинга
108. Попытка решения
Давайте забенчмаркаем!
private void MeasureX() // X = 0, 1, 2, 3
{
for (int i = 0; i < Rep; i++)
{
var sw = Stopwatch.StartNew();
for (int j = 0; j < N; j++)
EmptyX(); // X = 0, 1, 2, 3
sw.Stop();
Write(sw.ElapsedMilliseconds + " ");
}
}
Empty0: 242 253 245 253 242 244 245 255 245 245 // Slow
Empty1: 241 240 237 244 242 241 238 245 239 239 // Slow
Empty2: 224 228 229 224 223 224 227 222 228 222 // Fast
Empty3: 229 222 226 222 224 226 227 229 225 230 // Fast
46/81 2.1 Практика: Сложности нанобенчмаркинга
109. Обратимся к классике
Рекомендуемая литература: Agner Fog,
“The microarchitecture of Intel, AMD and VIA CPUs.
An optimization guide for assembly programmers and compiler makers.”
47/81 2.1 Практика: Сложности нанобенчмаркинга
110. Обратимся к классике
Рекомендуемая литература: Agner Fog,
“The microarchitecture of Intel, AMD and VIA CPUs.
An optimization guide for assembly programmers and compiler makers.”
3.8 Branch prediction in Intel Haswell, Broadwell and Skylake
Pattern recognition for indirect jumps and calls.
Indirect jumps and indirect calls are predicted well.
111. Обратимся к классике
Рекомендуемая литература: Agner Fog,
“The microarchitecture of Intel, AMD and VIA CPUs.
An optimization guide for assembly programmers and compiler makers.”
3.8 Branch prediction in Intel Haswell, Broadwell and Skylake
Pattern recognition for indirect jumps and calls.
Indirect jumps and indirect calls are predicted well.
. . .
These observations may indicate that there are two branch prediction
methods: a fast method tied to the µop cache and the instruction cache,
and a slower method using a branch target buffer.
47/81 2.1 Практика: Сложности нанобенчмаркинга
115. Сумма элементов массива
const int N = 1024;
int[,] a = new int[N, N];
[Benchmark]
public double SumIj()
{
var sum = 0;
for (int i = 0; i < N; i++)
for (int j = 0; j < N; j++)
sum += a[i, j];
return sum;
}
[Benchmark]
public double SumJi()
{
var sum = 0;
for (int j = 0; j < N; j++)
for (int i = 0; i < N; i++)
sum += a[i, j];
return sum;
}
51/81 2.2 Практика: Работаем с памятью
116. Сумма элементов массива
const int N = 1024;
int[,] a = new int[N, N];
[Benchmark]
public double SumIj()
{
var sum = 0;
for (int i = 0; i < N; i++)
for (int j = 0; j < N; j++)
sum += a[i, j];
return sum;
}
[Benchmark]
public double SumJi()
{
var sum = 0;
for (int j = 0; j < N; j++)
for (int i = 0; i < N; i++)
sum += a[i, j];
return sum;
}
SumIj SumJi
LegacyJIT-x86 ≈1.3ms ≈4.0ms
51/81 2.2 Практика: Работаем с памятью
117. Часть 2.3
Работаем с условными переходами
52/81 2.3 Практика: Работаем с условными переходами
118. Branch prediction
const int N = 32767;
int[] sorted, unsorted; // random numbers [0..255]
private static int Sum(int[] data)
{
int sum = 0;
for (int i = 0; i < N; i++)
if (data[i] >= 128)
sum += data[i];
return sum;
}
[Benchmark]
public int Sorted()
{
return Sum(sorted);
}
[Benchmark]
public int Unsorted()
{
return Sum(unsorted);
}
53/81 2.3 Практика: Работаем с условными переходами
119. Branch prediction
const int N = 32767;
int[] sorted, unsorted; // random numbers [0..255]
private static int Sum(int[] data)
{
int sum = 0;
for (int i = 0; i < N; i++)
if (data[i] >= 128)
sum += data[i];
return sum;
}
[Benchmark]
public int Sorted()
{
return Sum(sorted);
}
[Benchmark]
public int Unsorted()
{
return Sum(unsorted);
}
Sorted Unsorted
LegacyJIT-x86 ≈20µs ≈139µs
53/81 2.3 Практика: Работаем с условными переходами
121. Интерфейсы
private interface IInc {
double Inc(double x);
}
private class Foo : IInc {
double Inc(double x) => x + 1;
}
private class Bar : IInc {
double Inc(double x) => x + 1;
}
private double Run(IInc inc) {
double sum = 0;
for (int i = 0; i < 1001; i++)
sum += inc.Inc(0);
return sum;
}
// Which method is faster?
[Benchmark]
public double FooFoo() {
var foo1 = new Foo();
var foo2 = new Foo();
return Run(foo1) + Run(foo2);
}
[Benchmark]
public double FooBar() {
var foo = new Foo();
var bar = new Bar();
return Run(foo) + Run(bar);
}
55/81 2.4 Практика: Interface method dispatch
122. Интерфейсы
private interface IInc {
double Inc(double x);
}
private class Foo : IInc {
double Inc(double x) => x + 1;
}
private class Bar : IInc {
double Inc(double x) => x + 1;
}
private double Run(IInc inc) {
double sum = 0;
for (int i = 0; i < 1001; i++)
sum += inc.Inc(0);
return sum;
}
// Which method is faster?
[Benchmark]
public double FooFoo() {
var foo1 = new Foo();
var foo2 = new Foo();
return Run(foo1) + Run(foo2);
}
[Benchmark]
public double FooBar() {
var foo = new Foo();
var bar = new Bar();
return Run(foo) + Run(bar);
}
FooFoo FooBar
LegacyJIT-x64 ≈5.4µs ≈7.1µs
55/81 2.4 Практика: Interface method dispatch
129. Как же так?
LegacyJIT-x64
; LegacyJIT-x64
mov ecx,23h
ret
RyuJIT-x64
// Inline expansion aborted due to opcode
// [06] OP_starg.s in method
// Program:WithStarg(int):int:this
60/81 2.5 Практика: Inlining
146. Задачка
private double[] x = new double[11];
[Benchmark]
public double Calc()
{
double sum = 0.0;
for (int i = 1; i < x.Length; i++)
sum += 1.0 / (i * i) * x[i];
return sum;
}
75/81 2.8 Практика: Instruction level parallelism
147. Задачка
private double[] x = new double[11];
[Benchmark]
public double Calc()
{
double sum = 0.0;
for (int i = 1; i < x.Length; i++)
sum += 1.0 / (i * i) * x[i];
return sum;
}
LegacyJIT-x64 RyuJIT-x641
Calc 1 попугай 2 попугая
1
RyuJIT RC
75/81 2.8 Практика: Instruction level parallelism
150. Отказ от ответственности
• Все представленные выводы и бенчмарки могут быть враньём
• На вашем железе цифры могут быть другие, это нормально
• Использование BenchmarkDotNet не делает ваш бенчмарк правильным
• Использование самописных бенчмарков не делает выводы ложными
78/81 3. Заключение
151. Сегодня мы узнали
• Бенчмаркинг и прочие замеры производительности — это сложно
• Бенчмаркинг требует очень много сил, знаний, времени и нервов
• Бенчмарк без анализа — плохой бенчмарк
79/81 3. Заключение