SlideShare uma empresa Scribd logo
1 de 50
Baixar para ler offline
Como domar uma fera de 1TFlop
que cabe na palma da sua mão
Luciano Palma (@LucianoPalma)
Community Manager – Servers & HPC
Intel Software Brasil
Luciano.palma@intel.com
A Capacidade Computacional evoluiu.
O Software não acompanhou.
A densidade de transistores continua aumentando, mas…
… o aumento da velocidade (clock) não
A grande maioria dos PCs vendidos são multi-core, mas…
… muitos programas / cargas ainda não tiram proveito
do paralelismo possível
O Processamento Paralelo é chave para obter
o máximo
desempenho
possível
2
3
Lei de Moore
Se transistores fossem pessoas
Agora imagine o que 1,3 bilhões de pessoas poderiam fazer num palco.
Essa é a escala da Lei de Moore
0.1
1
10
100
1000
1970
1975
1980
1985
1990
1995
2000
2005
2010
2015
2020
Watts
Per Processor
Power
Wall
0.1
1
10
100
1000
0.1
1
10
100
1000
1970
1975
1980
1985
1990
1995
2000
2005
2010
2015
2020
1970
1975
1980
1985
1990
1995
2000
2005
2010
2015
2020
Watts
Per Processor
Power
Wall
1
10
100
1000
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
TPCC 4 Processor
Published
Single Core
Dual
Core
Quad
Core
1
10
100
1000
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
TPCC 4 Processor
Published
1
10
100
1000
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
TPCC 4 Processor
Published
Single Core
Dual
Core
Quad
Core
Por que Programação Paralela é Importante?
Competitividade
na Indústria
Pesquisa
Científica
Segurança
Nacional
Modelagem de
Clima/Tempo
Segurança Nacional
Pesquisa Farmacêutica
Maiores Desafios  Maior Complexidade Computacional…
… mantendo um “orçamento energético” realista
4
Imagens Médicas
Exploração de Energia
Simulações
Desempenho Computacional
Total por país
Análises Financeiras
Projeto de novos Produtos
CAD/manufatura
Criação de Conteúdo Digital
Corrida Computacional
Em Computação de Alto Desempenho (HPC),
a Simulação é crucial
The Scientific Method is Dead-Long Live the (New) Scientific Method, June 2005
Richard M. Satava, MD Journal of Surgical Innovation
A Nova Computação estimulou um Novo Método Científico*
Método Científico Clássico
Hipótese Análise
Conclusão
Refinamento
Experimentação
Modelagem e
Simulação/Refinamento do
Experimento
Previsão
Análise
Conclusão
Refinamento
Hipótese Experimentação
Para simular efetivamente… precisamos nos basear em computação paralela!
5
Exemplo de como a
Computação Paralela tem ajudado...
Problema: Processamento de
Imagens de Ressonância Magnética
Pediátrica é difícil. A reconstrução
da imagem precisa ser rápida
• Crianças não ficam paradas
não seguram a respiração
• Baixa tolerância a exames demorados
• Custos e Riscos da Anestesia
Solução: MRI Avançada:
Processamento Paralelo de Imagens
e Compressed Sensing reduziram
dramaticamente o tempo de
aquisição da MRI
• Reconsturção 100x mais rápida
• MRI de qualidade mais alta e mais rápida
• Esta imagem: paciente de 8 meses com massa
cancerígena no fígado
– Reconstrução Serial: 1 hora
– Reconstrução Paralela: 1 minuto
6
Computação Serial vs. Paralela
Serialização
 Faz Sentido!
 Fácil para fazer “debug”
 Determinístico
 No entanto…
… aplicações serializadas não maximizam o desempenho de saída
(output) e não evoluirão no tempo com o avanço das tecnologias
Paralelização – dá para fazer?!
 Depende da quantidade de trabalho
a realizar e da habilidade
de dividir a tarefa
 É necessário entender a entrada (input), saída (output)
e suas dependências
for (i=0; i< num_sites; ++i) {
search (searchphrase, website[i]);
}
parallel_for (i=0; i< num_sites; ++i) {
search (searchphrase, website[i]);
}
7
Dividindo o trabalho…
Decomposição de Tarefas:
Executa diferentes funções do
programa em paralelo.
Limitada escalabilidade, portanto
precisamos de…
Decomposição de Dados:
Dados são separados em blocos e
cada bloco é processado em uma
task diferente.
A divisão (splitting) pode ser
contínua, recursiva.
Maiores conjuntos de dados 
mais tasks
O Paralelismo cresce à medida que
o tamanho do problema cresce
#pragma omp parallel shared(data, ans1, ans2)
{
#pragma omp sections
{
#pragma omp section
ans1=do_this(data);
#pragma omp section
ans2=do_that(data);
}
}
#pragma omp parallel_for shared(data, ans1)
private(i)
for(i=0; i<N; i++) {
ans1(i) = do_this(data(i));
}
#pragma omp parallel_for shared(data, ans2)
private(i)
for(i=0; i<N; i++) {
ans2(i) = do_that(data(i));
}
8
Técnicas de Programação Paralela:
Como dividir o trabalho entre sistemas?
É possível utilizar Threads (OpenMP, TBB, Cilk, pthreads…) ou
Processos (MPI, process fork..) para programar em paralelo
Modelo de Memória Compartilhada
 Único espaço de memória utilizado por múltiplos processadores
 Espaço de endereçamento unificado
 Simples para trabalhar, mas requer cuidado para evitar condições de corrida
(“race conditions”) quando existe dependência entre eventos
Passagem de Mensagens
 Comunicação entre processos
 Pode demandar mais trabalho para implementar
 Menos “race conditions” porque as mensagens podem forçar o sincronismo
“Race conditions”
acontecem quando processos ou
threads separados modificam ou
dependem das mesmas coisas…
Isso é notavelmente difícil de
“debugar”!
9
10
Agora um pouco de hardware…
11
Engenharia e Arquitetura…
12
Intel inside, inside Intel…
Um processador com múltiplos cores possui
componentes “comuns” aos cores.
Estes compontentes recebem o nome de Uncore.
13
Intel inside, inside Intel…
E agora, dentro do core…
14
Vetores SIMD (SSE)
15
Vetores SIMD (AVX)
Vetorização (SIMD – Single Instruction Multiple Data)
Modo Escalar
Uma instrução produz
um resultado
Processamento SIMD (vetorizado)
Instruções SSE, AVX, AVX2
Uma instrução pode produzir múltiplos resultados
+
a[i]
b[i]
a[i]+b[i]
+
c[i+7] c[i+6] c[i+5] c[i+4] c[i+3] c[i+2] c[i+1] c[i]
b[i+7] b[i+6] b[i+5] b[i+4] b[i+3] b[i+2] b[i+1] b[i]
a[i+7] a[i+6] a[i+5] a[i+4] a[i+3] a[i+2] a[i+1] a[i]
for (i=0;i<=MAX;i++)
c[i]=a[i]+b[i];
a
b
a+b
+
Intel® Xeon Phi™
Ainda mais poder de processamento!
Até 61 cores (4 threads por core)
8 GB RAM GDDR5
Transferência de memória a 320 GB/sec
Vetores de 512 bits
1 TFLOP de processamento (Precisão Dupla)
1 slot PCIe-x16
Uso eficiente de energia (300 W)
Intel® Xeon Phi™
Ainda mais poder de
processamento!
Intel® Xeon Phi™
Cada placa é vista como um nó num cluster
Programação: x86
Intel® Xeon Phi™
Visão de Software da Arquitetura do Intel® Xeon Phi™
Intel® Xeon Phi™
Visão de Hardware da Arquitetura do Intel® Xeon Phi™
Um anel bidirecional de alta velocidade
interconecta as caches L2 dos cores
Intel® Xeon Phi™
4 threads por core
Microarquitetura Pentium otimizada
Clock de 1.1 GHz
Intel® Xeon Phi™
GFLOP/sec =16 (SP SIMD Lane) x 2 (FMA) x 1.1 (GHZ) x
60 (# cores) = 2.112 (aritmética de precisão simples)
GFLOP/sec = 8 (DP SIMD Lane) x 2 (FMA) x 1.1 (GHZ) x 60
(# cores) = 1.056 (aritmética de precisão dupla)
24
Por que descer neste nível?
Utilizar todas as “threads de hardware”
 Não esquecer o HyperThread
Utilizar todas as unidades de execução
 Retirar o máximo de instruções por ciclo de clock
Otimizar o uso dos unidades de vetores (AVX/AVX2)
 Loops otimizados
Manter as caches com dados/instruções válidos
 Evitar “cache misses”
Aproveitar o “branch prediction”
 Evitar o “stall” da pipeline
Para tirar o máximo proveito dos recursos do hardware!
25
Por que descer neste nível?
Utilizar todas as “threads de hardware”
 Não esquecer o HyperThread
Utilizar todas as unidades de execução
 Retirar o máximo de instruções por ciclo de clock
Otimizar o uso dos unidades de vetores (AVX/AVX2)
 Loops otimizados
Manter as caches com dados/instruções válidos
 Evitar “cache misses”
Aproveitar o “branch prediction”
 Evitar o “stall” da pipeline
Para tirar o máximo proveito dos recursos do hardware!
26
Por que descer neste nível?
Utilizar todas as “threads de hardware”
 Não esquecer o HyperThread
Utilizar todas as unidades de execução
 Retirar o máximo de instruções por ciclo de clock
Otimizar o uso dos unidades de vetores (AVX/AVX2)
 Loops otimizados
Manter as caches com dados/instruções válidos
 Evitar “cache misses”
Aproveitar o “branch prediction”
 Evitar o “stall” da pipeline
Para tirar o máximo proveito dos recursos do hardware!
Existem recursos para lhe ajudar!
Ferramentas de Software da Intel
IDZ – Intel Developer Zone
http://software.intel.com
Intel® Cilk™ Plus
• Extensões para
as linguagens
C/C++ para
simplificar o
paralelismo
• Código aberto
Também um
produto Intel
Intel® Threading
Building Blocks
• Template
libraries
amplamente
usadas em C++
para paralelismo
• Código aberto
Também um
produto Intel
Domain Specific
Libraries
• Intel® Integrated
Performance
Primitives
• Intel® Math
Kernel Library
Padrões
estabelecidos
• Message Passing
Interface (MPI)
• OpenMP*
• Coarray Fortran
• OpenCL*
Modelos de Programação Paralela
Níveis de abstração conforme a necessidade
Mesmos modelos para multi-core (Xeon) e
many-core (Xeon Phi)
Exemplo de uso
Intel® Cilk™ Plus - Tasking
Palavras-chave do Intel® Cilk™ Plus
Cilk Plus adiciona 3 palavras-chave ao C/C++:
_cilk_spawn
_cilk_sync
_cilk_for
Usando #include <cilk/cilk.h>, você pode usar as
palavras-chave: cilk_spawn, cilk_sync e cilk_for.
O runtime do CILK Plus controla a criação de threads e seu
agendamento. O pool de threads é criado antes do uso das
palavras-chave do CILK Plus.
Por default, o número de threads é igual ao número de
núcleos (incluindo hyperthreads), mas pode ser controlado
pelo usuário
cilk_spawn e cilk_sync
cilk_spawn dá ao runtime a
permissão para rodar uma função-filha de forma assíncrona.
– Não é criada (nem necessária) uma 2a thread!
– Se não houver workers disponíveis, a função-filha será
executada com uma chamada a uma função serial.
– O scheduler pode “roubar” a fila da função-pai e executá-la
em paralelo com a função-filha.
– A função-pai não tem garantia de rodar em paralelo com a
função-filha.
cilk_sync aguarda a conclusão de todas as funções-filhas
antes que a execução prossiga além daquele ponto.
– Existem pontos de sincronismo (cilk_sync) implícitos –
discutidos adiante.
Um exemplo simples
Computação recursiva do número de Fibonacci:
int fib(int n)
{
int x, y;
if (n < 2) return n;
x = cilk_spawn fib(n-1);
y = fib(n-2);
cilk_sync;
return x+y;
}
Chamadas assíncronas devem
completar antes de usar x.
Execução pode continuar
enquanto fib(n-1) roda.
cilk_for
Semelhante a um loop “for” regular.
cilk_for (int x = 0; x < 1000000; ++x) { … }
Qualquer iteração pode executar em paralelo com qualquer
outra
Todas as interações completam antes do programa prosseguir
Limitações:
– Limitado a uma única variável de controle
– Deve ser capaz de voltar ao início de qualquer iteração,
randomicamente
– Iterações devem ser independentes umas das outras
Nos bastidores do cilk_for…
void run_loop(first, last) {
if ((last - first) < grainsize) {
for (int i=first; i<last ++i)
{LOOP_BODY;}
}
else {
int mid = (last-first)/2;
cilk_spawn run_loop(first, mid);
run_loop(mid, last);
}
}
Exemplos de cilk_for
cilk_for (int x; x < 1000000; x += 2) { … }
cilk_for (vector<int>::iterator x = y.begin();
x != y.end(); ++x) { … }
cilk_for (list<int>::iterator x = y.begin();
x != y.end(); ++x) { … }
 O contador do loop não pode ser calculado em tempo de
compilação usando uma lista.
(y.end() – y.begin() não é definido)
 Não há acesso randômico aos elementos de uma lista.
(y.begin() + n não é definido.)
Serialização
Todo programa Cilk Plus tem um equivalente serial,
chamado de serialização
A serialização é obtida removendo as palavras-chave
cilk_spawn e cilk_sync e substituindo
cilk_for por for
O compilador produzirá a serialização se você
compilar com –cilk-serialize (Linux*/OS X*)
Rodar um programa com somente um worker é
equivalente a rodar a serialização.
Semântica Serial
Um programa CILK Plus determinístico terá a mesma
semântica de sua serialização.
– Facilita a realização de testes de regressão;
– Facilita o debug:
– Roda com somente um núcleo
– Roda serializado
– Permite composição
– Vantagens dos hyperobjects
– Ferramentas de análise robutas (Cilk Plus SDK)
– cilkscreen race detector
– cilkview parallelism analyzer
Sincronismos implícitos
void f() {
cilk_spawn g();
cilk_for (int x = 0; x < lots; ++x) {
...
}
try {
cilk_spawn h();
}
catch (...) {
...
}
} Ao final de uma funcão utilizando spawn
Ao final do corpo de um cilk_for (não sincroniza g())
Ao final de um bloco try contendo um spawn
Antes de entrar num bloco try contendo um sync
Exemplo de uso
OpenMP – Cálculo de π
Cálculo de π – Teoria
π pode ser calculado através da integral abaixo
π = ∫ f(x) * d(x) = 4 / (1 + x2) * d(x) = 3.141592654...0
1
π = 4 / (1 + 0,52) * 1 = 4 / 1,25  π = 3,2
Cálculo de π – Primeira Aproximação
Valor grosseiramente aproximado de π
f(0,25) = 3,735; f(0,75) = 2,572  π = 3,153
3,735 * 0,5
= 1,867
2,572 * 0,5
= 1,286
Cálculo de π – Segunda Aproximação
Com mais aproximações, o valor de π tende ao valor teórico
Aproximação com 10 intervalos  π = 3,14243,990*0,1=0,399
3,912*0,1=0,391
3,765*0,1=0,376
3,563*0,1=0,356
3,326*0,1=0,333
3,071*0,1=0,397
2,812*0,1=0,281
2,560*0,1=0,256
2,322*0,1=0,232
2,102*0,1=0,210
Cálculo de π – Aumentando os intervalos…
Quanto mais intervalos, maior a precisão do cálculo
SOLUÇÃO DO PROBLEMA ATRAVÉS DE HPC
Cada thread realiza o cálculo de alguns intervalos
3,912*0,1=0,391
3,765*0,1=0,376
3,563*0,1=0,356
3,326*0,1=0,333
3,071*0,1=0,397
2,812*0,1=0,281
2,560*0,1=0,256
2,322*0,1=0,232
2,102*0,1=0,210
3,990*0,1=0,399
REDUÇÃO
PI = 3,1424
3,912*0,1=0,3913,912*0,1=0,391
3,765*0,1=0,3763,765*0,1=0,376
3,563*0,1=0,3563,563*0,1=0,356
3,326*0,1=0,3333,326*0,1=0,333
3,071*0,1=0,3973,071*0,1=0,397
2,812*0,1=0,2812,812*0,1=0,281
2,560*0,1=0,2562,560*0,1=0,256
2,322*0,1=0,2322,322*0,1=0,232
2,102*0,1=0,2102,102*0,1=0,210
3,990*0,1=0,3993,990*0,1=0,399
3,912*0,1=0,3913,912*0,1=0,3913,912*0,1=0,3913,912*0,1=0,391
3,765*0,1=0,3763,765*0,1=0,3763,765*0,1=0,3763,765*0,1=0,376
3,563*0,1=0,3563,563*0,1=0,3563,563*0,1=0,3563,563*0,1=0,356
3,326*0,1=0,3333,326*0,1=0,3333,326*0,1=0,3333,326*0,1=0,333
3,071*0,1=0,3973,071*0,1=0,3973,071*0,1=0,3973,071*0,1=0,397
2,812*0,1=0,2812,812*0,1=0,2812,812*0,1=0,2812,812*0,1=0,281
2,560*0,1=0,2562,560*0,1=0,2562,560*0,1=0,2562,560*0,1=0,256
2,322*0,1=0,2322,322*0,1=0,2322,322*0,1=0,2322,322*0,1=0,232
2,102*0,1=0,2102,102*0,1=0,2102,102*0,1=0,2102,102*0,1=0,210
3,990*0,1=0,3993,990*0,1=0,3993,990*0,1=0,3993,990*0,1=0,399
Thread Thread Thread Thread
Demo de Programação Paralela
Cálculo de π
Vídeo:
Breve apresentação do
Intel® Xeon Phi™
Nota sobre Otimização
• INFORMATION IN THIS DOCUMENT IS PROVIDED IN CONNECTION WITH INTEL PRODUCTS. NO LICENSE, EXPRESS OR IMPLIED, BY ESTOPPEL OR
OTHERWISE, TO ANY INTELLECTUAL PROPERTY RIGHTS IS GRANTED BY THIS DOCUMENT. EXCEPT AS PROVIDED IN INTEL'S TERMS AND CONDITIONS
OF SALE FOR SUCH PRODUCTS, INTEL ASSUMES NO LIABILITY WHATSOEVER AND INTEL DISCLAIMS ANY EXPRESS OR IMPLIED WARRANTY, RELATING
TO SALE AND/OR USE OF INTEL PRODUCTS INCLUDING LIABILITY OR WARRANTIES RELATING TO FITNESS FOR A PARTICULAR PURPOSE,
MERCHANTABILITY, OR INFRINGEMENT OF ANY PATENT, COPYRIGHT OR OTHER INTELLECTUAL PROPERTY RIGHT.
• A "Mission Critical Application" is any application in which failure of the Intel Product could result, directly or indirectly, in personal injury or
death. SHOULD YOU PURCHASE OR USE INTEL'S PRODUCTS FOR ANY SUCH MISSION CRITICAL APPLICATION, YOU SHALL INDEMNIFY AND HOLD INTEL
AND ITS SUBSIDIARIES, SUBCONTRACTORS AND AFFILIATES, AND THE DIRECTORS, OFFICERS, AND EMPLOYEES OF EACH, HARMLESS AGAINST ALL
CLAIMS COSTS, DAMAGES, AND EXPENSES AND REASONABLE ATTORNEYS' FEES ARISING OUT OF, DIRECTLY OR INDIRECTLY, ANY CLAIM OF PRODUCT
LIABILITY, PERSONAL INJURY, OR DEATH ARISING IN ANY WAY OUT OF SUCH MISSION CRITICAL APPLICATION, WHETHER OR NOT INTEL OR ITS
SUBCONTRACTOR WAS NEGLIGENT IN THE DESIGN, MANUFACTURE, OR WARNING OF THE INTEL PRODUCT OR ANY OF ITS PARTS.
• Intel may make changes to specifications and product descriptions at any time, without notice. Designers must not rely on the absence or characteristics
of any features or instructions marked "reserved" or "undefined". Intel reserves these for future definition and shall have no responsibility whatsoever
for conflicts or incompatibilities arising from future changes to them. The information here is subject to change without notice. Do not finalize a design
with this information.
• The products described in this document may contain design defects or errors known as errata which may cause the product to deviate from published
specifications. Current characterized errata are available on request.
• Intel processor numbers are not a measure of performance. Processor numbers differentiate features within each processor family, not across different
processor families. Go to: http://www.intel.com/products/processor_number.
• Contact your local Intel sales office or your distributor to obtain the latest specifications and before placing your product order.
• Copies of documents which have an order number and are referenced in this document, or other Intel literature, may be obtained by calling 1-800-548-
4725, or go to: http://www.intel.com/design/literature.htm
• Intel, Core, Atom, Pentium, Intel inside, Sponsors of Tomorrow, Pentium, 386, 486, DX2 and the Intel logo are trademarks of Intel Corporation in the
United States and other countries.
• *Other names and brands may be claimed as the property of others.
• Copyright ©2012 Intel Corporation.
Legal Disclaimer
Risk Factors
The above statements and any others in this document that refer to plans and expectations for the second quarter, the year and the future are forward-looking
statements that involve a number of risks and uncertainties. Words such as “anticipates,” “expects,” “intends,” “plans,” “believes,” “seeks,” “estimates,” “may,”
“will,” “should” and their variations identify forward-looking statements. Statements that refer to or are based on projections, uncertain events or assumptions
also identify forward-looking statements. Many factors could affect Intel’s actual results, and variances from Intel’s current expectations regarding such factors
could cause actual results to differ materially from those expressed in these forward-looking statements. Intel presently considers the following to be the
important factors that could cause actual results to differ materially from the company’s expectations. Demand could be different from Intel's expectations due
to factors including changes in business and economic conditions, including supply constraints and other disruptions affecting customers; customer acceptance of
Intel’s and competitors’ products; changes in customer order patterns including order cancellations; and changes in the level of inventory at customers.
Uncertainty in global economic and financial conditions poses a risk that consumers and businesses may defer purchases in response to negative financial events,
which could negatively affect product demand and other related matters. Intel operates in intensely competitive industries that are characterized by a high
percentage of costs that are fixed or difficult to reduce in the short term and product demand that is highly variable and difficult to forecast. Revenue and the
gross margin percentage are affected by the timing of Intel product introductions and the demand for and market acceptance of Intel's products; actions taken
by Intel's competitors, including product offerings and introductions, marketing programs and pricing pressures and Intel’s response to such actions; and Intel’s
ability to respond quickly to technological developments and to incorporate new features into its products. Intel is in the process of transitioning to its next
generation of products on 22nm process technology, and there could be execution and timing issues associated with these changes, including products defects
and errata and lower than anticipated manufacturing yields. The gross margin percentage could vary significantly from expectations based on capacity utilization;
variations in inventory valuation, including variations related to the timing of qualifying products for sale; changes in revenue levels; segment product mix; the
timing and execution of the manufacturing ramp and associated costs; start-up costs; excess or obsolete inventory; changes in unit costs; defects or disruptions
in the supply of materials or resources; product manufacturing quality/yields; and impairments of long-lived assets, including manufacturing, assembly/test and
intangible assets. The majority of Intel’s non-marketable equity investment portfolio balance is concentrated in companies in the flash memory market segment,
and declines in this market segment or changes in management’s plans with respect to Intel’s investments in this market segment could result in significant
impairment charges, impacting restructuring charges as well as gains/losses on equity investments and interest and other. Intel's results could be affected by
adverse economic, social, political and physical/infrastructure conditions in countries where Intel, its customers or its suppliers operate, including military conflict
and other security risks, natural disasters, infrastructure disruptions, health concerns and fluctuations in currency exchange rates. Expenses, particularly certain
marketing and compensation expenses, as well as restructuring and asset impairment charges, vary depending on the level of demand for Intel's products and
the level of revenue and profits. Intel’s results could be affected by the timing of closing of acquisitions and divestitures. Intel's results could be affected by
adverse effects associated with product defects and errata (deviations from published specifications), and by litigation or regulatory matters involving
intellectual property, stockholder, consumer, antitrust, disclosure and other issues, such as the litigation and regulatory matters described in Intel's SEC reports.
An unfavorable ruling could include monetary damages or an injunction prohibiting Intel from manufacturing or selling one or more products, precluding particular
business practices, impacting Intel’s ability to design its products, or requiring other remedies such as compulsory licensing of intellectual property. A detailed
discussion of these and other factors that could affect Intel’s results is included in Intel’s SEC filings, including the report on Form 10-K for the year ended Dec.
31, 2011.
Rev. 4/17/12
FISL14: Como domar uma fera de 1 TFlop que cabe na palma da sua mão!

Mais conteúdo relacionado

Mais procurados

Linux Real-Time e Java Real Time, um mundo sem delays! por Flávio Buccianti
Linux Real-Time e Java Real Time, um mundo sem delays! por Flávio BucciantiLinux Real-Time e Java Real Time, um mundo sem delays! por Flávio Buccianti
Linux Real-Time e Java Real Time, um mundo sem delays! por Flávio Buccianti
Joao Galdino Mello de Souza
 
Tendências Tecnológicas em Processadores, por Luiz Carlos Orsoni
Tendências Tecnológicas em Processadores, por Luiz Carlos OrsoniTendências Tecnológicas em Processadores, por Luiz Carlos Orsoni
Tendências Tecnológicas em Processadores, por Luiz Carlos Orsoni
Joao Galdino Mello de Souza
 
Sistemas Distribuídos - Computação Paralela - Introdução
Sistemas Distribuídos - Computação Paralela - IntroduçãoSistemas Distribuídos - Computação Paralela - Introdução
Sistemas Distribuídos - Computação Paralela - Introdução
Adriano Teixeira de Souza
 

Mais procurados (18)

Laboratórios do HandsOn de mbedOS - FTF Connects SP 2016
Laboratórios do HandsOn de mbedOS - FTF Connects SP 2016Laboratórios do HandsOn de mbedOS - FTF Connects SP 2016
Laboratórios do HandsOn de mbedOS - FTF Connects SP 2016
 
Performance tuning
Performance tuningPerformance tuning
Performance tuning
 
Evolução das CPUs
Evolução das CPUsEvolução das CPUs
Evolução das CPUs
 
Z13 x zEC12: O que esperar? - por Luiz Carlos Orsoni
Z13 x zEC12: O que esperar? - por Luiz Carlos OrsoniZ13 x zEC12: O que esperar? - por Luiz Carlos Orsoni
Z13 x zEC12: O que esperar? - por Luiz Carlos Orsoni
 
Desenvolvendo Aplicações de Uso Geral para GPU com CUDA
Desenvolvendo Aplicações de Uso Geral para GPU com CUDADesenvolvendo Aplicações de Uso Geral para GPU com CUDA
Desenvolvendo Aplicações de Uso Geral para GPU com CUDA
 
Pipeline Técnica de processadores.
Pipeline Técnica de processadores.Pipeline Técnica de processadores.
Pipeline Técnica de processadores.
 
Pipeline
PipelinePipeline
Pipeline
 
Curso "Desenvolvendo aplicações de uso geral para GPU com CUDA".
Curso "Desenvolvendo aplicações de uso geral para GPU com CUDA".Curso "Desenvolvendo aplicações de uso geral para GPU com CUDA".
Curso "Desenvolvendo aplicações de uso geral para GPU com CUDA".
 
Arduino sist u_controlados_intro_eletrica_2019_keynote_novo
Arduino sist u_controlados_intro_eletrica_2019_keynote_novoArduino sist u_controlados_intro_eletrica_2019_keynote_novo
Arduino sist u_controlados_intro_eletrica_2019_keynote_novo
 
Principais conceitos e técnicas em vetorização
Principais conceitos e técnicas em vetorizaçãoPrincipais conceitos e técnicas em vetorização
Principais conceitos e técnicas em vetorização
 
Pipeline
PipelinePipeline
Pipeline
 
Mini-curso Programação Paralela e Distribuída
Mini-curso Programação Paralela e DistribuídaMini-curso Programação Paralela e Distribuída
Mini-curso Programação Paralela e Distribuída
 
Linux Real-Time e Java Real Time, um mundo sem delays! por Flávio Buccianti
Linux Real-Time e Java Real Time, um mundo sem delays! por Flávio BucciantiLinux Real-Time e Java Real Time, um mundo sem delays! por Flávio Buccianti
Linux Real-Time e Java Real Time, um mundo sem delays! por Flávio Buccianti
 
Threads
ThreadsThreads
Threads
 
Tendências Tecnológicas em Processadores, por Luiz Carlos Orsoni
Tendências Tecnológicas em Processadores, por Luiz Carlos OrsoniTendências Tecnológicas em Processadores, por Luiz Carlos Orsoni
Tendências Tecnológicas em Processadores, por Luiz Carlos Orsoni
 
Sistemas Distribuídos - Computação Paralela - Introdução
Sistemas Distribuídos - Computação Paralela - IntroduçãoSistemas Distribuídos - Computação Paralela - Introdução
Sistemas Distribuídos - Computação Paralela - Introdução
 
Introdução ao pipeline
Introdução  ao  pipelineIntrodução  ao  pipeline
Introdução ao pipeline
 
Mini-curso CUDA
Mini-curso CUDAMini-curso CUDA
Mini-curso CUDA
 

Semelhante a FISL14: Como domar uma fera de 1 TFlop que cabe na palma da sua mão!

Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...
Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...
Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...
Joao Galdino Mello de Souza
 
Paralelização em Sistemas Computacionais por Bruno Domingues
Paralelização em Sistemas Computacionais por Bruno DominguesParalelização em Sistemas Computacionais por Bruno Domingues
Paralelização em Sistemas Computacionais por Bruno Domingues
Joao Galdino Mello de Souza
 
Introdução risc x cisc
Introdução risc x ciscIntrodução risc x cisc
Introdução risc x cisc
uembley
 

Semelhante a FISL14: Como domar uma fera de 1 TFlop que cabe na palma da sua mão! (20)

TDC2016SP - Trilha BigData
TDC2016SP - Trilha BigDataTDC2016SP - Trilha BigData
TDC2016SP - Trilha BigData
 
Geração Automática de Autómatos Celulares para FPGA
Geração Automática de Autómatos Celulares para FPGAGeração Automática de Autómatos Celulares para FPGA
Geração Automática de Autómatos Celulares para FPGA
 
Dismistificando deep learning
Dismistificando deep learningDismistificando deep learning
Dismistificando deep learning
 
Sistemas embarcados: motivação e primeiros passos
Sistemas embarcados: motivação e primeiros passosSistemas embarcados: motivação e primeiros passos
Sistemas embarcados: motivação e primeiros passos
 
Apresentacao 2 - Convidado especial: Intel - SantaASUS 2009
Apresentacao 2 - Convidado especial: Intel - SantaASUS 2009 Apresentacao 2 - Convidado especial: Intel - SantaASUS 2009
Apresentacao 2 - Convidado especial: Intel - SantaASUS 2009
 
Processadores core i3 e amd
Processadores core i3 e amdProcessadores core i3 e amd
Processadores core i3 e amd
 
Amazon EC2 boas praticas e otimizações de desempenho
Amazon EC2 boas praticas e otimizações de desempenhoAmazon EC2 boas praticas e otimizações de desempenho
Amazon EC2 boas praticas e otimizações de desempenho
 
Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...
Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...
Desafios no dimensionamento de capacidade em ambiente Mainframe por Fernando ...
 
Multithreaded tecnologia
Multithreaded tecnologia Multithreaded tecnologia
Multithreaded tecnologia
 
Paralelização em Sistemas Computacionais por Bruno Domingues
Paralelização em Sistemas Computacionais por Bruno DominguesParalelização em Sistemas Computacionais por Bruno Domingues
Paralelização em Sistemas Computacionais por Bruno Domingues
 
Microarquitetura Intel Core Duo
Microarquitetura Intel Core DuoMicroarquitetura Intel Core Duo
Microarquitetura Intel Core Duo
 
Arquiteturas_risc_e_cisc
Arquiteturas_risc_e_ciscArquiteturas_risc_e_cisc
Arquiteturas_risc_e_cisc
 
Processadores
ProcessadoresProcessadores
Processadores
 
Otimização holistica de ambiente computacional
Otimização holistica de ambiente computacionalOtimização holistica de ambiente computacional
Otimização holistica de ambiente computacional
 
Apostila de montagem e manutenção de computadores emi mario gurgel
Apostila de montagem e manutenção de computadores emi mario gurgelApostila de montagem e manutenção de computadores emi mario gurgel
Apostila de montagem e manutenção de computadores emi mario gurgel
 
Introdução risc x cisc
Introdução risc x ciscIntrodução risc x cisc
Introdução risc x cisc
 
Além da programação funcional com Elixir e Erlang
Além da programação funcional com Elixir e ErlangAlém da programação funcional com Elixir e Erlang
Além da programação funcional com Elixir e Erlang
 
Resumo x86
Resumo x86Resumo x86
Resumo x86
 
Estratégias de escablabilidade para serviços online
Estratégias de escablabilidade para serviços onlineEstratégias de escablabilidade para serviços online
Estratégias de escablabilidade para serviços online
 
Cloud Server Embratel
Cloud Server EmbratelCloud Server Embratel
Cloud Server Embratel
 

Mais de Luciano Palma

certified_1202_370648
certified_1202_370648certified_1202_370648
certified_1202_370648
Luciano Palma
 

Mais de Luciano Palma (20)

Mind the gap desafios da migração do mundo corporativo para startups
Mind the gap   desafios da migração do mundo corporativo para startupsMind the gap   desafios da migração do mundo corporativo para startups
Mind the gap desafios da migração do mundo corporativo para startups
 
CV-LucianoPalma
CV-LucianoPalmaCV-LucianoPalma
CV-LucianoPalma
 
certified_1202_370648
certified_1202_370648certified_1202_370648
certified_1202_370648
 
Luciano Palma One Sheet
Luciano Palma One SheetLuciano Palma One Sheet
Luciano Palma One Sheet
 
Seu corpo é o novo computador - Social media week 2014 - Luciano Palma
Seu corpo é o novo computador - Social media week 2014 - Luciano PalmaSeu corpo é o novo computador - Social media week 2014 - Luciano Palma
Seu corpo é o novo computador - Social media week 2014 - Luciano Palma
 
Social and Economic Networks: Models and Analysis
Social and Economic Networks: Models and AnalysisSocial and Economic Networks: Models and Analysis
Social and Economic Networks: Models and Analysis
 
Sucesso, Bônus, Humanidade. Escoha dois.
Sucesso, Bônus, Humanidade. Escoha dois.Sucesso, Bônus, Humanidade. Escoha dois.
Sucesso, Bônus, Humanidade. Escoha dois.
 
Trevisan - Educação Executiva em Redes Sociais - Comunicação Interna
Trevisan - Educação Executiva em Redes Sociais - Comunicação InternaTrevisan - Educação Executiva em Redes Sociais - Comunicação Interna
Trevisan - Educação Executiva em Redes Sociais - Comunicação Interna
 
Tecnologia e o futuro: o que isso impacta na formação das equipes?
Tecnologia e o futuro: o que isso impacta na formação das equipes?Tecnologia e o futuro: o que isso impacta na formação das equipes?
Tecnologia e o futuro: o que isso impacta na formação das equipes?
 
Marketing Talks - Marketing Digital (Luciano Palma) ADVP/Sinapro-PA
Marketing Talks - Marketing Digital (Luciano Palma) ADVP/Sinapro-PAMarketing Talks - Marketing Digital (Luciano Palma) ADVP/Sinapro-PA
Marketing Talks - Marketing Digital (Luciano Palma) ADVP/Sinapro-PA
 
Aula30 trevisan
Aula30 trevisanAula30 trevisan
Aula30 trevisan
 
Trevisan - Educação Executiva em Redes Sociais - Aulas 28 e 29
Trevisan - Educação Executiva em Redes Sociais - Aulas 28 e 29Trevisan - Educação Executiva em Redes Sociais - Aulas 28 e 29
Trevisan - Educação Executiva em Redes Sociais - Aulas 28 e 29
 
Aula27 trevisan
Aula27 trevisanAula27 trevisan
Aula27 trevisan
 
Trevisan - Educação Executiva em Redes Sociais - Aula 26
Trevisan - Educação Executiva em Redes Sociais - Aula 26Trevisan - Educação Executiva em Redes Sociais - Aula 26
Trevisan - Educação Executiva em Redes Sociais - Aula 26
 
Trevisan - Educação Executiva em Redes Sociais - Aula 10
Trevisan - Educação Executiva em Redes Sociais - Aula 10Trevisan - Educação Executiva em Redes Sociais - Aula 10
Trevisan - Educação Executiva em Redes Sociais - Aula 10
 
E-commerce em Redes Sociais (Web Expo Fórum 2011, Luciano Palma)
E-commerce em Redes Sociais (Web Expo Fórum 2011, Luciano Palma)E-commerce em Redes Sociais (Web Expo Fórum 2011, Luciano Palma)
E-commerce em Redes Sociais (Web Expo Fórum 2011, Luciano Palma)
 
KM Brasil 2010 - Gramado - RS
KM Brasil 2010 - Gramado - RSKM Brasil 2010 - Gramado - RS
KM Brasil 2010 - Gramado - RS
 
Beyond Budgeting
Beyond BudgetingBeyond Budgeting
Beyond Budgeting
 
ZenTalk sobre Redes Sociais
ZenTalk sobre Redes SociaisZenTalk sobre Redes Sociais
ZenTalk sobre Redes Sociais
 
Mídias Sociais: Estratégias e Métricas
Mídias Sociais: Estratégias e MétricasMídias Sociais: Estratégias e Métricas
Mídias Sociais: Estratégias e Métricas
 

Último

Último (8)

Entrevistas, artigos, livros & citações de Paulo Pagliusi
Entrevistas, artigos, livros & citações de Paulo PagliusiEntrevistas, artigos, livros & citações de Paulo Pagliusi
Entrevistas, artigos, livros & citações de Paulo Pagliusi
 
Palestras sobre Cibersegurança em Eventos - Paulo Pagliusi
Palestras sobre Cibersegurança em Eventos - Paulo PagliusiPalestras sobre Cibersegurança em Eventos - Paulo Pagliusi
Palestras sobre Cibersegurança em Eventos - Paulo Pagliusi
 
EAD Curso - CIÊNCIA DE DADOS NA INDÚSTTRIA
EAD Curso - CIÊNCIA DE DADOS NA INDÚSTTRIAEAD Curso - CIÊNCIA DE DADOS NA INDÚSTTRIA
EAD Curso - CIÊNCIA DE DADOS NA INDÚSTTRIA
 
COI CENTRO DE OPERAÇÕES INDUSTRIAIS NAS USINAS
COI CENTRO DE OPERAÇÕES INDUSTRIAIS NAS USINASCOI CENTRO DE OPERAÇÕES INDUSTRIAIS NAS USINAS
COI CENTRO DE OPERAÇÕES INDUSTRIAIS NAS USINAS
 
[ServiceNow] Upgrade de versão - 2ª edição (Revisada, atualizada e ampliada)
[ServiceNow] Upgrade de versão - 2ª edição (Revisada, atualizada e ampliada)[ServiceNow] Upgrade de versão - 2ª edição (Revisada, atualizada e ampliada)
[ServiceNow] Upgrade de versão - 2ª edição (Revisada, atualizada e ampliada)
 
ATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docx
ATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docxATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docx
ATIVIDADE 1 - CUSTOS DE PRODUÇÃO - 52_2024.docx
 
ATIVIDADE 1 - GESTÃO DE PESSOAS E DESENVOLVIMENTO DE EQUIPES - 52_2024.docx
ATIVIDADE 1 - GESTÃO DE PESSOAS E DESENVOLVIMENTO DE EQUIPES - 52_2024.docxATIVIDADE 1 - GESTÃO DE PESSOAS E DESENVOLVIMENTO DE EQUIPES - 52_2024.docx
ATIVIDADE 1 - GESTÃO DE PESSOAS E DESENVOLVIMENTO DE EQUIPES - 52_2024.docx
 
ATIVIDADE 1 - CÁLCULO DIFERENCIAL E INTEGRAL II - 52_2024.docx
ATIVIDADE 1 - CÁLCULO DIFERENCIAL E INTEGRAL II - 52_2024.docxATIVIDADE 1 - CÁLCULO DIFERENCIAL E INTEGRAL II - 52_2024.docx
ATIVIDADE 1 - CÁLCULO DIFERENCIAL E INTEGRAL II - 52_2024.docx
 

FISL14: Como domar uma fera de 1 TFlop que cabe na palma da sua mão!

  • 1. Como domar uma fera de 1TFlop que cabe na palma da sua mão Luciano Palma (@LucianoPalma) Community Manager – Servers & HPC Intel Software Brasil Luciano.palma@intel.com
  • 2. A Capacidade Computacional evoluiu. O Software não acompanhou. A densidade de transistores continua aumentando, mas… … o aumento da velocidade (clock) não A grande maioria dos PCs vendidos são multi-core, mas… … muitos programas / cargas ainda não tiram proveito do paralelismo possível O Processamento Paralelo é chave para obter o máximo desempenho possível 2
  • 3. 3 Lei de Moore Se transistores fossem pessoas Agora imagine o que 1,3 bilhões de pessoas poderiam fazer num palco. Essa é a escala da Lei de Moore 0.1 1 10 100 1000 1970 1975 1980 1985 1990 1995 2000 2005 2010 2015 2020 Watts Per Processor Power Wall 0.1 1 10 100 1000 0.1 1 10 100 1000 1970 1975 1980 1985 1990 1995 2000 2005 2010 2015 2020 1970 1975 1980 1985 1990 1995 2000 2005 2010 2015 2020 Watts Per Processor Power Wall 1 10 100 1000 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 TPCC 4 Processor Published Single Core Dual Core Quad Core 1 10 100 1000 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 TPCC 4 Processor Published 1 10 100 1000 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 TPCC 4 Processor Published Single Core Dual Core Quad Core
  • 4. Por que Programação Paralela é Importante? Competitividade na Indústria Pesquisa Científica Segurança Nacional Modelagem de Clima/Tempo Segurança Nacional Pesquisa Farmacêutica Maiores Desafios  Maior Complexidade Computacional… … mantendo um “orçamento energético” realista 4 Imagens Médicas Exploração de Energia Simulações Desempenho Computacional Total por país Análises Financeiras Projeto de novos Produtos CAD/manufatura Criação de Conteúdo Digital Corrida Computacional
  • 5. Em Computação de Alto Desempenho (HPC), a Simulação é crucial The Scientific Method is Dead-Long Live the (New) Scientific Method, June 2005 Richard M. Satava, MD Journal of Surgical Innovation A Nova Computação estimulou um Novo Método Científico* Método Científico Clássico Hipótese Análise Conclusão Refinamento Experimentação Modelagem e Simulação/Refinamento do Experimento Previsão Análise Conclusão Refinamento Hipótese Experimentação Para simular efetivamente… precisamos nos basear em computação paralela! 5
  • 6. Exemplo de como a Computação Paralela tem ajudado... Problema: Processamento de Imagens de Ressonância Magnética Pediátrica é difícil. A reconstrução da imagem precisa ser rápida • Crianças não ficam paradas não seguram a respiração • Baixa tolerância a exames demorados • Custos e Riscos da Anestesia Solução: MRI Avançada: Processamento Paralelo de Imagens e Compressed Sensing reduziram dramaticamente o tempo de aquisição da MRI • Reconsturção 100x mais rápida • MRI de qualidade mais alta e mais rápida • Esta imagem: paciente de 8 meses com massa cancerígena no fígado – Reconstrução Serial: 1 hora – Reconstrução Paralela: 1 minuto 6
  • 7. Computação Serial vs. Paralela Serialização  Faz Sentido!  Fácil para fazer “debug”  Determinístico  No entanto… … aplicações serializadas não maximizam o desempenho de saída (output) e não evoluirão no tempo com o avanço das tecnologias Paralelização – dá para fazer?!  Depende da quantidade de trabalho a realizar e da habilidade de dividir a tarefa  É necessário entender a entrada (input), saída (output) e suas dependências for (i=0; i< num_sites; ++i) { search (searchphrase, website[i]); } parallel_for (i=0; i< num_sites; ++i) { search (searchphrase, website[i]); } 7
  • 8. Dividindo o trabalho… Decomposição de Tarefas: Executa diferentes funções do programa em paralelo. Limitada escalabilidade, portanto precisamos de… Decomposição de Dados: Dados são separados em blocos e cada bloco é processado em uma task diferente. A divisão (splitting) pode ser contínua, recursiva. Maiores conjuntos de dados  mais tasks O Paralelismo cresce à medida que o tamanho do problema cresce #pragma omp parallel shared(data, ans1, ans2) { #pragma omp sections { #pragma omp section ans1=do_this(data); #pragma omp section ans2=do_that(data); } } #pragma omp parallel_for shared(data, ans1) private(i) for(i=0; i<N; i++) { ans1(i) = do_this(data(i)); } #pragma omp parallel_for shared(data, ans2) private(i) for(i=0; i<N; i++) { ans2(i) = do_that(data(i)); } 8
  • 9. Técnicas de Programação Paralela: Como dividir o trabalho entre sistemas? É possível utilizar Threads (OpenMP, TBB, Cilk, pthreads…) ou Processos (MPI, process fork..) para programar em paralelo Modelo de Memória Compartilhada  Único espaço de memória utilizado por múltiplos processadores  Espaço de endereçamento unificado  Simples para trabalhar, mas requer cuidado para evitar condições de corrida (“race conditions”) quando existe dependência entre eventos Passagem de Mensagens  Comunicação entre processos  Pode demandar mais trabalho para implementar  Menos “race conditions” porque as mensagens podem forçar o sincronismo “Race conditions” acontecem quando processos ou threads separados modificam ou dependem das mesmas coisas… Isso é notavelmente difícil de “debugar”! 9
  • 10. 10 Agora um pouco de hardware…
  • 12. 12 Intel inside, inside Intel… Um processador com múltiplos cores possui componentes “comuns” aos cores. Estes compontentes recebem o nome de Uncore.
  • 13. 13 Intel inside, inside Intel… E agora, dentro do core…
  • 16. Vetorização (SIMD – Single Instruction Multiple Data) Modo Escalar Uma instrução produz um resultado Processamento SIMD (vetorizado) Instruções SSE, AVX, AVX2 Uma instrução pode produzir múltiplos resultados + a[i] b[i] a[i]+b[i] + c[i+7] c[i+6] c[i+5] c[i+4] c[i+3] c[i+2] c[i+1] c[i] b[i+7] b[i+6] b[i+5] b[i+4] b[i+3] b[i+2] b[i+1] b[i] a[i+7] a[i+6] a[i+5] a[i+4] a[i+3] a[i+2] a[i+1] a[i] for (i=0;i<=MAX;i++) c[i]=a[i]+b[i]; a b a+b +
  • 17. Intel® Xeon Phi™ Ainda mais poder de processamento!
  • 18. Até 61 cores (4 threads por core) 8 GB RAM GDDR5 Transferência de memória a 320 GB/sec Vetores de 512 bits 1 TFLOP de processamento (Precisão Dupla) 1 slot PCIe-x16 Uso eficiente de energia (300 W) Intel® Xeon Phi™ Ainda mais poder de processamento!
  • 19. Intel® Xeon Phi™ Cada placa é vista como um nó num cluster Programação: x86
  • 20. Intel® Xeon Phi™ Visão de Software da Arquitetura do Intel® Xeon Phi™
  • 21. Intel® Xeon Phi™ Visão de Hardware da Arquitetura do Intel® Xeon Phi™ Um anel bidirecional de alta velocidade interconecta as caches L2 dos cores
  • 22. Intel® Xeon Phi™ 4 threads por core Microarquitetura Pentium otimizada Clock de 1.1 GHz
  • 23. Intel® Xeon Phi™ GFLOP/sec =16 (SP SIMD Lane) x 2 (FMA) x 1.1 (GHZ) x 60 (# cores) = 2.112 (aritmética de precisão simples) GFLOP/sec = 8 (DP SIMD Lane) x 2 (FMA) x 1.1 (GHZ) x 60 (# cores) = 1.056 (aritmética de precisão dupla)
  • 24. 24 Por que descer neste nível? Utilizar todas as “threads de hardware”  Não esquecer o HyperThread Utilizar todas as unidades de execução  Retirar o máximo de instruções por ciclo de clock Otimizar o uso dos unidades de vetores (AVX/AVX2)  Loops otimizados Manter as caches com dados/instruções válidos  Evitar “cache misses” Aproveitar o “branch prediction”  Evitar o “stall” da pipeline Para tirar o máximo proveito dos recursos do hardware!
  • 25. 25 Por que descer neste nível? Utilizar todas as “threads de hardware”  Não esquecer o HyperThread Utilizar todas as unidades de execução  Retirar o máximo de instruções por ciclo de clock Otimizar o uso dos unidades de vetores (AVX/AVX2)  Loops otimizados Manter as caches com dados/instruções válidos  Evitar “cache misses” Aproveitar o “branch prediction”  Evitar o “stall” da pipeline Para tirar o máximo proveito dos recursos do hardware!
  • 26. 26 Por que descer neste nível? Utilizar todas as “threads de hardware”  Não esquecer o HyperThread Utilizar todas as unidades de execução  Retirar o máximo de instruções por ciclo de clock Otimizar o uso dos unidades de vetores (AVX/AVX2)  Loops otimizados Manter as caches com dados/instruções válidos  Evitar “cache misses” Aproveitar o “branch prediction”  Evitar o “stall” da pipeline Para tirar o máximo proveito dos recursos do hardware!
  • 27. Existem recursos para lhe ajudar! Ferramentas de Software da Intel IDZ – Intel Developer Zone http://software.intel.com
  • 28. Intel® Cilk™ Plus • Extensões para as linguagens C/C++ para simplificar o paralelismo • Código aberto Também um produto Intel Intel® Threading Building Blocks • Template libraries amplamente usadas em C++ para paralelismo • Código aberto Também um produto Intel Domain Specific Libraries • Intel® Integrated Performance Primitives • Intel® Math Kernel Library Padrões estabelecidos • Message Passing Interface (MPI) • OpenMP* • Coarray Fortran • OpenCL* Modelos de Programação Paralela Níveis de abstração conforme a necessidade Mesmos modelos para multi-core (Xeon) e many-core (Xeon Phi)
  • 29. Exemplo de uso Intel® Cilk™ Plus - Tasking
  • 30. Palavras-chave do Intel® Cilk™ Plus Cilk Plus adiciona 3 palavras-chave ao C/C++: _cilk_spawn _cilk_sync _cilk_for Usando #include <cilk/cilk.h>, você pode usar as palavras-chave: cilk_spawn, cilk_sync e cilk_for. O runtime do CILK Plus controla a criação de threads e seu agendamento. O pool de threads é criado antes do uso das palavras-chave do CILK Plus. Por default, o número de threads é igual ao número de núcleos (incluindo hyperthreads), mas pode ser controlado pelo usuário
  • 31. cilk_spawn e cilk_sync cilk_spawn dá ao runtime a permissão para rodar uma função-filha de forma assíncrona. – Não é criada (nem necessária) uma 2a thread! – Se não houver workers disponíveis, a função-filha será executada com uma chamada a uma função serial. – O scheduler pode “roubar” a fila da função-pai e executá-la em paralelo com a função-filha. – A função-pai não tem garantia de rodar em paralelo com a função-filha. cilk_sync aguarda a conclusão de todas as funções-filhas antes que a execução prossiga além daquele ponto. – Existem pontos de sincronismo (cilk_sync) implícitos – discutidos adiante.
  • 32. Um exemplo simples Computação recursiva do número de Fibonacci: int fib(int n) { int x, y; if (n < 2) return n; x = cilk_spawn fib(n-1); y = fib(n-2); cilk_sync; return x+y; } Chamadas assíncronas devem completar antes de usar x. Execução pode continuar enquanto fib(n-1) roda.
  • 33. cilk_for Semelhante a um loop “for” regular. cilk_for (int x = 0; x < 1000000; ++x) { … } Qualquer iteração pode executar em paralelo com qualquer outra Todas as interações completam antes do programa prosseguir Limitações: – Limitado a uma única variável de controle – Deve ser capaz de voltar ao início de qualquer iteração, randomicamente – Iterações devem ser independentes umas das outras
  • 34. Nos bastidores do cilk_for… void run_loop(first, last) { if ((last - first) < grainsize) { for (int i=first; i<last ++i) {LOOP_BODY;} } else { int mid = (last-first)/2; cilk_spawn run_loop(first, mid); run_loop(mid, last); } }
  • 35. Exemplos de cilk_for cilk_for (int x; x < 1000000; x += 2) { … } cilk_for (vector<int>::iterator x = y.begin(); x != y.end(); ++x) { … } cilk_for (list<int>::iterator x = y.begin(); x != y.end(); ++x) { … }  O contador do loop não pode ser calculado em tempo de compilação usando uma lista. (y.end() – y.begin() não é definido)  Não há acesso randômico aos elementos de uma lista. (y.begin() + n não é definido.)
  • 36. Serialização Todo programa Cilk Plus tem um equivalente serial, chamado de serialização A serialização é obtida removendo as palavras-chave cilk_spawn e cilk_sync e substituindo cilk_for por for O compilador produzirá a serialização se você compilar com –cilk-serialize (Linux*/OS X*) Rodar um programa com somente um worker é equivalente a rodar a serialização.
  • 37. Semântica Serial Um programa CILK Plus determinístico terá a mesma semântica de sua serialização. – Facilita a realização de testes de regressão; – Facilita o debug: – Roda com somente um núcleo – Roda serializado – Permite composição – Vantagens dos hyperobjects – Ferramentas de análise robutas (Cilk Plus SDK) – cilkscreen race detector – cilkview parallelism analyzer
  • 38. Sincronismos implícitos void f() { cilk_spawn g(); cilk_for (int x = 0; x < lots; ++x) { ... } try { cilk_spawn h(); } catch (...) { ... } } Ao final de uma funcão utilizando spawn Ao final do corpo de um cilk_for (não sincroniza g()) Ao final de um bloco try contendo um spawn Antes de entrar num bloco try contendo um sync
  • 39. Exemplo de uso OpenMP – Cálculo de π
  • 40. Cálculo de π – Teoria π pode ser calculado através da integral abaixo π = ∫ f(x) * d(x) = 4 / (1 + x2) * d(x) = 3.141592654...0 1
  • 41. π = 4 / (1 + 0,52) * 1 = 4 / 1,25  π = 3,2 Cálculo de π – Primeira Aproximação Valor grosseiramente aproximado de π
  • 42. f(0,25) = 3,735; f(0,75) = 2,572  π = 3,153 3,735 * 0,5 = 1,867 2,572 * 0,5 = 1,286 Cálculo de π – Segunda Aproximação Com mais aproximações, o valor de π tende ao valor teórico
  • 43. Aproximação com 10 intervalos  π = 3,14243,990*0,1=0,399 3,912*0,1=0,391 3,765*0,1=0,376 3,563*0,1=0,356 3,326*0,1=0,333 3,071*0,1=0,397 2,812*0,1=0,281 2,560*0,1=0,256 2,322*0,1=0,232 2,102*0,1=0,210 Cálculo de π – Aumentando os intervalos… Quanto mais intervalos, maior a precisão do cálculo
  • 44. SOLUÇÃO DO PROBLEMA ATRAVÉS DE HPC Cada thread realiza o cálculo de alguns intervalos 3,912*0,1=0,391 3,765*0,1=0,376 3,563*0,1=0,356 3,326*0,1=0,333 3,071*0,1=0,397 2,812*0,1=0,281 2,560*0,1=0,256 2,322*0,1=0,232 2,102*0,1=0,210 3,990*0,1=0,399 REDUÇÃO PI = 3,1424 3,912*0,1=0,3913,912*0,1=0,391 3,765*0,1=0,3763,765*0,1=0,376 3,563*0,1=0,3563,563*0,1=0,356 3,326*0,1=0,3333,326*0,1=0,333 3,071*0,1=0,3973,071*0,1=0,397 2,812*0,1=0,2812,812*0,1=0,281 2,560*0,1=0,2562,560*0,1=0,256 2,322*0,1=0,2322,322*0,1=0,232 2,102*0,1=0,2102,102*0,1=0,210 3,990*0,1=0,3993,990*0,1=0,399 3,912*0,1=0,3913,912*0,1=0,3913,912*0,1=0,3913,912*0,1=0,391 3,765*0,1=0,3763,765*0,1=0,3763,765*0,1=0,3763,765*0,1=0,376 3,563*0,1=0,3563,563*0,1=0,3563,563*0,1=0,3563,563*0,1=0,356 3,326*0,1=0,3333,326*0,1=0,3333,326*0,1=0,3333,326*0,1=0,333 3,071*0,1=0,3973,071*0,1=0,3973,071*0,1=0,3973,071*0,1=0,397 2,812*0,1=0,2812,812*0,1=0,2812,812*0,1=0,2812,812*0,1=0,281 2,560*0,1=0,2562,560*0,1=0,2562,560*0,1=0,2562,560*0,1=0,256 2,322*0,1=0,2322,322*0,1=0,2322,322*0,1=0,2322,322*0,1=0,232 2,102*0,1=0,2102,102*0,1=0,2102,102*0,1=0,2102,102*0,1=0,210 3,990*0,1=0,3993,990*0,1=0,3993,990*0,1=0,3993,990*0,1=0,399 Thread Thread Thread Thread
  • 45. Demo de Programação Paralela Cálculo de π
  • 48. • INFORMATION IN THIS DOCUMENT IS PROVIDED IN CONNECTION WITH INTEL PRODUCTS. NO LICENSE, EXPRESS OR IMPLIED, BY ESTOPPEL OR OTHERWISE, TO ANY INTELLECTUAL PROPERTY RIGHTS IS GRANTED BY THIS DOCUMENT. EXCEPT AS PROVIDED IN INTEL'S TERMS AND CONDITIONS OF SALE FOR SUCH PRODUCTS, INTEL ASSUMES NO LIABILITY WHATSOEVER AND INTEL DISCLAIMS ANY EXPRESS OR IMPLIED WARRANTY, RELATING TO SALE AND/OR USE OF INTEL PRODUCTS INCLUDING LIABILITY OR WARRANTIES RELATING TO FITNESS FOR A PARTICULAR PURPOSE, MERCHANTABILITY, OR INFRINGEMENT OF ANY PATENT, COPYRIGHT OR OTHER INTELLECTUAL PROPERTY RIGHT. • A "Mission Critical Application" is any application in which failure of the Intel Product could result, directly or indirectly, in personal injury or death. SHOULD YOU PURCHASE OR USE INTEL'S PRODUCTS FOR ANY SUCH MISSION CRITICAL APPLICATION, YOU SHALL INDEMNIFY AND HOLD INTEL AND ITS SUBSIDIARIES, SUBCONTRACTORS AND AFFILIATES, AND THE DIRECTORS, OFFICERS, AND EMPLOYEES OF EACH, HARMLESS AGAINST ALL CLAIMS COSTS, DAMAGES, AND EXPENSES AND REASONABLE ATTORNEYS' FEES ARISING OUT OF, DIRECTLY OR INDIRECTLY, ANY CLAIM OF PRODUCT LIABILITY, PERSONAL INJURY, OR DEATH ARISING IN ANY WAY OUT OF SUCH MISSION CRITICAL APPLICATION, WHETHER OR NOT INTEL OR ITS SUBCONTRACTOR WAS NEGLIGENT IN THE DESIGN, MANUFACTURE, OR WARNING OF THE INTEL PRODUCT OR ANY OF ITS PARTS. • Intel may make changes to specifications and product descriptions at any time, without notice. Designers must not rely on the absence or characteristics of any features or instructions marked "reserved" or "undefined". Intel reserves these for future definition and shall have no responsibility whatsoever for conflicts or incompatibilities arising from future changes to them. The information here is subject to change without notice. Do not finalize a design with this information. • The products described in this document may contain design defects or errors known as errata which may cause the product to deviate from published specifications. Current characterized errata are available on request. • Intel processor numbers are not a measure of performance. Processor numbers differentiate features within each processor family, not across different processor families. Go to: http://www.intel.com/products/processor_number. • Contact your local Intel sales office or your distributor to obtain the latest specifications and before placing your product order. • Copies of documents which have an order number and are referenced in this document, or other Intel literature, may be obtained by calling 1-800-548- 4725, or go to: http://www.intel.com/design/literature.htm • Intel, Core, Atom, Pentium, Intel inside, Sponsors of Tomorrow, Pentium, 386, 486, DX2 and the Intel logo are trademarks of Intel Corporation in the United States and other countries. • *Other names and brands may be claimed as the property of others. • Copyright ©2012 Intel Corporation. Legal Disclaimer
  • 49. Risk Factors The above statements and any others in this document that refer to plans and expectations for the second quarter, the year and the future are forward-looking statements that involve a number of risks and uncertainties. Words such as “anticipates,” “expects,” “intends,” “plans,” “believes,” “seeks,” “estimates,” “may,” “will,” “should” and their variations identify forward-looking statements. Statements that refer to or are based on projections, uncertain events or assumptions also identify forward-looking statements. Many factors could affect Intel’s actual results, and variances from Intel’s current expectations regarding such factors could cause actual results to differ materially from those expressed in these forward-looking statements. Intel presently considers the following to be the important factors that could cause actual results to differ materially from the company’s expectations. Demand could be different from Intel's expectations due to factors including changes in business and economic conditions, including supply constraints and other disruptions affecting customers; customer acceptance of Intel’s and competitors’ products; changes in customer order patterns including order cancellations; and changes in the level of inventory at customers. Uncertainty in global economic and financial conditions poses a risk that consumers and businesses may defer purchases in response to negative financial events, which could negatively affect product demand and other related matters. Intel operates in intensely competitive industries that are characterized by a high percentage of costs that are fixed or difficult to reduce in the short term and product demand that is highly variable and difficult to forecast. Revenue and the gross margin percentage are affected by the timing of Intel product introductions and the demand for and market acceptance of Intel's products; actions taken by Intel's competitors, including product offerings and introductions, marketing programs and pricing pressures and Intel’s response to such actions; and Intel’s ability to respond quickly to technological developments and to incorporate new features into its products. Intel is in the process of transitioning to its next generation of products on 22nm process technology, and there could be execution and timing issues associated with these changes, including products defects and errata and lower than anticipated manufacturing yields. The gross margin percentage could vary significantly from expectations based on capacity utilization; variations in inventory valuation, including variations related to the timing of qualifying products for sale; changes in revenue levels; segment product mix; the timing and execution of the manufacturing ramp and associated costs; start-up costs; excess or obsolete inventory; changes in unit costs; defects or disruptions in the supply of materials or resources; product manufacturing quality/yields; and impairments of long-lived assets, including manufacturing, assembly/test and intangible assets. The majority of Intel’s non-marketable equity investment portfolio balance is concentrated in companies in the flash memory market segment, and declines in this market segment or changes in management’s plans with respect to Intel’s investments in this market segment could result in significant impairment charges, impacting restructuring charges as well as gains/losses on equity investments and interest and other. Intel's results could be affected by adverse economic, social, political and physical/infrastructure conditions in countries where Intel, its customers or its suppliers operate, including military conflict and other security risks, natural disasters, infrastructure disruptions, health concerns and fluctuations in currency exchange rates. Expenses, particularly certain marketing and compensation expenses, as well as restructuring and asset impairment charges, vary depending on the level of demand for Intel's products and the level of revenue and profits. Intel’s results could be affected by the timing of closing of acquisitions and divestitures. Intel's results could be affected by adverse effects associated with product defects and errata (deviations from published specifications), and by litigation or regulatory matters involving intellectual property, stockholder, consumer, antitrust, disclosure and other issues, such as the litigation and regulatory matters described in Intel's SEC reports. An unfavorable ruling could include monetary damages or an injunction prohibiting Intel from manufacturing or selling one or more products, precluding particular business practices, impacting Intel’s ability to design its products, or requiring other remedies such as compulsory licensing of intellectual property. A detailed discussion of these and other factors that could affect Intel’s results is included in Intel’s SEC filings, including the report on Form 10-K for the year ended Dec. 31, 2011. Rev. 4/17/12