1 / 31

Medidas de Desempenho

ARQUITETURA DE COMPUTADORES II. Medidas de Desempenho. Prof. César Augusto M. Marcon. Índice. 1. Introdução. 2. Medidas de Desempenho. Introdução. Aumento de desempenho dos PCs não atende diversas aplicações Previsão do tempo

rea
Download Presentation

Medidas de Desempenho

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. ARQUITETURA DE COMPUTADORES II Medidas de Desempenho Prof. César Augusto M. Marcon

  2. Índice 1. Introdução 2. Medidas de Desempenho

  3. Introdução • Aumento de desempenho dos PCs não atende diversas aplicações • Previsão do tempo • Prospecção de petróleo (análise de local para perfuração de poços de petróleo) • Simulações físicas (aerodinâmica; energia nuclear) • Matemática computacional (análise de algoritmos para criptografia) • Bioinformática (simulação computacional da dinâmica molecular de proteínas) • Problemas • Falta de processamento • Falta de memória • Alternativas dos usuários destas aplicações • Modelos mais abstratos • Heurísticas • Aceleradores (HW especial) • Executar aplicação em máquinas mais poderosas (arquiteturas especiais ou arquiteturas paralelas)

  4. Arquiteturas Especiais • Melhoram desempenho, replicando número de unidades ativas (normalmente processadores)‏ • Principal objetivo • Reduzir o tempo total de execução • Outros objetivos • Tolerância a falhas • Reduz a probabilidade de falhas em cálculos  cada unidade ativa calcula o mesmo problema  no final ocorre uma votação • Modelagem • Reduz a complexidade da modelagem e implementação da aplicação, utilizando uma linguagem que expresse paralelismo • Aproveitamento de recursos • Aproveita melhor os recursos disponíveis, executando uma aplicação com múltiplos processos

  5. Processamento Paralelo • Dificuldades inerentes ao paralelismo • Dificuldade de alimentar vários processadores com dados • Gera custo de comunicação entre processadores • Programas mais complexos devido ao particionamento em unidades ativas • O particionamento do programa não é realizado pelo SO • Dificuldade em extrair o paralelismo da aplicação • Programa que não foi preparado com paralelismo não executa mais rápido, apenas por estar em máquina paralela • Exemplos de programas paralelos • Aplicação com várias threads • Aplicação usando RMI (Remote Method Invocation)‏ • Aplicação com vários processos que se comunicam por sockets

  6. Níveis de Exploração de Paralelismo • Exploração de paralelismo está presente nos diversos níveis de um sistema

  7. Granularidade de Paralelismo • Definição • Grau de agrupamento de funcionalidades em unidades ativas • Grão grosso • Particionamento em unidades de trabalho grandes • Alto custo de processamento. Processador é a parte mais complexa do sistema • Baixo custo de comunicação. Infra-estrutura de comunicação de menor complexidade • Grão fino • Particionamento em unidades de trabalho pequenas • Baixo custo de processamento. Processador é a parte menos complexa do sistema • Alto custo de comunicação. Infra-estrutura de comunicação de alta complexidade • Grão médio • Caso intermediário entre os dois anteriores

  8. Processamento Paralelo x Distribuído • Ambas áreas têm os mesmos complicadores • Custo de comunicação • Distribuição dos dados • Dependências • Motivações diferentes • Motivação do processamento paralelo é o ganho de desempenho • Unidades ativas estão normalmente na mesma máquina  custos de comunicação menores (baixa latência) • Motivação do processamento distribuído é a modelagem e o aproveitamento de recursos • Unidades ativas estão normalmente afastadas  custos de comunicação maiores (alta latência)

  9. Processamento Paralelo x Distribuído • Aumento de unidades ativas não aumenta necessariamente o desempenho • Quantidade de trabalho e arquitetura alvo limitam o número de unidades ativas usadas eficientemente • Muitas unidades ativas para uma quantidade limitada de trabalho prejudica o desempenho do sistema • O tempo pode aumentar!! • Complicadores • Dependências de dados • Distribuição dos dados • Sincronização • Áreas críticas

  10. Exemplo • Construção de um muro • 1 pedreiro faz este muro em 3 horas • 2 pedreiros fazem em 2 horas • 3 pedreiros fazem em 1 hora e meia • 4 pedreiros fazem em 2 horas(aumentou o tempo !!!) • 8 pedreiros fazem em 3 horas e meia (tempo pior que a versão sem paralelismo !!!) • Avaliação dos dados obtidos e porque ocorreu o aumento de tempo? • Incidência de muitos complicadores ganho de desempenho não é proporcional ao acréscimo de unidades ativas • Duplicação do número de pedreiros de 1 para dois não reduz o tempo de execução pela metade

  11. Exemplo • Complicadores encontrados e a analogia com a computação paralela • O muro só pode ser feito de baixo para cima • Dependência de dados • Os tijolos têm que ser distribuídos entre os pedreiros • Distribuição dos dados • Um pedreiro não pode levantar o muro do seu lado muito na frente dos outros pedreiros. Ritmo de subida do muro é dado pelo pedreiro mais lento • Sincronização • Se só existir um carrinho com cimento este será disputado por todos os pedreiros • Áreas críticas

  12. Índice 1. Introdução 2. Medidas de Desempenho

  13. Medidas Básicas de Desempenho • Definição • Índices que indicam o desempenho de diferentes aspectos de um sistema paralelo • Medidas • Desempenho da aplicação • Aqui considera-se o efeito conjunto do processamento, armazenamento e comunicação • Desempenho da rede de interconexão • Aqui considera-se o efeito apenas da comunicação

  14. Desempenho da AplicaçãoSpeed-Up (Fator de Aceleração) • Indica quantas vezes o programa paralelo é mais rápido que a versão seqüencial para executar uma dada tarefa • É calculado pela razão entre o melhor tempo seqüencial e o melhor tempo da versão paralela SpeedUp(p) ou SU(p) = TS / TP(p) • Onde: • TS é o tempo de execução da aplicação na versão seqüencial • TP é o tempo de execução na versão paralela • pé o número de unidades ativas (processadores) utilizadas • Se SU > 1 a versão paralela reduziu o tempo de execução (ficou mais rápido que a seqüencial) • Se SU < 1 a versão paralela aumentou o tempo de execução (ficou mais lenta que a seqüencial)

  15. Desempenho da AplicaçãoSpeed-Up • Cada aplicação tem sua curva que depende do trabalho e da incidência de complicadores • Todo o algoritmo de uma aplicação tem um número de unidades ativas ideal para a obtenção do melhor desempenho em uma dada arquitetura alvo • Não sendo verdade que quanto mais unidades ativas melhor

  16. Desempenho da AplicaçãoEficiência • Indica a taxa de utilização média das unidades ativas • Mostra se os recursos foram bem aproveitados • É calculado pela razão entre o Speed-Up e o número de unidades ativas utilizadas Eficiência(p) ou E(p) = SU(p) / p • Normalmente, as unidades ativas ficam parte de seu tempo esperando por resultados de vizinhos • Reduz sua taxa de utilização e conseqüentemente a eficiência

  17. Desempenho da AplicaçãoEficiência • Eficiência ideal • Cada unidade ativa com 100% do tempo ativa (linha azul) • A melhor taxa de utilização média não significa o menor tempo de execução • Exemplo: o menor tempo de execução ocorreu com 11 unidades ativas e a melhor taxa de utilização média com 5 unidades ativas

  18. Desempenho da Rede de InterconexãoLatência • Tempo necessário para enviar mensagem através da rede de interconexão • Inclui tempo de empacotar e desempacotar dados mais tempo de envio propriamente dito • A latência aumenta a medida que a quantidade de dados a serem enviados aumenta • O aumento não é linear • A componente do tempo referente ao custo de empacotamento e desempacotamento não varia tanto em relação ao tamanho da mensagem como a componente de custo de envio pela rede

  19. Desempenho da Rede de InterconexãoVazão • Expressa a capacidade da rede de “bombear” dados entre dois pontos • Unidade • Quantidade de dados por unidade de tempo • Ex: 10 MBytes/segundo (10MB/s) • A vazão (V) é afetada pela “largura” (L) do canal de comunicação (bits) e pela freqüência (F) da transmissão dos dados (MHz) V  L  F

  20. Desempenho da Rede de Interconexão • Exemplos: • Latência de 1 mensagem de 1 byte entre máquinas rodando GNU/Linux ligadas por Fast-Ethernet é de aproximadamente 150 µs • A melhor vazão, obtida com uma mensagem de aproximadamente 64 KB, é em torno de 10 MB/s. Próximo do limite teórico (12,5 MB = 100 Mbits/s)

  21. Exercícios • Mostre três exemplos onde a simplificação de um modelo computacional pode diminuir o tempo de execução da aplicação • Comente o efeito da simplificação em cada exemplo • Defina processamento paralelo • Comente os objetivos de arquiteturas paralelas • O que normalmente acontece com o consumo de energia quando comparamos uma implementação seqüencial com uma paralela? • Comente a afirmação: - ”Comparando duas máquinas com o mesmo desempenho, é possível notar que o consumo de energia da máquina paralela é menor que a máquina sem paralelismo, devido a freqüência de operação” • Existe alguma forma de paralelismo que não objetiva aumentar o desempenho da máquina? Fale sobre esta • Comente a afirmação: - ”A replicação de unidades de entrada e saída é um paralelismo em nível de aplicação”

  22. Exercícios • Desenhe o comportamento do speed-Up real e do speed-Up ideal para uma aplicação paralela. Por que existe diferença entre estas linhas? Por que esta diferença com o aumento do número de processadores? • Considere que o Sistema A foi implementado com 4 processadores PXY paralelos e o Sistema B foi implementado com apenas 1 processado PXY. Teoricamente, quantas vezes um programa projetado para operar sobre o Sistema B seria mais rápido se operasse sobre o Sistema A? • Desenhe o speed-up e a eficiência para um sistema, cujo tempo de execução de uma aplicação se comporta conforme a fórmula abaixo. Com quantos processadores obteremos a máxima eficiência? Por quê? Discuta os resultados. Considere a variação de 1 a 7 processadores: T(n) = TP / n + TC x (n-1) + TO x (n-1)2 Com: T(n) – tempo de execução da aplicação com n processadores n – número de processadores TP – tempo de processamento (considerar 100 ns) TC – tempo de comunicação (considerar 10 ns) TO – tempo devido a colisões (considerar 1 ns) • Faça o mesmo do exercício anterior para a fórmula abaixo T(n) = TP / n + TC x (n-1)

  23. Exercícios • Analise o exemplo de construção de um muro descrito a seguir e faça uma comparação com os seguintes problemas da computação paralela: (a) dependência de dados, (b) distribuição de dados, (c) sincronização e (d) áreas críticas Um pedreiro faz o muro em 3 horas, Dois pedreiros fazem em 2 horas, Três pedreiros em 1 hora e meia, Quatro pedreiros em 2 horas (aumentou o tempo !!!) • Construa dois exemplos semelhantes a construção de um muro, mostrando a analogia com os sistemas paralelos • Quais são os complicadores para que os sistemas distribuídos não consigam obter altas taxas de processamento?

  24. ARQUITETURA DE COMPUTADORES II Extras Prof. César Augusto M. Marcon

  25. Desempenho da AplicaçãoSpeed-Up – Entendendo Melhor • Arquiteturas, onde tarefas podem ser distribuídas de forma eqüitativa entre processadores, TP(p) pode ser aproximado por: TP(p)   TS / p + TCONTROLE + TCOMUNICAÇÃO • Onde: • TS / p é o tempo de execução seqüencial dividido nos p processadores • TCONTROLE é o tempo gasto para controlar a operação com as máquinas paralelas • TCOMUNICAÇÃO é o tempo gasto para troca de dados e controle entre as máquinas paralelas • As parcelas TCONTROLE e TCOMUNICAÇÃO é que geram a redução do speed-up a partir de um certo número de processadores • Estas parcelas são fortemente dependentes da arquitetura alvo • Avaliar o Speed up considerando que o tempo de execução é composto pelos tempos de processamento, comunicação e armazenamento, muitas vezes requer modelos muito complexos, que dependem fortemente da arquitetura alvo

  26. Desempenho da AplicaçãoSpeed-Up – Exemplo de Modelo • Implementar um modelo aproximado para estimar o speed-up, considerando as arquiteturas seqüencial e paralela apresentadas abaixo TS = n  L + C + P + c + N  E Onde: • n é o número de dados lidos • L é o tempo de leitura de um dado • C é o tempo de comunicação para leitura (o caminho de leitura não é necessariamente o caminho de escrita) • P é o tempo de processamento em um processador • c é o tempo de comunicação para escrita • N é o número de dados para escrever • E é o tempo de escrita de um dado

  27. Desempenho da AplicaçãoSpeed-Up – Exemplo de Modelo TCONTROLE + TCOMUNICAÇÃO = (p  m  C’ + p  M  c’) + PPc Onde: • m é o número de dados transmitido de cada P para o Pc; • C’ é o tempo de comunicação de cada P para o Pc; • M é o número de dados transmitido do Pc para cada P; • c’ é o tempo de comunicação para escrita; • PPc é o tempo de comunicação do Pc para cada P Como: TS / p = (n  L + C + P + c + N  E) / p E: TP(p)   TS / p + TCONTROLE + TCOMUNICAÇÃO Então: TP(p)   (n  L + C + P + c + N  E) / p + (p  m  C’ + p  M  c’) + PPc

  28. Desempenho da AplicaçãoSpeed-Up – Exemplo de Modelo • Considerações para simplificar o modelo: • Supondo que os tempos de comunicação para transmissão de dados sejam iguais entre quaisquer elementos do sistema, então: C = c = C’ = c’ • Supondo que os tempos de escrita e leitura nas memórias sejam iguais, então: L = E • Supondo que o número de dados transmitido entre controle e processadores seja igual, independente de direção, então: m = M • Supondo, também, que o número de bytes de leitura e escrita seja igual, então: n = N • Neste caso, poderemos reescrever TP(p) como: TP(p) =  (2  N  L + 2  C + P) / p + (2  p  M  C) + PPc

  29. Desempenho da AplicaçãoSpeed-Up – Exemplo de Modelo SU(p) = 2  N  L + 2  C + P (2  N  L + 2  C + P) / p + (2  p  M  C) + PPc SU(p) = 2  N  L  p + 2  C  p + P p 2  N  L + 2  C + P + 2  p2 M  C + PPc  p • Como SU(p) = TS / TP(p), então: • Como SU(p) = TS / TP(p), então: • Ou: • Novas considerações: • Onde estão as memórias e os processadores? • On-chip? • Em chips distantes? • Qual a infra-estrutura de comunicação? • Conexão dedicada? • Barramento? • Redes especiais? • Como estes elementos afetam o desempenho do sistema?

  30. Desempenho da AplicaçãoSpeed-Up – Exemplo de Modelo SU(p) = p  (2  N  L + P) 2  N  L + P + PPc  p • Supondo comunicação toda intrachip e ordens de grandeza menor que o processamento, então: C << P  C  0 • Daí: • Nota-se que, mesmo com diversas simplificações do modelo, a dependência no volume de dados e velocidade de escrita e leitura são determinantes para o cálculo do SpeedUp  impedindo que o mesmo seja determinado apenas pela capacidadede processamento do sistema

  31. Desempenho da AplicaçãoSpeed-Up – Exemplo de Modelo SU(p) = p  2  N  L SU(p) = p  P 2  N  L + PPc  p P + PPc  p SU(p) = p  (2  N  L + P) = p (2  N  L + P)‏ • Considerações finais: • Aplicações podem ser CPU-bounded ou IO-bounded. No primeiro caso n * L << P, enquanto que no segundo caso P << n * L, o que permite novas simplificações no modelo usado • O Speed-up ideal pode ser obtido se o peso do processamento de controle é insignificante frente ao tempo de execução de uma tarefa (PPc << P  PPc 0):

More Related