1 / 17

Computação Paralela

Computação Paralela. Walfredo Cirne Univ. Federal de Campina Grande http://walfredo.dsc.ufcg.edu.br. Lei de Moore. Computadores dobram de performance a cada 18 meses Nas últimas 2 decadas, computadores melhoraram de performance em 10.000 vezes

Download Presentation

Computação Paralela

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Computação Paralela Walfredo Cirne Univ. Federal de Campina Grande http://walfredo.dsc.ufcg.edu.br

  2. Lei de Moore • Computadores dobram de performance a cada 18 meses • Nas últimas 2 decadas, computadores melhoraram de performance em 10.000 vezes • Como resultado, os computadores hoje têm mais ou menos o mesmo desempenho (na mesma ordem de magnitude)

  3. Paralelismo • Em suma, computadores hoje são muuuito rápidos • Mas fazemos coisas cada vez mais complexas • Mas temos cada vez mais dados para processar • O que fazer se você precisa processar por anos? • Usar vários processadores simultaneamente

  4. Lei de Amdalh • speed-up = tempo seqüencial / tempo paralelo • tempo seqüencial = intrinsecamente-seqüencial + paralelizável • melhor tempo paralelo = intrinsecamente-seqüencial • melhor speed-up = 1 + paralelizável/intrinsecamente-seqüencial

  5. Lei de Amdalh • Aplicando a Lei de Amdalh • O que salva é que normalmente a parte intrinsecamente seqüencial dimiui (como proporção do tempo total) a medida que a entrada aumenta

  6. Principais Aspectos de Computação Paralela • Plataforma de Execução • Modelos de Programação • Aplicações

  7. Plataformas de Execução de Aplicações Paralelas • SMPs acoplamento • MPPs • NOWs • Grids distribuição

  8. SMP Memória CPU CPU ... CPU

  9. Escalonador CPU CPU CPU ... Mem. Mem. Mem. requisições MPP

  10. NOW requisições requisições requisições CPU CPU CPU ... Mem. Mem. Mem.

  11. Grid CPU CPU CPU ... Mem. Mem. Mem. Internet

  12. SMPs MPPs NOWs Grids Conectividade excelente muito boa boa média/ruim Heterogeneidade nula baixa média alta Compartilhado não não sim sim Imagem única comum comum múltipla Escala 10 1.000 1.000 100.000 Características das Plataformas de Execução

  13. Grids podem diferir bastante • TeraGrid • 4 centros de supercomputação norte-americanos • Cada centro com milhares de processadores dedicados ao TeraGrid • Canais de altíssima velocidade (40 GBits/s) • Poder agregado de 13,6 TeraFlops • SETI@home • Ciclos ociosos de 1.6 milhões de processadores espalhados em 224 países • Computa em média a uma velocidade de 10 Teraflops

  14. Grid Computacional (fonte de recursos computacional) Grid como Fonte de Computação [a metáfora da rede elétrica]

  15. MegaCiclos Databank Inc. Embratel Mastercard Um Grid do Futuro VR Simul Grid Auditing

  16. Modelos de Programação • Troca de mensagens • MPI, PVM • sockets • Memória compartilhada • OpenMP • pthreads, threads Java

  17. Aplicações • SPMD x MPMD • SPSD = sequêncial • Classes de aplicação • Bag-of-Tasks • Master-slave (ou manager-work :-) • Data parallel • Granularidade • Grão = computação feita entre comunicações • Grão fino requer SMP (ou, pelo menos, MPP) • Grão grosso tolera Grid

More Related