1 / 34

Pokročilé architektury počítačů (PAP_15)

Pokročilé architektury počítačů (PAP_15.ppt). Karel Vlček , karel.vlcek@vsb.cz katedra Informatiky, FEI VŠB Technická Univerzita Ostrava. Architektury příštích procesorů. Speciální architektury - úvod Data-flow procesory Umělé neuronové sítě Architektury s fuzzy logikou

dreama
Download Presentation

Pokročilé architektury počítačů (PAP_15)

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. Pokročilé architektury počítačů (PAP_15.ppt) Karel Vlček, karel.vlcek@vsb.cz katedra Informatiky, FEI VŠB Technická Univerzita Ostrava

  2. Architektury příštích procesorů • Speciální architektury - úvod • Data-flow procesory • Umělé neuronové sítě • Architektury s fuzzy logikou • Kvantové počítače Pokročilé architektury procesorů

  3. Speciální architektury procesorů - charakteristika • Jako speciální architektury procesorů jsou označovány všechny, které nemají společný základ vytvořený von Neumannem (princetonský) nebo architekturu vzniklou na Harvardově universitě • Bývají označovány pojmem „non-von Neuman architectures“ • Zpracovávají informaci ne podle programu, ale na základě jiného popisu algoritmu Pokročilé architektury procesorů

  4. Speciální architektury procesorů - odlišnosti Speciální architektury procesorů se vyznačují dvěma základními odlišnostmi: • Neobsahují čítač instrukcí • Nepracují podle algoritmu ve formě programu Pokročilé architektury procesorů

  5. Speciální architektury procesorů - podobnosti Speciální architektury procesorů se vyznačují i podobnostmi: • Mohou být podobné například tím, že jejich architektura je superskalární, závislá na činnosti překladače (obdoba VLIW) • Některé architektury je možné přirovnat k architekturám SIMD, až na to, že mechanismus působení instrukce je nahrazen jiným mechanismem Pokročilé architektury procesorů

  6. Data-flow architektury - úloha token • Vykonávání algoritmu není zapsáno jako program, ale je řízeno přítomností dat, která mají být zpracovávána operací • Vykonávání operace je uvedeno do činnosti tím, že jsou přivedena data, potom, co byla dokončena předcházející operace • Spouštění operace zajišťuje tzv. token, stejně jako povel „pal“ vojákům na střelnici Pokročilé architektury procesorů

  7. Druhy token • Operace může být spouštěna dvěma token, když se jedná o operaci sčítání, odečítání, násobení, dělení nebo o podobnou operaci • Operace je spuštěna boolovskou proměnnou, jedná-li se o přepínač nebo o filtr dat • Rozhodovací blok je realizován rovněž pomocí token, které je představováno boolovskou proměnnou Pokročilé architektury procesorů

  8. Práce s pamětí u data-flow procesorů (1) • Data-flow architektury mají vlastnosti, které jsou vhodné pro realizaci paralelních struktur • Realizace není snadnou záležitostí, vyžadují použití rychlé paměti, které jsou schopné reagovat na požadavky více procesních elementů Pokročilé architektury procesorů

  9. Práce s pamětí u data-flow procesorů (2) • Při výstavbě Data-flow architektury se často uvažuje o principu superthreaded procesoru nebo hyperthreaded procesoru • Přitom jsou využívány nečinné časové sloty stejně jako při provozu linky výkonných jednotek • Tím je zvyšován paralelismus na úrovni, která je příznačná pro replikované výkonné jednotky data-flow procesorů Pokročilé architektury procesorů

  10. Umělé neuronové sítě (1) • Umělé neuronové sítě jsou založeny na součinnosti mnoha umělých neuronů w0 i0 * w1 i1 * výstup Aktivační funkce + i2 w2 * wn-1 in-1 * Pokročilé architektury procesorů

  11. Umělé neuronové sítě (2) • Neurony mohou být uspřádány do jednovrstvových struktur nebo vícevrstvoých struktur • Činnost je demonstrována na operaci komprese obrazu pro různé podmínky Pokročilé architektury procesorů

  12. Goals • Investigation of the two types of nn (AMLP, SOFM) • Testing Software Development • Verify compression, possibly additional effects of the nn’s • Evaluate and compare results Pokročilé architektury procesorů

  13. Auto-associative multilayer perceptron • Perform dimensionality reduction • The principleof compression/decompression: Pokročilé architektury procesorů

  14. Self-Organizing featuremap • Compress using categorization • SOFM is a quantization vector Pokročilé architektury procesorů

  15. Competence of the Testing (simulation) software • Design AMPL’s and SOFM ‘s • Change architectureof nnon demand • Adapt nn’s to images • Simulate compression and decompression using nn’s • CalculateSNR Pokročilé architektury procesorů

  16. Simulation (1) • 8bit quantization • Investigate (objective and subjective) effects of the blockssizeand CR • Fidelity Criterion: Pokročilé architektury procesorů

  17. Simulation (2) • 4 modelsof AMLP (forCR=2:1 and 4:1) and 8×8 and 4×4 • 6 models of SOFMforimage block sizes 8×8 and 4×4 Pokročilé architektury procesorů

  18. Results – AMLP • Adaptation to image Table only – generalization capabilities • Compress Ratio • CR= n / p • smallest 2:1 • largest 4:1 • Image Block Sizes • Optimal size is 8×8 Pokročilé architektury procesorů

  19. Results – AMLP • For block sizes 4×4 one iteration of the adaptation is sufficient Pokročilé architektury procesorů

  20. Results – AMLP Faultinessof SNR (block 4x4) CR = 4:1 CR = 2:1 SNR = 27,67 dB SNR = 27,67 dB Pokročilé architektury procesorů

  21. Results – SOFM • Compress Ratio • evaluation: • large CR’s, but with higher image distortion • it is possible to reduce the number of ID bits and thereby increase CR • Image block sizes • itinfluences on Kohonen’ssize layer Pokročilé architektury procesorů

  22. Results – SOFM Effect of image block size: blocks 8×8 blocks 4×4 Pokročilé architektury procesorů

  23. Results – SOFM The best result Pokročilé architektury procesorů

  24. Scheme of perceptron Pokročilé architektury procesorů

  25. The VHDL model of perceptron -- Neuron ENTITY neuron IS PORT (x1,x2: IN floating; Y: OUT floating); END neuron; ARCHITECTURE behavioral OF neuron IS BEGIN perc: PROCESS (x1, x2) BEGIN y <= ‘0’; IF (x1*w1+x2*w2) > b THEN y <= ‘1’; END IF; END PROCESS perc; END behavioral; Pokročilé architektury procesorů

  26. Conclusion • Disadvantage: quality of compression is lower compared to special compression algorithms. (Method was compared with JPEG standard) • Advantage: the method allows to reconstruct non-complete or noiseddata, which are caused by transmission channel Pokročilé architektury procesorů

  27. Test Designs – Multilevelnets Pokročilé architektury procesorů

  28. Test Designs – Kohonen’snet Pokročilé architektury procesorů

  29. Image“Table” Pokročilé architektury procesorů

  30. Image“Bird” Pokročilé architektury procesorů

  31. Image “Lena” Pokročilé architektury procesorů

  32. Image“Pepper” Pokročilé architektury procesorů

  33. Image“Poruba town” Pokročilé architektury procesorů

  34. Literatura: • Dvořák, V.: Architektura a programování paralelních systémů, VUTIUM Brno, (2004), ISBN 80-214-2608-X • Dvořák, V., Drábek, V.: Architektura procesorů, VUTIUM Brno, (1999), ISBN 80-214-1458-8 • Drábek, V.: Výstavba počítačů, PC-DIR, s.r.o. Brno, (1995), ISBN 80-214-0691-7 • Mueller, S.: Osobní počítač, Computer Press, Praha, (2001), ISBN 80-7226-470-2 • Pluháček, A.: Projektování logiky počítačů, Vydavatelství ČVUT Praha, (2003), ISBN 80-01-02145-9 • Havel, V., Vlcek, K., Mitrych, J.: Neural Network Architecture for Image Compresson, IFAC PDS04, pp. 389-394, ISBN 83-908-409-8-7 Pokročilé architektury procesorů

More Related