en fr Transforming TLP into DLP with the Dynamic Inter-Thread Vectorization Architecture Transformer le TLP en DLP avec larchitecture de vectorization dynamique inter-thread Reportar como inadecuado

en fr Transforming TLP into DLP with the Dynamic Inter-Thread Vectorization Architecture Transformer le TLP en DLP avec larchitecture de vectorization dynamique inter-thread - Descarga este documento en PDF. Documentación en PDF para descargar gratis. Disponible también para leer online.

1 ALF - Amdahl-s Law is Forever Inria Rennes – Bretagne Atlantique , IRISA-D3 - ARCHITECTURE

Abstract : Many modern microprocessors implement Simultaneous Multi-Threading SMT to improve the overall efficiency of superscalar CPU. SMT hides long latency operations by executing instructions from multiple threads simultaneously. SMT may execute threads of different processes, threads of the same processes or any combination of them. When the threads are from the same process, they often execute the same instructions with different data most of the time, especially in the case of Single-Program Multiple Data SPMD applications.Traditional SMT architecture exploit thread-level parallelism and with the use of SIMD execution units, they also support explicit data-level parallelism. SIMD execution is power efficient as the total number of instructions required to execute a complete program is significantly reduced. This instruction reduction is a factor of the width of SIMD execution units and the vectorization efficiency. Static vectorization efficiency depends on the programmer skill and the compiler. Often, the programs are not optimized for vectorization and hence it results in inefficient static vectorization by the compiler.In this thesis, we propose the Dynamic Inter-Thread vectorization Architecture DITVA to leverage the implicit data-level parallelism in SPMD applications by assembling dynamic vector instructions at runtime. DITVA optimizes an SIMD-enabled in-order SMT processor with inter-thread vectorization execution mode. When the threads are running in lockstep, similar instructions across threads are dynamically vectorized to form a SIMD instruction. The threads in the convergent paths share an instruction stream. When all the threads are in the convergent path, there is only a single stream of instructions. To optimize the performance in such cases, DITVA statically groups threads into fixed-size independently scheduled warps. DITVA leverages existing SIMD units and maintains binary compatibility with existing CPU architectures.

Résumé : De nombreux microprocesseurs modernes mettent en œuvre le multi-threading simultané SMT pour améliorer l-efficacité globale des processeurs superscalaires. SMT masque les opérations à longue latence en exécutant les instructions de plusieurs threads simultanément. Lorsque les threads exécutent le même programme cas des applications SPMD, les mêmes instructions sont souvent exécutées avec des entrées différentes.Les architectures SMT traditionnelles exploitent le parallélisme entre threads, ainsi que du parallélisme de données explicite au travers d-unités d-exécution SIMD. L-exécution SIMD est efficace en énergie car le nombre total d-instructions nécessaire pour exécuter un programme est significativement réduit. Cette réduction du nombre d-instructions est fonction de la largeur des unités SIMD et de l-efficacité de la vectorisation. L-efficacité de la vectorisation est cependant souvent limitée en pratique.Dans cette thèse, nous proposons l-architecture de vectorisation dynamique inter-thread DITVA pour tirer parti du parallélisme de données implicite des applications SPMD en assemblant dynamiquement des instructions vectorielles à l-exécution. DITVA augmente un processeur à exécution dans l-ordre doté d-unités SIMD en lui ajoutant un mode d-exécution vectorisant entre threads. Lorsque les threads exécutent les mêmes instructions simultanément, DITVA vectorise dynamiquement ces instructions pour assembler des instructions SIMD entre threads. Les threads synchronisés sur le même chemin d-exécution partagent le même flot d-instructions. Pour conserver du parallélisme de threads, DITVA groupe de manière statique les threads en warps ordonnancés indépendamment. DITVA tire parti des unités SIMD existantes et maintient la compatibilité binaire avec les architectures CPU existantes.

en fr

Keywords : Computer Architecture SMT SIMD Vectorization SPMD

Mots-clés : Architecture des ordinateurs Vectorisation SIMD SPMD

Autor: Sajith Kalathingal -

Fuente: https://hal.archives-ouvertes.fr/


Documentos relacionados