Ho trovato la parola "curvatura" in alcuni punti ma non ho visto una definizione approfondita (non esiste neanche una pagina di Wikipedia).
Una breve definizione si trova qui :
In the SIMT paradigm, threads are automatically grouped into 32-wide bundles called warps. Warps are the base unit used to schedule both computation on Arithmetic and Logic Units (ALUs) and memory accesses. Threads within the same warp follow the SIMD pattern, i.e. they are supposed to execute the same operation at a given clock cycle...
Un'altra definizione si trova qui :
In a SIMT execution, some number of threads will be combined into a single group (called a “warp” in NVIDIA parlance, and a “wavefront” by AMD; for brevity, we will use the term “warp” hereafter). These threads will execute in lockstep, each executing the same instruction simultaneously.
Chiedendosi se è possibile descrivere più dettagliatamente quali sono esattamente gli orditi, e come dovresti usarli o pensarli quando esegui la programmazione in parallelo / GPU. Sembrano essere menzionati in relazione ad alcune ottimizzazioni. Un esempio è dal secondo link:
...efficiently mapping tree traversals on GPUs requires carefully scheduling those traversals so that traversals that are grouped together into the same warp are as similar as possible.
Poi più tardi:
The CPU then uses this information to dynamically reorder the traversals so that when the second kernel is called, threads grouped into warps perform similar work, improving SIMT efficiency.
Mi sto chiedendo quanti fili ci siano, dove siano, come usarli (come puoi usarli in WebGL attraverso qualche API, o è solo il modo in cui organizzi la memoria).