ah. ok.
bon pour mesh, cf ce qu'a dit GoldenCristal... mesh == maillage.
les morph targets, c'est aussi appele "blend-shapes", et c'est une serie de differentes versions de la meme mesh, que tu blende (enfin, interpole

) entre elles suivant diverses sources exterieures.
par exemple pour un visage, si tu veux faire du lipsync a partir d'une liste de phonemes et de timestamps, il te faut des versions du visage dans differentes poses distinctes, genre une version qui fait "o" une autre "i", une autre "mmmmh", etc... (+ une qui sourit, qui fait la gueule, qui est triste, bref...)
ca c'est les morph targets (== les destinations de morphing, les "poses finales" quoi).
bref
pour ton probleme, en fait c'est un peu comme un DJ qui mixe des pistes audio, sauf que c'est des anims de morceaux de corps d'un gars?
tu peux tres simplement faire ca en melangeant les animations en utilisant des masques, cad en marquant tes bones comme etant "actifs" dans l'animation (ou mieux: en leur donnant un poids d'influence, quand c'est 0 c'est inactif, quand c'est 1 c'est actif, etc...) par exemple l'anim de ton gars qui fait "salut", tu peux mettre un poids a 1 au bras qui fait salut, et un poids nul pour tout le reste.
apres au moment de blender, t'utilise les poids pour savoir quel pourcentage de anim tu prends en compte pour l'animation finale.
et pour la synchro, tu peux caler au debut toutes tes anims sur le beat de ta musique, et toutes les faire evoluer en arriere plan, meme si elles sont pas utilisees, ce qui fait que quand l'utilisateur les activera, il n'y aura pas de probleme de calage. (si il active l'anim "taper dans les mains" entre deux beats, bah c'est pas grave, l'anim sera au bon endroit entre deux claquements de mains, mais c'est le comportement auquel on s'attend, a priori)