Mise à l'échelle efficace des grands modèles de langage avec un mélange d'experts et un calcul analogique en mémoire 3D

Extension efficace des modèles de langage à grande échelle avec un mélange d’experts et le calcul analogique en mémoire 3D Contexte académique Ces dernières années, les modèles de langage à grande échelle (Large Language Models, LLMs) ont démontré des capacités impressionnantes dans le traitement du langage naturel et la génération de texte. Cepend...

Implémentations efficaces des fonctions d'activation basées sur CORDIC pour l'accélération des RNN sur FPGA

Mise en œuvre efficace des fonctions d’activation RNN : percée dans l’algorithme CORDIC et l’accélération matérielle FPGA Contexte et importance de l’étude Ces dernières années, avec le développement rapide des technologies d’apprentissage profond, les réseaux neuronaux récurrents (Recurrent Neural Networks, RNN), en particulier les réseaux à mémoi...