Atténuation des biais sociaux des modèles de langue pré-entraînés via un auto-désanoblissement contrastif avec une double augmentation de données
Introduction : Actuellement, les modèles de langue pré-entraînés (PLM) sont largement utilisés dans le domaine du traitement du langage naturel, mais ils ont le problème d’hériter et d’amplifier les préjugés sociaux présents dans les données d’entraînement. Les préjugés sociaux peuvent entraîner des risques imprévisibles lors de l’application réell...