du 31 mai au 2 juin
Passionnés d'IA, chercheurs et étudiants, rejoignez nous et plongez dans le monde des LLMs afin de contribuer à faire progresser le domaine de l'intelligence artificielle.
Hack GenAI, le hackathon dédié à l'évaluation de la robustesse des grands modèles de langage (LLMs) sur un week-end ! Cet événement, organisé par la Chaire IA et Sécurité portée par la Gendarmerie nationale et l’Isep et avec le concours d’EUROPOL et Magic Lemp, vous offre une occasion unique d'explorer les subtilités des LLMs et d'identifier les éventuelles faiblesses dans leur conception.
Objectif
Dans le cadre de l'émergence de l'IA générative, la robustesse des modèles constitue un challenge dans le champ de la sécurité. En effet, chaque LLM peut potentiellement être attaqué et détourné à des fins malveillantes. Le hackathon vous propose d'appréhender ce sujet par deux approches différentes. La première consiste à affiner des modèles open-source pour les rendre le plus "non-censurés" possible en réalignant leurs poids. Pendant ce temps, vous effectuerez des attaques d'ingénierie de prompts pour trouver les meilleures instructions pour générer des réponses normalement non fournies par les LLMs.
Vous travaillerez en équipe pour élaborer des stratégies innovantes d'attaque tout en respectant les directives éthiques. Vous aurez accès à des machines de calcul adaptées aux ambitions du challenge et des datasets seront proposés pour la tâche de fine tuning.
|
|