Le prompt injection permet à un attaquant de détourner un agent IA en quelques lignes de texte, en contournant ses règles et en lui faisant produire des réponses dangereuses ou révéler des données sensibles. Cet article explique le mécanisme, les principales variantes d’attaques et les bonnes pratiques pour sécuriser vos usages de l’IA générative.
