Outils & bonnes pratiques
Outils concrets (open source ou gratuits) et checklists pour securiser vos projets IA.
Outils de guardrails et filtrage
| Outil / projet |
Type |
Cas d'usage |
Ref |
| NeMo Guardrails |
Framework guardrails LLM |
Definir des politiques conversationnelles, limiter reponses dangereuses |
arxiv |
| UniGuard |
Guardrails multimodaux |
Detection de jailbreak multimodal |
arxiv |
| ShieldAgent |
Securite d'agents IA |
Verification de politiques de securite pour agents |
arxiv |
| Aegis 2.0 |
Dataset + taxonomie |
Entrainement / evaluation de guardrails |
arxiv |
Voir aussi : Mindgard - Best AI Security Tools
Checklists issues des referentiels
Checklist OWASP Top 10 LLM / GenAI
- Ai-je une strategie de defense contre les prompt injections ?
- Comment je limite les fuites de donnees sensibles dans les reponses ?
- Comment j'encadre les plugins / tools appeles par mon LLM ?
Source : Giskard
Checklist NIST AI RMF
- Ai-je cartographie les risques pour chaque cas d'usage ?
- Ai-je defini des metriques de securite / robustesse ?
Source : SentinelOne
Checklist ANSSI
- Ou sont stockees les donnees d'entrainement / logs de prompts ?
- Quel est le perimetre d'exposition de l'IA aux SI internes ?
Source : iPACS
Benchmarks & plateformes de test
Des environnements existent pour tester la robustesse des modeles :
- MCPSecBench — Benchmarks de securite pour protocoles de contexte. [arxiv]
- Aegis dataset — Evaluation de guardrails. [arxiv]
- Red teaming IA — Cadres decrits dans ATLAS et rapports frontier AI. [arxiv]