Outils & bonnes pratiques

Outils concrets (open source ou gratuits) et checklists pour securiser vos projets IA.

Outils de guardrails et filtrage

Outil / projet Type Cas d'usage Ref
NeMo Guardrails Framework guardrails LLM Definir des politiques conversationnelles, limiter reponses dangereuses arxiv
UniGuard Guardrails multimodaux Detection de jailbreak multimodal arxiv
ShieldAgent Securite d'agents IA Verification de politiques de securite pour agents arxiv
Aegis 2.0 Dataset + taxonomie Entrainement / evaluation de guardrails arxiv

Voir aussi : Mindgard - Best AI Security Tools

Checklists issues des referentiels

Checklist OWASP Top 10 LLM / GenAI

Source : Giskard

Checklist NIST AI RMF

Source : SentinelOne

Checklist ANSSI

Source : iPACS

Benchmarks & plateformes de test

Des environnements existent pour tester la robustesse des modeles :