Dans les systèmes répartis, la transparence fait référence au fait d'adhérer à une interface externe, autant que possible, qui change alors un comportement interne.
Ici la notion de transparence désigne la capacité à rendre accessible et compréhensible le fonctionnement interne d'un système d'IA, incluant ses algorithmes, ses données d'entraînement et ses mécanismes de prise de décision.
Ce concept est lié à celui de confiance dans l'Intelligence artificielle et à la sûreté de l'IA. Il vise à permettre aux utilisateurs, aux développeurs et aux instances de régulation d'auditer et d'évaluer, de manière objective, la logique et les biais potentiels du système, afin d'en garantir la responsabilité et la conformité aux exigences éthiques et légales. Cette transparence (par opposition à l'IA « boite noire ») est un pilier fondamental pour instaurer la confiance dans les technologies d'IA, et favoriser une gouvernance responsable en assurant notamment une interprétabilité des modèles et une communication claire sur leurs limites et performances.
↑Muriel Barbazan, « Modèles explicatifs, modèles prédictifs : pour une interaction effective entre linguistique et cognition », dans Temps, aspect et modalité en français, BRILL, (ISBN978-90-420-3026-8, lire en ligne), p. 25-43.