index - Confiance.ai Accéder directement au contenu

Un collectif français d’envergure inédite pour concevoir et industrialiser des systèmes à base d’intelligence artificielle de confiance

Une stratégie nationale au service de l’ingénierie française

Pilier technologique du Grand Défi « Sécuriser, certifier et fiabiliser les systèmes fondés sur l’intelligence artificielle » lancé par l’Etat, Confiance.ai est le plus gros programme de recherche technologique du plan #AIforHumanity qui doit faire de la France un des pays leader de l’intelligence artificielle (IA)

Relever le défi de l’industrialisation de l’IA

Le déploiement à très grande échelle de systèmes industriels intégrant de l’IA est un enjeu crucial de compétitivité industrielle, économique et de souveraineté nationale. Le programme Confiance.ai porte donc une ambition forte : lever les verrous associés à l’industrialisation de l’IA et doter les acteurs industriels français de méthodes outillées adaptées à leurs ingénieries et construites sur des bases technologiques indépendantes. L’originalité du programme repose sur sa stratégie intégrative : il traite les défis scientifiques relatifs à l’IA de confiance et apporte des solutions tangibles, applicables dans le monde réel et industrialisables.

Fédérer les forces vives

Le programme Confiance.ai rassemble un collectif d’acteurs académiques et industriels français majeurs des domaines de la défense, des transports, de l’industrie manufacturière et de l’énergie qui ont décidé de mutualiser leurs savoir-faire scientifiques et technologiques de pointe. Le programme s’appuie sur une ingénierie et une culture mathématiques fortes associée à une excellence en intelligence artificielle pour établir de manière solidement argumentée la confiance dans les systèmes. Il est en cela, le symbole de l’approche culturelle française en matière de validation de l’intelligence artificielle.

 

Dernières publications

 

Mots-clés

Computer vision Influence Functions Concepts Data Quality Conformal prediction Adversarial attack Trustworthiness Attributes Gas Distribution FOS Computer and information sciences AI-Based Critical Systems Data Analysis Adversarial attacks Data Visualization Fault tolerant systems Hardware Deep Reinforcement Learning Adversarial physical attack Enalty Bayesian Neural Networks Long Short-Term Memory Confiance explicabilité Conformal Prediction Sûreté Deep learning Fault detection Bayesian inference Anomaly detection Explicabilité Evaluation AI Recurrent Neural Networks Attack transferability Complexity Distributed learning Confiance XAI Robustesse Adversarial Attacks Generative Models Neural network Federated Learning Case-based Monitoring ODD Data-driven reachability Embarqué Data Stream Embedded AI Example-based Computer Vision Explainability Semantic segmentation Arcadia Method AI-Based Systems Explicability Adversarial examples Contextual Evaluation Intelligence Articifielle AI-based systems Cryptography and Security Anomaly Detection AI component evaluation methodology Artificial intelligence Fiabilité Counterfactuals Robustness Bayesian Optimization Anomaly Machine Learning Ingénierie algorithmique de l’IA Adversarial Training System Identification Critical systems Mixed Integer Programming Bias Detection Explainable AI Distribution based method Cycle-accurate simulator Computer Vision and Pattern Recognition Artificial Intelligence Deep neural network classifiers Fault tolerance Data Stream Processing Automated vehicle Sûreté de fonctionnement Decision tree Deep Reinforcement Learning Robustness Adversarial Attacks Adversarial Training Trustworthiness Assessment Distributed Machine Learning GPU Explanations AI engineering Engineering Processes Custom search space Branch-and-Bound algorithm Calibration Christoffel functions AI System Characterization Realization theory Neural ODEs Neural Network