IA-Newton Intelligence Artificielle
AI-Newton : un système de découverte de lois physiques basé sur les concepts et ne nécessitant aucune connaissance physique préalable.
Toi-Le Fang eden@stu.pku.edu.cn École de physique, Université de Pékin, Pékin 100871, Chine Dong-Shan Jian dsjian@stu.pku.edu.cn École de physique, Université de Pékin, Pékin 100871, Chine Xiang Li lix-PHY@pku.edu.cn École de physique, Université de Pékin, Pékin 100871, Chine Yan-Qing Ma yqma@pku.edu.cn École de physique, Université de Pékin, Pékin 100871, Chine Centre de physique des hautes énergies, Université de Pékin, Pékin 100871, Chine (11 décembre 2025) Abstract Si les méthodes actuelles d'intelligence artificielle excellent dans la dérivation de modèles empiriques à partir d'expériences individuelles, un défi majeur demeure : celui de découvrir les principes physiques fondamentaux communs qui sous-tendent ces modèles – une tâche pour laquelle les physiciens humains sont particulièrement compétents. Afin de combler cette lacune, nous présentons AI-Newton, un nouveau cadre pour la découverte scientifique axée sur les concepts.
Notre système déduit de manière autonome des lois physiques générales directement à partir de données brutes issues de multiples expériences, sans supervision ni connaissance physique préalable. Ses innovations principales sont doubles : (1) la proposition de concepts physiques interprétables pour construire des lois, et (2) la généralisation progressive de ces lois à des domaines plus vastes. Appliqué à un vaste ensemble de données bruitées d'expériences de mécanique, AI-Newton redécouvre avec succès des lois fondamentales et universelles, telles que la deuxième loi de Newton, la conservation de l'énergie et la gravitation universelle. Ce travail représente une avancée significative vers une découverte scientifique autonome, comparable à celle de l'être humain.
Synthèse analytique de AI-Newton faite par ChatGPT janvier 2026
Voici une synthèse analytique structurée du texte présentant AI-Newton, en mettant en évidence ses apports conceptuels, méthodologiques et épistémologiques.
1. Problématique scientifique et positionnement
Le texte s’inscrit dans le champ de la découverte scientifique automatisée, en identifiant une limite majeure des approches actuelles en intelligence artificielle appliquées à la physique :
elles produisent principalement des modèles empiriques locaux, ajustés à des expériences isolées, sans accéder aux lois générales unificatrices qui constituent le cœur de la pratique scientifique humaine.
Le problème central formulé est donc le suivant :
Comment une IA peut-elle extraire, à partir de données brutes issues d’expériences multiples, des concepts physiques interprétables et des lois générales transférables, sans connaissance préalable du domaine ?
AI-Newton se positionne explicitement comme une tentative de changement de paradigme, visant à dépasser :
- l’ajustement statistique,
- la simple régression symbolique locale,
- et l’interprétation a posteriori de représentations latentes.
2. Hypothèse centrale et originalité de l’approche
L’hypothèse fondatrice d’AI-Newton est que la découverte de lois générales repose sur deux capacités clés, insuffisamment prises en charge par les systèmes actuels :
- La construction explicite de concepts physiques (masse, énergie, force, potentiel…), et non leur simple encodage implicite dans des paramètres neuronaux.
- La généralisation progressive des lois, par modification raisonnée de lois existantes lorsque celles-ci échouent dans de nouveaux contextes expérimentaux.
L’originalité majeure du cadre repose ainsi sur une architecture conceptuelle hiérarchique, inspirée explicitement de la pratique des physiciens.
3. Architecture de connaissances : rupture avec les approches neuronales classiques
3.1. Séparation base expérimentale / base théorique
AI-Newton distingue clairement :
- une base d’expériences, contenant uniquement des descriptions minimales (objets, géométrie, paramètres, coordonnées spatio-temporelles, données bruitées),
- une base théorique, où sont stockés symboliquement les concepts et les lois découvertes.
Cette séparation marque une rupture nette avec les approches end-to-end, en assumant que la connaissance scientifique doit être représentée explicitement pour être transférable et cumulable.
3.2. Concepts explicites et langage spécifique au domaine (DSL)
Les concepts physiques sont :
- découverts, non fournis a priori,
- définis opérationnellement via des procédures de mesure,
- encodés symboliquement dans un DSL structuré.
Trois catégories de concepts sont distinguées :
- concepts dynamiques (vitesse, accélération),
- concepts intrinsèques (masse, constante de raideur),
- constantes universelles (g, constante gravitationnelle).
Cette explicitation formelle garantit la cohérence conceptuelle inter-expériences, condition indispensable à la généralisation.
4. Lois spécifiques et lois générales : un changement d’échelle épistémologique
Le texte introduit une distinction structurante :
- Lois spécifiques : valides pour une expérience ou une configuration donnée.
- Lois générales : formulations abstraites, applicables à une grande variété de systèmes.
L’enjeu n’est plus seulement de découvrir une équation correcte, mais de construire une loi compacte et universelle, capable de générer des équations concrètes complexes lorsqu’elle est instanciée.
L’exemple de la deuxième loi de Newton illustre cette hiérarchie :
une loi simple au niveau conceptuel peut engendrer des dynamiques très complexes au niveau des systèmes multi-objets.
5. Flux de découverte autonome : le rôle central du raisonnement plausible
5.1. Raisonnement plausible comme moteur épistémique
Le cœur méthodologique d’AI-Newton repose sur le raisonnement plausible, explicitement rapproché de la démarche scientifique humaine :
- il ne produit pas des vérités logiquement certaines,
- mais des hypothèses raisonnables, testées et révisées.
Ce raisonnement permet notamment :
- d’étendre une loi existante en ajoutant des termes correctifs,
- de transformer l’échec local d’une loi en opportunité de généralisation.
L’exemple de la conservation de l’énergie (cinétique → énergie totale) est particulièrement emblématique.
5.2. Exploration contrôlée et stratégie d’ères
Le système met en œuvre :
- un moteur de recommandation inspiré de l’UCB (exploration/exploitation),
- une stratégie temporelle par ères, favorisant d’abord les expériences simples.
Cette organisation reflète une pédagogie implicite de la découverte, analogue à l’apprentissage scientifique humain.
6. Résultats expérimentaux et portée des découvertes
Appliqué à 46 expériences de mécanique newtonienne bruitées, AI-Newton :
- redécouvre des lois fondamentales majeures :
- deuxième loi de Newton,
- conservation de l’énergie,
- gravitation universelle ;
- identifie environ 90 concepts et 50 lois générales ;
- démontre une progression ordonnée dans la découverte des concepts.
Un résultat particulièrement significatif est la redécouverte autonome du principe d’équivalence faible, par l’unification numérique de la masse inertielle et gravitationnelle issues de contextes expérimentaux distincts.
Ce point confère au système une portée conceptuelle dépassant la simple mécanique classique.
7. Apports épistémologiques majeurs
Le texte suggère plusieurs contributions fondamentales :
- Une formalisation opératoire de la découverte scientifique, intégrant concepts, lois, mesures et généralisation.
- Une démonstration que la symbolisation explicite est un levier décisif pour l’universalité des lois.
- Une mise en évidence du rôle central des échecs locaux dans la construction de théories générales.
- Une remise en question implicite des approches purement statistiques pour la science fondamentale.
8. Limites et perspectives
Les auteurs reconnaissent :
- un coût computationnel élevé,
- un cadre expérimental encore circonscrit à la mécanique classique,
- une architecture spécialisée (DSL, moteur dédié).
Ils ouvrent toutefois une perspective stratégique importante :
l’intégration future de grands modèles de langage non pour « découvrir » des lois connues, mais pour :
- enrichir le raisonnement plausible,
- mobiliser des connaissances scientifiques existantes,
- accélérer et orienter la découverte dans des domaines inconnus.
9. Conclusion synthétique
AI-Newton ne se contente pas d’automatiser la découverte de lois physiques ; il propose une théorie opérationnelle de la découverte scientifique par l’IA, fondée sur :
- la construction explicite de concepts,
- la hiérarchisation des lois,
- la généralisation raisonnée,
- et une dynamique cumulative du savoir.
À ce titre, le système constitue moins un outil de modélisation qu’un prototype épistémologique, ouvrant la voie à des IA capables de participer activement à la production de connaissances scientifiques fondamentales.
Y-a-t’il d’autres outils semblables ?
Oui : il existe plusieurs approches et outils, voisins ou complémentaires d’AI-Newton, qui visent à découvrir des lois physiques ou des relations scientifiques à partir de données. Ces outils diffèrent selon leur ambition (de la simple régression symbolique à une généralisation plus profonde) et leur niveau d’autonomie scientifique.
1. Approches historiques de régression symbolique
Ces méthodes ne construisent pas une base conceptuelle comme AI-Newton, mais cherchent directement des expressions mathématiques interprétables à partir de données :
- AI Feynman – une méthode inspirée de la physique qui utilise la régression symbolique pour extraire des équations à partir de simples tableaux de données expérimentales ; elle a été appliquée avec succès à plusieurs lois physiques classiques.
- Eureqa – un moteur de modélisation évolutif basé sur des algorithmes génétiques pour trouver des équations simples décrivant des données ; historiquement l’un des premiers outils à redécouvrir des lois telles que celles de Newton à partir de séries temporelles.
Ces outils sont utiles pour transformer des ensembles de données en formules, mais ils n’ont pas la même structure hiérarchique concept → loi → généralisation que AI-Newton.
2. Outils et cadres de découverte automatisée récents
Outre AI-Newton, la littérature scientifique et technique mentionne plusieurs développements actifs :
- PSE (Parallel Symbolic Enumeration) – une approche de recherche symbolique qui améliore l’efficacité et la qualité des modèles découverts, y compris pour des relations physiques interprétables.
- PhySO (Physical Symbolic Optimization) – une méthode qui génère des équations physiques analytiques à partir de données scientifiques brutes, mise en avant pour sa capacité à produire des modèles physiquement significatifs sans supervision.
- PhyE2E – un cadre symbolico-neural pour découvrir des lois en physique des plasmas et des systèmes complexes, capable d’intégrer des connaissances unifiées issues de données brutes.
3. Recherches multimodales et intégratives
Des travaux académiques explorent des stratégies hybrides combinant perception, raisonnement symbolique et structuration de connaissances :
- VIPER-R1 – un modèle multimodal intégrant perception visuelle, données de trajectoire et raisonnement symbolique pour découvrir des formules physiques à partir de données spatio-temporales complexes.
Ce type de modèle ambitionne de rapprocher l’IA des pratiques expérimentales réelles, en combinant plusieurs sources d’information.
4. Approches conceptuelles et extensions de l’idée
Dans la littérature algorithmique et méthodologique plus large, plusieurs cadres partagent l’objectif d’expliciter et structurer la découverte scientifique :
- AI Descartes – combine raisonnement logique formel avec régression symbolique pour dériver des modèles cohérents avec des connaissances d’arrière-plan et des données.
- KAN 2.0 – propose une synergie entre réseaux neuronaux spécifiques (Kolmogorov-Arnold Networks) et extraction de structures symboliques, notamment pour découvrir des lois conservées ou symétriques.
Ces travaux ne sont pas forcément des “outils prêts à l’emploi”, mais ils représentent des orientations de recherche convergentes vers des IA plus génératives et conceptuelles.
5. Tendances transversales : symbolic regression et Physical AI
De manière plus générale, de nombreux projets et bibliothèques s’intéressent à la régression symbolique interprétable dans le contexte scientifique (par exemple des listes de ressources et bibliothèques liées à la découverte de lois physiques via apprentissage automatique), démontrant l’intérêt croissant pour ces méthodes au-delà d’un seul système isolé.
Synthèse comparative (concept / capacité)
* le LLM orchestre,
- des modules spécialisés découvrent,
- et des structures symboliques assurent la généralisation et la vérification.
C’est précisément dans cette direction que se situe la frontière actuelle de la recherche en intelligence artificielle scientifique.