
Le Royaume-Uni a toujours été à l’avant-garde de la numérisation administrative. Cependant, l’année 2025 a marqué un coup d’arrêt brutal pour le HMRC (Her Majesty’s Revenue and Customs). En voulant automatiser massivement le contrôle fiscal et l’octroi d’aides sociales, le fisc britannique a déclenché une vague de polémiques qui interroge la place de l’intelligence artificielle dans nos sociétés démocratiques.
Le scandale des « Lettres Fantômes » : L’IA générative sans contrôle
Le premier grand séisme a frappé le secteur de la Recherche et Développement (R&D). Pour faire face à une hausse des demandes de crédits d’impôt, le HMRC a déployé un Large Language Model (LLM) pour rédiger les notifications de refus.
En août 2025, des cabinets d’expertise comptable ont tiré la sonnette d’alarme : des milliers de lettres de rejet utilisaient des arguments juridiques absurdes, voire inventés par l’IA (le phénomène d’ »hallucination »). La justice britannique a été saisie et a rendu un verdict sans appel : l’utilisation d’une IA pour motiver une décision administrative sans une révision humaine systématique viole le droit à un procès équitable. Cette décision force aujourd’hui le gouvernement à réexaminer plus de 12 000 dossiers.
L’algorithme de résidence : 23 000 familles injustement ciblées
Le point le plus sensible de cette veille concerne le croisement des données de transport et de résidence. Fin 2025, un algorithme prédictif a été chargé d’identifier les bénéficiaires d’allocations familiales ne résidant plus physiquement sur le sol britannique (une condition sine qua non pour toucher les aides).
L’IA a croisé les données des douanes avec les fichiers du HMRC. Résultat : 23 000 suspensions immédiates. Problème ? L’algorithme n’a pas su interpréter les déplacements professionnels courts ou les binationaux. Près de 3 500 foyers se sont retrouvés privés de ressources vitales pendant plusieurs mois par erreur. En mars 2026, le Parlement a qualifié cette gestion de « défaillance technologique majeure », imposant la création d’un médiateur dédié aux erreurs de l’IA.
Vers une « Charte de l’IA Fiscale » ?
Face à ces échecs, le Royaume-Uni est devenu un laboratoire malgré lui. Le gouvernement travaille désormais sur une Charte de l’IA Publique qui interdit toute décision « automatisée à 100 % » sans possibilité de recours humain immédiat. Pour les experts en veille technologique, le cas britannique prouve que la puissance de calcul ne peut en aucun cas remplacer le discernement juridique.
Sources et Références
- HMRC Official Report (2025) : “Implementation of Machine Learning in R&D Tax Credit Assessments: A Review”.
- The Guardian (Décembre 2025) : “The Algorithm Scandal: How 23,000 families lost their benefits to a glitch”.
- UK High Court Ruling (Août 2025) : Case [2025] EWHC 2144 (Admin) regarding automated decision-making.
- National Audit Office (NAO) : “Digital transformation at HMRC: Lessons from the 2025 automation failures”.
- BBC Tech News (Mars 2026) : “Parliamentary inquiry demands ‘human-in-the-loop’ for all fiscal AI”.