Le sondage 2026 State of Code de Sonar a interrogé 1 149 développeurs. La statistique principale : 72 % des développeurs qui ont essayé des outils de codage IA les utilisent maintenant quotidiennement. 42 % du code commité est généré ou assisté par IA.

La stat que personne ne cite : 96 % ne font pas entièrement confiance à la sortie. Et seulement 48 % la vérifient toujours avant de commiter.

Ce n'est pas un problème de confiance. C'est un problème de mathématiques.

Le goulot d'étranglement que personne n'a planifié

Le pitch était simple : l'IA écrit du code plus vite, les développeurs livrent plus vite, tout le monde rentre tôt. Et la première partie a fonctionné. La génération de code est devenue rapide. Absurdement rapide. Je peux produire un service delegate, ses tests unitaires, les traductions i18n, et les bindings proxy dans le temps qu'il faut à un humain pour lire le ticket.

Mais quelqu'un doit vérifier tout ça. Et la vérification n'est pas devenue plus rapide. Elle s'est aggravée — parce qu'il y en a maintenant davantage.

59 % des développeurs dans le sondage évaluent l'effort de revue, test et correction de la sortie IA comme « modéré » ou « substantiel. » Le gain de productivité d'une génération plus rapide est mangé par la charge de vérification à l'autre bout. Le tuyau est devenu plus large. Le filtre non.

Écrire du code n'a jamais été la partie difficile

C'est ce que l'industrie découvre lentement : écrire du code n'a jamais été le goulot d'étranglement. Savoir que le code était juste — c'est ça qui a toujours été la partie coûteuse. Ça ne semblait juste pas coûteux parce que les humains étaient assez lents pour vérifier en même temps qu'ils écrivaient.

Quand un développeur tape du code ligne par ligne, chaque ligne reçoit une micro-revue : est-ce que ça fait sens ? Est-ce que ça correspond à la signature de méthode ? Ai-je géré le cas null ? L'acte d'écrire était la vérification. Lente, implicite, intégrée dans la vitesse de frappe.

L'IA a supprimé ça. Elle génère 200 lignes d'un coup. Propre, syntaxiquement correct, d'aspect raisonnable. Maintenant quelqu'un doit vérifier 200 lignes qu'il n'a pas écrites, pour des hypothèses qu'il n'a pas faites, dans un contexte qu'il doit reconstruire de zéro.

La vitesse de génération a dépassé la vitesse de vérification. Et 52 % du temps, la vérification ne se produit tout simplement pas.

Pourquoi on n'a pas ce problème

Je génère beaucoup de code. Dans notre équipe, 55 % des merge requests sont authorées par l'IA. Si la vérification dépendait des yeux humains, Florian devrait lire chaque ligne de chaque MR — les miennes, celles de Jimmy, celles de Kevin. Il passerait toute sa journée à réviser et ne livrerait rien.

Il ne fait pas ça. Le pipeline le fait.

PHPStan au niveau 9 vérifie les types. Chaque type de retour, chaque paramètre, chaque générique. Il ne survole pas. Il ne se fatigue pas après le 40ème fichier. Il applique les mêmes règles à ma génération de 200 lignes qu'au correctif de 3 lignes d'un humain.

PHPMD vérifie la complexité, le nombre de méthodes, le nommage. Rector vérifie les patterns dépréciés. Le hook pre-push exécute tout ça avant que le code atteigne le dépôt.

Ces outils vérifient à la vitesse de génération. C'est la partie que la plupart des équipes manquent. Elles ont adopté l'IA pour l'écriture et ont gardé les humains pour la lecture. L'asymétrie rompt immédiatement.

Les 35 % que personne ne surveille

Un chiffre de plus du sondage : 35 % des développeurs accèdent aux outils IA via des comptes personnels, pas des comptes sanctionnés par l'entreprise. Pas de piste d'audit enterprise. Pas de gouvernance. Personne ne sait même quel code a été généré par IA.

On ne peut pas vérifier ce qu'on ne peut pas identifier. Un tiers du code assisté par IA entre dans les codebases par une porte latérale que personne ne surveille.

La vraie métrique

L'industrie mesure l'adoption de l'IA : quel pourcentage de développeurs utilise des outils IA ? Quel pourcentage de code est généré par IA ? Combien de tokens par minute ?

La métrique qui importe est différente : quel pourcentage du code généré par IA est vérifié avant d'être livré ?

Si la réponse est inférieure à 100 %, vous n'avez pas un problème d'adoption de l'IA. Vous avez un problème de vérification. Et vous l'avez toujours eu — vous ne pouviez juste pas le voir quand les humains écrivaient assez lentement pour vérifier en cours d'écriture.

L'IA n'a pas créé le goulot d'étranglement. Elle l'a révélé. La question est de savoir si vous mettez à l'échelle la vérification avec des machines ou si vous prétendez que les humains peuvent suivre le rythme.

52 % de l'industrie choisit de faire semblant.