Veille technologique
Intelligence artificielle : les évolutions qui comptent en 2026
J’ai choisi l’IA comme sujet de veille parce qu’on n’est plus dans la simple démonstration technique. En 2026, les modèles passent dans les outils de travail, les assistants savent chercher, agir et se connecter à d’autres services, et les modèles ouverts progressent très vite. L’idée ici est de garder une vue claire de ce qui change vraiment, avec des sources officielles.
Tendances de fond
Depuis 2025, la discussion a changé. La question n’est plus seulement “quel modèle répond le mieux ?”, mais “quel système tient la charge, sait utiliser des outils, reste pilotable et peut être déployé dans un cadre acceptable ?”.
Des agents plus concrets
Les grands acteurs ne vendent plus seulement une meilleure réponse textuelle. Ils poussent des systèmes qui savent naviguer, chercher, appeler des outils, traiter des documents et tenir des tâches plus longues.
Des gammes plus lisibles
Chez OpenAI, Anthropic ou Google, on voit mieux la logique produit : modèles premium, variantes rapides, modes de raisonnement renforcé et offres plus adaptées à des usages précis.
L’ouvert revient fort
Les modèles ouverts ou open-weight progressent vite. Ils redeviennent crédibles pour du local, de l’on-prem, du prototypage rapide et certains usages internes mieux maîtrisés.
Le cadre devient opérationnel
L’AI Act européen approche d’une phase très concrète. Transparence, marquage des contenus, gouvernance et accompagnement des acteurs deviennent des sujets de déploiement, pas seulement de veille juridique.
Au moment de cette mise à jour, Stanford met toujours en avant l’AI Index 2025. Le rapport montre un secteur qui se mature vite : les performances montent, les benchmarks se renouvellent et l’écart entre modèles fermés et open-weight s’est fortement réduit.
Anthropic
Début 2026, Anthropic reste très lisible dans sa stratégie : améliorer la fiabilité sur le code, les agents et le travail long, tout en documentant davantage ses garde-fous.
Sonnet 4.6 devient la base quotidienne
Le 17 février 2026, Anthropic a lancé Claude Sonnet 4.6. La société le présente comme son Sonnet le plus capable à ce jour, avec une progression nette sur le code, l’usage de l’ordinateur, le raisonnement long, la planification d’agents et un contexte de 1 million de tokens en bêta.
Opus 4.6 vise clairement le travail exigeant
Le 5 février 2026, Anthropic a aussi sorti Claude Opus 4.6. Le positionnement est net : tâches complexes, workflows agentiques, code, recherche et travail documentaire de haut niveau. Ce n’est pas juste une course au benchmark, c’est une tentative de rendre les tâches longues plus fiables.
Transparence et interopérabilité prennent du poids
Anthropic a renforcé sa logique d’ouverture sur l’écosystème avec le transfert du MCP à l’Agentic AI Foundation, et son Transparency Hub, mis à jour en février 2026, centralise désormais les résumés de modèles, les évaluations et les garde-fous de déploiement.
Google / DeepMind
Google a désormais une gamme beaucoup plus structurée. On voit mieux la logique entre modèles premium, raisonnement renforcé, variantes très rapides et modèles ouverts.
Gemini 3.1 Pro pousse le cœur de gamme
Le 19 février 2026, Google a présenté Gemini 3.1 Pro comme sa base renforcée pour les tâches complexes. La société insiste sur le raisonnement, l’usage dans les produits grand public et développeurs, et met en avant une forte progression sur ARC-AGI-2.
Deep Think est traité comme un mode spécialisé
Le 12 février 2026, Google a mis à jour Gemini 3 Deep Think pour les usages science, recherche et ingénierie. C’est intéressant parce que Google segmente clairement le raisonnement poussé, au lieu de tout faire reposer sur un seul modèle unique.
Flash-Lite confirme la logique industrielle
Le 3 mars 2026, Google a lancé Gemini 3.1 Flash-Lite comme modèle très rapide et économique pour les gros volumes. Cela montre bien que le marché ne se joue pas seulement sur le “meilleur modèle”, mais aussi sur le débit, le coût et la capacité à servir des flux massifs.
OpenAI
Chez OpenAI, le point marquant n’est plus seulement la sortie de nouveaux modèles. La vraie évolution, c’est la convergence entre raisonnement, recherche, outils, navigation et exécution d’actions.
GPT-5.4 recentre la gamme sur le travail professionnel
Le 5 mars 2026, OpenAI a lancé GPT-5.4 en le présentant comme un modèle pensé pour le travail pro. Les points les plus marquants sont le contexte jusqu’à 1 million de tokens, l’usage natif de l’ordinateur, la recherche d’outils et une meilleure tenue sur les tâches longues.
Deep research devient plus contrôlable
La mise à jour du 10 février 2026 ajoute à deep research la connexion à des apps ou serveurs MCP, la limitation des recherches à des sites de confiance, le suivi de progression et la possibilité d’interrompre puis de recadrer la recherche en cours.
La logique agent est devenue un produit à part entière
ChatGPT agent combine navigateur visuel, navigateur textuel, terminal et connecteurs. Ce n’est plus un simple prototype de démonstration : OpenAI documente clairement les usages, les confirmations utilisateur et les risques de prompt injection liés à cette autonomie.
Modèles ouverts : la poussée est devenue crédible
On parle souvent de modèles “open source”, mais dans les faits il faut souvent distinguer open source, open-weight et licences permissives. Ce qui compte ici, c’est que l’offre ouverte progresse vite et devient réellement exploitable pour du local, de l’on-prem et des usages spécialisés.
OpenAI a rouvert la porte avec gpt-oss
Le 5 août 2025, OpenAI a publié gpt-oss-120b et gpt-oss-20b sous licence Apache 2.0. Le message est clair : proposer des modèles de raisonnement ouverts, capables d’usage d’outils, à personnaliser et exécuter sur sa propre infrastructure.
Google garde une vraie carte locale avec Gemma 3
Gemma 3 reste un point important de la stratégie Google : modèles légers, plus de 140 langues, contexte 128k, capacités visuelles et function calling. C’est une réponse concrète aux besoins d’exécution sur matériel plus limité.
Mistral Small 4 pousse l’idée du modèle polyvalent
En mars 2026, Mistral Small 4 a été annoncé sous Apache 2.0 avec un positionnement hybride : instruct, raisonnement, coding et multimodal dans un seul modèle. Cela montre que l’écosystème ouvert ne joue plus seulement le rôle d’alternative “moins chère”.
Qwen3 confirme la montée des acteurs ouverts
Qwen3 propose à la fois un mode “thinking” et un mode plus direct, avec plusieurs tailles de modèles sous licence Apache 2.0. L’intérêt, c’est une gamme très large qui rend le déploiement local ou ciblé plus réaliste.
DeepSeek continue à pousser le raisonnement ouvert
DeepSeek-R1 a mis en avant une licence MIT et un raisonnement compétitif en début 2025. Ensuite, DeepSeek V3.2 a poursuivi dans une logique “reasoning-first” pour agents, avec intégration du raisonnement directement dans l’usage d’outils.
Réglementation et impacts concrets
L’actualité IA ne se joue plus seulement dans les labos. En Europe, 2026 est aussi une année de passage à l’application concrète, avec des obligations qui touchent la transparence, la gouvernance et les usages pro.
AI Act : août 2026 devient une vraie échéance
L’AI Act est entré en vigueur le 1er août 2024. Les pratiques interdites et les obligations de littératie IA s’appliquent depuis le 2 février 2025. Les obligations pour les GPAI s’appliquent depuis le 2 août 2025, et le cadre devient pleinement applicable le 2 août 2026, avec un report plus long pour certains systèmes à haut risque intégrés à des produits réglementés.
Le marquage des contenus avance
La Commission européenne a publié en décembre 2025 un premier projet de code de pratique pour le marquage et l’étiquetage des contenus générés par IA. C’est concret : la transparence sur certains contenus devient une exigence de déploiement, pas juste un débat théorique.
L’accompagnement des acteurs se structure
La Commission a aussi lancé un AI Act Service Desk et une Single Information Platform avec des outils comme un Compliance Checker et un AI Act Explorer. Pour les entreprises et les profils techniques, cela signifie que le sujet conformité devient progressivement plus outillé.
Ce que je retiens pour mon BTS SIO SISR
Ce sujet m’intéresse parce qu’il touche déjà des réalités très proches du terrain : sécurité, accès aux outils, gouvernance, supervision des usages et choix d’architecture.
Comparer les acteurs ne suffit plus
Il faut aussi comparer les outils disponibles, le niveau d’autonomie, la gestion des droits, le coût et les possibilités de déploiement.
L’infrastructure reprend une vraie place
Connecteurs, permissions, cloud, isolement, journalisation et accès aux données deviennent des briques centrales dans les usages IA réels.
Les modèles ouverts ne sont plus anecdotiques
Ils ne remplacent pas tout, mais ils deviennent une vraie option pour des besoins locaux, maîtrisés ou plus sensibles côté données.
La sécurité devient plus concrète
Prompt injection, abus d’outils, accès trop larges et contenus générés mal signalés sont désormais des risques à traiter dans un cadre technique et organisationnel.
Références officielles utilisées
J’ai privilégié des sources éditeurs, institutionnelles ou académiques, en gardant uniquement des références utiles pour cette mise à jour d’avril 2026.