Veille technologique – IA (Mise à jour : juin 2025)
Anthropic
20 faits clés
- 21 juin 2024 – Lancement de Claude 3.5 Sonnet, modèle milieu de gamme plus rapide et moins coûteux que Claude 3 Sonnet.
- 24 février 2025 – Présentation de Claude 3.7 Sonnet, premier modèle « hybrid reasoning » combinant réponses instantanées et raisonnement pas-à-pas.
- 24 février 2025 – Dévoilement de Claude Code et de la variante Claude Sonnet 4, qui progresse en génération de code et en compréhension multimodale.
- 12 mars 2025 – Intégration de Claude 3.7 Sonnet dans Amazon Bedrock Knowledge Bases.
- Mai 2025 – Activation du “prompt caching” sur Bedrock pour Sonnet 4, divisant la latence par deux.
- 22 mai 2025 – Annonce officielle de la famille Claude 4 (Opus 4, Sonnet 4) : 200 k tokens de contexte et agents d’orchestration intégrés.
- Juin 2025 – Pré-annonce d’une gamme Claude 4 optimisée pour les workflows d’agents complexes.
- 23 juin 2025 – Mise en production du profil d’inférence « Claude 3.5 Sonnet v2 » pour un routage plus efficace.
- Investissement stratégique dans la start-up Goodfire, spécialisée en interprétabilité.
- Feuille de route 2027 : cartographie des circuits internes pour rendre Claude totalement interprétable.
- Lancement d’outils « extended thinking » permettant d’exposer le raisonnement détaillé via l’API.
- Partenariat élargi avec AWS : disponibilité de Claude dans dix régions, dont Paris (eu-west-3).
- Profils d’inférence régionaux garantissant la souveraineté des données clients européens.
- Ajout d’un plug-in VS Code fournissant complétions et refactorings contextuels (“Claude Code”).
- Claude 3 Haiku reste la variante la plus rapide (≈ 21 k tokens/s) pour les prompts ≤ 32 k tokens.
- Arrivée de Mike Krieger (co-fondateur d’Instagram) au poste de Chief Product Officer.
- Levée de fonds de 3,5 G$ portant la valorisation à plus de 60 G$ et prévoyant 100 embauches en Europe.
- Déploiement de “Claude Robotics” pour des agents de pricing chez Amazon Bedrock.
- Nouvelle API « extended thinking tips » suggérant des stratégies avancées de prompt engineering.
- Dario Amodei estime plausible l’émergence d’une IA super-intelligente dès 2026.
Claude 3.5 puis 3.7 ont placé Anthropic sur le terrain du raisonnement explicite. Avec Claude 4, la société poursuit un double objectif : fenêtre de contexte record et agents autonomes fiables. La stratégie s’appuie sur des partenariats cloud (AWS) et une R&D forte en interprétabilité, soutenue par de nouveaux financements et talents clés.
Google / DeepMind
20 faits clés
- 17 juin 2025 – Passage en GA de Gemini 2.5 Pro sur Vertex AI.
- 17 juin 2025 – Sortie de Gemini 2.5 Flash, variante rapide à faible coût.
- Fin mai 2025 – Déploiement de Gemini 2.5 Pro Preview dans l’application Gemini (web / mobile).
- Nouvelle grille tarifaire : Gratuit, AI Pro (19,99 $/mois, 2 To), AI Ultra (249,99 $/mois).
- Veo 3, modèle vidéo + audio natifs, génère des clips 1080 p de 8 s.
- Veo 3 intégré au flux YouTube Shorts (lancement prévu durant l’été 2025).
- Veo 3 disponible dans Canva via la fonctionnalité “Create a Video Clip”.
- DeepMind publie Gemini Robotics on-device pour robots autonomes.
- SDK Gemini Robotics ouvert aux testeurs pour faciliter le fine-tuning.
- Blog développeurs : migration obligatoire des chaînes modèle 2.5 Preview → 2.5 Pro avant le 19 juin 2025.
- Gemma 2 (9 B, 27 B) dépasse Llama 3 8 B sur Arena et s’optimise pour CPU/GPU locaux.
- Version quantisée de Gemma 2 fonctionnant sur laptop sans GPU dédié.
- 7 juillet 2025 – Gemini gagne le contrôle avancé des applications sur Android.
- I/O 2025 : Veo 3 accessible aux abonnés AI Ultra US et via Vertex AI.
- Google Cloud Next 2025 : Agent Development Kit (ADK) open-source pour créer des agents multi-fournisseurs.
- Gemini Robotics hybride cloud / on-device conserve une option de routage sécurisé.
- Chromebooks Plus embarquent Gemini pour “Live Translate” et “Help Me Read”.
- Google finance 10 000 $ de crédits Cloud aux chercheurs utilisant Gemma 3.
- Gemma 3 ambitionne d’être le meilleur modèle 1-GPU avec vision haute résolution.
- Flood Hub enrichi par Gemini pour la prévision des crues sur 80 pays.
Google poursuit une stratégie multi-modèles (Gemini, Gemma, Veo) visant à couvrir cloud, on-device et multimédia. L’intégration serrée dans Android, YouTube, Canva et Vertex AI traduit une volonté d’ancrage produit, tandis que l’ADK ouvre la voie à un écosystème d’agents interopérables.
OpenAI
20 faits clés
- 30 avril 2025 – GPT-4 retiré de ChatGPT, remplacé par GPT-4o par défaut.
- Juillet 2024 – GPT-4o mini succède à GPT-3.5 Turbo.
- GPT-4o déployable sur Azure AI Foundry (modèles 2024-11-20).
- 7 juin 2025 – Amélioration majeure du Voice Mode (intonation, fluidité, traduction temps réel).
- Déploiement progressif du Voice Mode confirmé sur desktop, mobile et web.
- GPT-4.1 API remplace GPT-4.5 Preview (retrait prévu le 14 juillet 2025).
- 3 juin 2025 – Codex avec accès Internet ouvert aux abonnés Plus.
- 6 juin 2025 – SD Times détaille l’automatisation des builds via Codex.
- Sora permet la génération vidéo 1080 p de 20 s via interface web.
- Aucun API public Sora annoncé pour l’instant.
- Sam Altman annonce GPT-5 pour l’été 2025.
- Plusieurs indices de release GPT-5 repérés dans les communications publiques.
- OpenAI publie un rapport (juin 2025) sur la lutte contre les usages malveillants de l’IA.
- Voice Mode utilise GPT-4o pour transcription et synthèse.
- GPT-4o remplace DALL-E 3 pour la génération d’images depuis mars 2025.
- GPT-4o mini réduit le coût des tokens de plus de 60 %.
- Azure met à jour automatiquement gpt-35-turbo vers la version 0125 (janv. 2025).
- OpenAI envisage une monétisation par publicités dans ChatGPT.
- Sora supporte les ratios 9:16, 1:1 et 16:9.
- Codex peut installer dépendances, exécuter tests et mettre à jour le code dans un sandbox sécurisé.
OpenAI accélère la cadence : GPT-4o devient le nouveau standard, complété par une gamme mini, une expérience voix enrichie et l’arrivée de Sora pour la vidéo. Tout converge vers GPT-5 et l’extension agentique, tout en renforçant la distribution via Azure et un modèle économique élargi.
Perspectives 2025-2026
- Anthropic : Claude 5 visera une gouvernance d’outils externe, un monitoring explicable en production et la collaboration prolongée entre agents.
- Google / DeepMind : Gemini 3 (> 30 T paramètres) cherchera à unifier modalité et agenticité tandis que l’ADK devrait structurer un écosystème d’agents tiers.
- OpenAI : GPT-5 promet un saut de capacités et pourrait inaugurer une API Sora si les risques de génération vidéo sont maîtrisés ; l’assistant se rapprochera d’un agent complet.
Références
- Anthropic – Claude 3.5 Sonnet (21 juin 2024)
- Anthropic – Claude 3.7 Sonnet (24 févr. 2025)
- Anthropic – Claude 4 (22 mai 2025)
- Google Cloud – Gemini 2.5 Pro GA (17 juin 2025)
- Canva Newsroom – Veo 3 dans Canva (juin 2025)
- The Verge – Veo 3 dans YouTube Shorts (juin 2025)
- OpenAI – ChatGPT Release Notes (30 avr. 2025)
- DataStudios – Voice Mode Upgrade (juin 2025)
- OpenAI – Sora is here (janv. 2025)
- Adweek – Sam Altman annonce GPT-5 (juin 2025)
- Google Developers Blog – Gemma 2 release
- Times of India – Veo 3 Canva integration
- Microsoft Learn – GPT-4o model names (nov. 2024)
- ArsTechnica – GPT-4o mini launch (juil. 2024)
- Reuters – GPT-4o mini pricing