Chargement du Portfolio...

Veille technologique – IA (Mise à jour : juin 2025)

Anthropic

20 faits clés

  1. 21 juin 2024 – Lancement de Claude 3.5 Sonnet, modèle milieu de gamme plus rapide et moins coûteux que Claude 3 Sonnet.
  2. 24 février 2025 – Présentation de Claude 3.7 Sonnet, premier modèle « hybrid reasoning » combinant réponses instantanées et raisonnement pas-à-pas.
  3. 24 février 2025 – Dévoilement de Claude Code et de la variante Claude Sonnet 4, qui progresse en génération de code et en compréhension multimodale.
  4. 12 mars 2025 – Intégration de Claude 3.7 Sonnet dans Amazon Bedrock Knowledge Bases.
  5. Mai 2025 – Activation du “prompt caching” sur Bedrock pour Sonnet 4, divisant la latence par deux.
  6. 22 mai 2025 – Annonce officielle de la famille Claude 4 (Opus 4, Sonnet 4) : 200 k tokens de contexte et agents d’orchestration intégrés.
  7. Juin 2025 – Pré-annonce d’une gamme Claude 4 optimisée pour les workflows d’agents complexes.
  8. 23 juin 2025 – Mise en production du profil d’inférence « Claude 3.5 Sonnet v2 » pour un routage plus efficace.
  9. Investissement stratégique dans la start-up Goodfire, spécialisée en interprétabilité.
  10. Feuille de route 2027 : cartographie des circuits internes pour rendre Claude totalement interprétable.
  11. Lancement d’outils « extended thinking » permettant d’exposer le raisonnement détaillé via l’API.
  12. Partenariat élargi avec AWS : disponibilité de Claude dans dix régions, dont Paris (eu-west-3).
  13. Profils d’inférence régionaux garantissant la souveraineté des données clients européens.
  14. Ajout d’un plug-in VS Code fournissant complétions et refactorings contextuels (“Claude Code”).
  15. Claude 3 Haiku reste la variante la plus rapide (≈ 21 k tokens/s) pour les prompts ≤ 32 k tokens.
  16. Arrivée de Mike Krieger (co-fondateur d’Instagram) au poste de Chief Product Officer.
  17. Levée de fonds de 3,5 G$ portant la valorisation à plus de 60 G$ et prévoyant 100 embauches en Europe.
  18. Déploiement de “Claude Robotics” pour des agents de pricing chez Amazon Bedrock.
  19. Nouvelle API « extended thinking tips » suggérant des stratégies avancées de prompt engineering.
  20. Dario Amodei estime plausible l’émergence d’une IA super-intelligente dès 2026.

Claude 3.5 puis 3.7 ont placé Anthropic sur le terrain du raisonnement explicite. Avec Claude 4, la société poursuit un double objectif : fenêtre de contexte record et agents autonomes fiables. La stratégie s’appuie sur des partenariats cloud (AWS) et une R&D forte en interprétabilité, soutenue par de nouveaux financements et talents clés.

Google / DeepMind

20 faits clés

  1. 17 juin 2025 – Passage en GA de Gemini 2.5 Pro sur Vertex AI.
  2. 17 juin 2025 – Sortie de Gemini 2.5 Flash, variante rapide à faible coût.
  3. Fin mai 2025 – Déploiement de Gemini 2.5 Pro Preview dans l’application Gemini (web / mobile).
  4. Nouvelle grille tarifaire : Gratuit, AI Pro (19,99 $/mois, 2 To), AI Ultra (249,99 $/mois).
  5. Veo 3, modèle vidéo + audio natifs, génère des clips 1080 p de 8 s.
  6. Veo 3 intégré au flux YouTube Shorts (lancement prévu durant l’été 2025).
  7. Veo 3 disponible dans Canva via la fonctionnalité “Create a Video Clip”.
  8. DeepMind publie Gemini Robotics on-device pour robots autonomes.
  9. SDK Gemini Robotics ouvert aux testeurs pour faciliter le fine-tuning.
  10. Blog développeurs : migration obligatoire des chaînes modèle 2.5 Preview → 2.5 Pro avant le 19 juin 2025.
  11. Gemma 2 (9 B, 27 B) dépasse Llama 3 8 B sur Arena et s’optimise pour CPU/GPU locaux.
  12. Version quantisée de Gemma 2 fonctionnant sur laptop sans GPU dédié.
  13. 7 juillet 2025 – Gemini gagne le contrôle avancé des applications sur Android.
  14. I/O 2025 : Veo 3 accessible aux abonnés AI Ultra US et via Vertex AI.
  15. Google Cloud Next 2025 : Agent Development Kit (ADK) open-source pour créer des agents multi-fournisseurs.
  16. Gemini Robotics hybride cloud / on-device conserve une option de routage sécurisé.
  17. Chromebooks Plus embarquent Gemini pour “Live Translate” et “Help Me Read”.
  18. Google finance 10 000 $ de crédits Cloud aux chercheurs utilisant Gemma 3.
  19. Gemma 3 ambitionne d’être le meilleur modèle 1-GPU avec vision haute résolution.
  20. Flood Hub enrichi par Gemini pour la prévision des crues sur 80 pays.

Google poursuit une stratégie multi-modèles (Gemini, Gemma, Veo) visant à couvrir cloud, on-device et multimédia. L’intégration serrée dans Android, YouTube, Canva et Vertex AI traduit une volonté d’ancrage produit, tandis que l’ADK ouvre la voie à un écosystème d’agents interopérables.

OpenAI

20 faits clés

  1. 30 avril 2025 – GPT-4 retiré de ChatGPT, remplacé par GPT-4o par défaut.
  2. Juillet 2024 – GPT-4o mini succède à GPT-3.5 Turbo.
  3. GPT-4o déployable sur Azure AI Foundry (modèles 2024-11-20).
  4. 7 juin 2025 – Amélioration majeure du Voice Mode (intonation, fluidité, traduction temps réel).
  5. Déploiement progressif du Voice Mode confirmé sur desktop, mobile et web.
  6. GPT-4.1 API remplace GPT-4.5 Preview (retrait prévu le 14 juillet 2025).
  7. 3 juin 2025 – Codex avec accès Internet ouvert aux abonnés Plus.
  8. 6 juin 2025 – SD Times détaille l’automatisation des builds via Codex.
  9. Sora permet la génération vidéo 1080 p de 20 s via interface web.
  10. Aucun API public Sora annoncé pour l’instant.
  11. Sam Altman annonce GPT-5 pour l’été 2025.
  12. Plusieurs indices de release GPT-5 repérés dans les communications publiques.
  13. OpenAI publie un rapport (juin 2025) sur la lutte contre les usages malveillants de l’IA.
  14. Voice Mode utilise GPT-4o pour transcription et synthèse.
  15. GPT-4o remplace DALL-E 3 pour la génération d’images depuis mars 2025.
  16. GPT-4o mini réduit le coût des tokens de plus de 60 %.
  17. Azure met à jour automatiquement gpt-35-turbo vers la version 0125 (janv. 2025).
  18. OpenAI envisage une monétisation par publicités dans ChatGPT.
  19. Sora supporte les ratios 9:16, 1:1 et 16:9.
  20. Codex peut installer dépendances, exécuter tests et mettre à jour le code dans un sandbox sécurisé.

OpenAI accélère la cadence : GPT-4o devient le nouveau standard, complété par une gamme mini, une expérience voix enrichie et l’arrivée de Sora pour la vidéo. Tout converge vers GPT-5 et l’extension agentique, tout en renforçant la distribution via Azure et un modèle économique élargi.

Perspectives 2025-2026

  • Anthropic : Claude 5 visera une gouvernance d’outils externe, un monitoring explicable en production et la collaboration prolongée entre agents.
  • Google / DeepMind : Gemini 3 (> 30 T paramètres) cherchera à unifier modalité et agenticité tandis que l’ADK devrait structurer un écosystème d’agents tiers.
  • OpenAI : GPT-5 promet un saut de capacités et pourrait inaugurer une API Sora si les risques de génération vidéo sont maîtrisés ; l’assistant se rapprochera d’un agent complet.

Références

  1. Anthropic – Claude 3.5 Sonnet (21 juin 2024)
  2. Anthropic – Claude 3.7 Sonnet (24 févr. 2025)
  3. Anthropic – Claude 4 (22 mai 2025)
  4. Google Cloud – Gemini 2.5 Pro GA (17 juin 2025)
  5. Canva Newsroom – Veo 3 dans Canva (juin 2025)
  6. The Verge – Veo 3 dans YouTube Shorts (juin 2025)
  7. OpenAI – ChatGPT Release Notes (30 avr. 2025)
  8. DataStudios – Voice Mode Upgrade (juin 2025)
  9. OpenAI – Sora is here (janv. 2025)
  10. Adweek – Sam Altman annonce GPT-5 (juin 2025)
  11. Google Developers Blog – Gemma 2 release
  12. Times of India – Veo 3 Canva integration
  13. Microsoft Learn – GPT-4o model names (nov. 2024)
  14. ArsTechnica – GPT-4o mini launch (juil. 2024)
  15. Reuters – GPT-4o mini pricing