#LLM
Toutes les news taguées avec ce sujet.
- OPINIONheat 62
La tarification des LLM n'a jamais eu de sens
Un article d'opinion décortique les incohérences structurelles des modèles de prix pratiqués par les fournisseurs de LLM.
- SAFETYanthropicheat 72
Postmortem d'Anthropic sur les problèmes de qualité récents de Claude Code
Anthropic publie une analyse post-incident sur les dérives de comportement signalées dans Claude Code fin avril 2025.
- SAFETYopenaiheat 88
Fiche système GPT-5.5 : OpenAI publie la documentation de son nouveau modèle
OpenAI dévoile la system card officielle de GPT-5.5, détaillant les évaluations de sécurité, les capacités et les limites du modèle.
- RECHERCHEdeepmindheat 72
Decoupled DiLoCo : une nouvelle frontière pour l'entraînement IA distribué et résilient
DeepMind présente Decoupled DiLoCo, une méthode d'entraînement distribué qui découple le calcul du transfert de données pour une robustesse accrue.
- SIGNALopenaiheat 92
OpenAI présente GPT-5.5, son modèle le plus avancé à ce jour
Plus rapide et plus capable, GPT-5.5 cible les tâches complexes : code, recherche et analyse de données multi-outils.
- RECHERCHEheat 52
Les LLMs peuvent-ils remplacer le médecin ? Empathie, lisibilité et alignement clinique
Une évaluation multidimensionnelle révèle que les LLMs surpassent les médecins en complexité linguistique mais restent en deçà sur les critères épistémiques.
- RECHERCHEheat 42
Construction automatique d'ontologies : les LLMs augmentés d'une mémoire externe structurée
Une architecture hybride combine LLMs et graphes de connaissances RDF/OWL pour dépasser les limites du RAG vectoriel en raisonnement multi-étapes.
- RECHERCHEheat 52
Diagnostic de l'interprétation de grammaires formelles dans les LLM
Une nouvelle étude révèle que les LLM peinent à interpréter fidèlement des grammaires hors contexte, notamment face à la récursivité profonde.
- RECHERCHEheat 42
Évolution convergente : comment différents LLMs apprennent des représentations numériques similaires
Transformers, LSTMs et RNNs linéaires convergent vers des structures périodiques communes pour représenter les nombres, révèle une étude arXiv.
- RECHERCHEheat 62
Stream-CQSA : éviter les dépassements mémoire dans le calcul de l'attention via un ordonnancement flexible
Un nouveau cadre d'ordonnancement permet d'exécuter une attention exacte sur des séquences de milliards de tokens sur un seul GPU, sans approximation.
- OPINIONheat 52
Tokenmaxxing de bon goût : optimiser l'usage des tokens sans excès
Un tour d'horizon des stratégies d'optimisation du nombre de tokens dans les LLM, entre performance et sobriété.
- SAFETYheat 52
AVISE : un framework open-source pour évaluer la sécurité des systèmes IA
Des chercheurs présentent AVISE, un cadre modulaire d'évaluation des vulnérabilités IA, incluant un test automatisé de jailbreak sur neuf LLM récents.
- OUTILSheat 62
Intégrez votre propre agent IA dans Microsoft Teams
Microsoft ouvre Teams aux agents tiers via son SDK : les développeurs peuvent désormais connecter leurs propres agents conversationnels à la plateforme.
- RECHERCHEheat 48
Parallel-SFT : améliorer le transfert zero-shot entre langages de programmation pour le RL de code
Une nouvelle stratégie SFT intègre des programmes fonctionnellement équivalents en plusieurs langages pour améliorer la généralisation des LLMs vers des PLs peu dotés.
- OUTILShuggingfaceheat 72
Qwen3.6-27B : nouveau modèle open-weights d'Alibaba sur Hugging Face
Alibaba publie Qwen3.6-27B, un modèle de 27 milliards de paramètres en open-weights, disponible directement sur Hugging Face.
- SAFETYanthropicheat 72
Constitutional Classifiers : se défendre contre les jailbreaks universels
Anthropic présente une approche de classification constitutionnelle pour contrer les tentatives de contournement systématiques des garde-fous des LLM.
- OUTILSheat 78
Qwen3.6-27B : des capacités de codage de niveau flagship dans un modèle dense 27B
Alibaba présente Qwen3.6-27B, un modèle dense de 27 milliards de paramètres revendiquant des performances de codage comparables aux meilleurs modèles du marché.
- RECHERCHEanthropicheat 62
Anthropic lance l'Anthropic Economic Index Survey
Anthropic dévoile un nouvel indice économique pour mesurer l'impact de l'IA sur le marché du travail et les dynamiques économiques.
- RECHERCHEheat 45
Agnosticisme linguistique des function vectors : étude de cas en traduction automatique
Des chercheurs montrent que les function vectors extraits pour une paire de langues se transfèrent à d'autres langues cibles dans des LLMs multilingues.
- RECHERCHEheat 42
La réponse n'est qu'un début : génération d'insights connexes pour la QA ouverte sur documents
Un nouveau dataset et une approche en deux étapes pour enrichir les réponses aux questions ouvertes au-delà de la simple restitution factuelle.
- OUTILSheat 52
GoModel – une passerelle IA open-source écrite en Go
GoModel propose une gateway unifiée pour accéder à plusieurs fournisseurs LLM, développée en Go et publiée en open-source.
- RECHERCHEheat 48
L'orientation épistémique dans les débats parlementaires est liée à la démocratie délibérative
Une équipe de chercheurs a analysé 15 millions de segments de discours parlementaires sur 80 ans pour mesurer le lien entre raisonnement factuel et qualité démocratique.
- OUTILSmoonshotheat 72
Kimi-Linear-48B-A3B-Base : nouveau modèle MoE linéaire de Moonshot AI
Moonshot AI publie Kimi-Linear-48B-A3B-Base, un modèle open-weights 48B paramètres avec seulement 3B actifs, basé sur une architecture linéaire.
- OUTILSmoonshotheat 72
Kimi-Linear-48B-A3B-Instruct : nouveau modèle MoE de Moonshot AI
Moonshot AI publie Kimi-Linear-48B-A3B-Instruct, un modèle MoE de 48 milliards de paramètres avec seulement 3B actifs par inférence.
- RECHERCHEheat 52
Découverte d'un sous-espace logique partagé pour piloter le raisonnement des LLMs
Des chercheurs identifient un sous-espace interne aux LLMs alignant raisonnement en langage naturel et symbolique, sans entraînement supplémentaire.
- OUTILSmoonshotheat 78
Kimi-K2-Instruct : le nouveau modèle open-weights de Moonshot AI
Moonshot AI publie Kimi-K2-Instruct sur Hugging Face, un modèle d'instruction large en open-weights issu de ses recherches internes.
- OUTILSmoonshotheat 78
Kimi-K2-Base : le modèle de base open-weights de Moonshot AI
Moonshot AI publie Kimi-K2-Base sur Hugging Face, un grand modèle de langage open-weights conçu pour les usages agentiques.
- SIGNALheat 72
Le brief IA #69 : OpenAI Prism, Anthropic Petri 2.0 et Claude dans Excel
OpenAI lance un éditeur LaTeX dopé à GPT-5.2, Anthropic déploie un framework d'audit anti-détection et intègre Claude dans Excel et dix apps tierces.
- POLICYheat 82
Meta va collecter les mouvements de souris et frappes clavier de ses employés pour entraîner ses IA
À partir de 2026, Meta enregistrera les interactions informatiques de ses salariés afin de générer des données d'entraînement pour ses modèles d'IA.
- SIGNALheat 72
Le brief IA #70 : Anthropic sans pub, Claude Opus 4.6 et GPT-5.2 accéléré
Anthropic confirme l'absence de publicité dans Claude, lance Opus 4.6 avec 1M de tokens de contexte, et OpenAI accélère GPT-5.2 de 40 %.