#fine-tuning
Toutes les news taguées avec ce sujet.
- RECHERCHEheat 48
Parallel-SFT : améliorer le transfert zero-shot entre langages de programmation pour le RL de code
Une nouvelle stratégie SFT intègre des programmes fonctionnellement équivalents en plusieurs langages pour améliorer la généralisation des LLMs vers des PLs peu dotés.
- OUTILSheat 62
VLA Foundry : un framework unifié pour entraîner des modèles Vision-Language-Action
TRI-ML publie VLA Foundry, un framework open-source qui unifie l'entraînement LLM, VLM et VLA dans une seule base de code.
- RECHERCHEheat 62
Les VLMs raisonnent-ils vraiment par la vision ? Une étude rigoureuse du fossé modal
Un nouveau benchmark, CrossMath, révèle que les modèles vision-langage raisonnent principalement dans l'espace textuel, la vision dégradant souvent leurs performances.
- RECHERCHEheat 52
DeepInsightTheorem : raisonnement par insight pour la démonstration informelle de théorèmes
Un nouveau framework enseigne aux LLMs à identifier les techniques clés dans les preuves mathématiques informelles, améliorant significativement leur raisonnement.
- RECHERCHEheat 58
PostTrainBench : des LLMs capables d'affiner d'autres LLMs pour de nouvelles tâches
Un nouveau benchmark mesure la capacité des agents IA à automatiser le fine-tuning de LLMs — avec des résultats prometteurs mais encore inférieurs aux humains.
- OUTILSheat 52
Mr. Chatterbox : un LLM entraîné exclusivement sur des textes victoriens libres de droits
Un modèle de 340 millions de paramètres entraîné sur 28 000 ouvrages britanniques du XIXe siècle, sans aucune donnée postérieure à 1899.
- OUTILShuggingfaceheat 62
Entraînement et fine-tuning de modèles d'embedding et de reranking multimodaux avec Sentence Transformers
Hugging Face détaille comment entraîner et affiner des modèles d'embedding et de reranking multimodaux via la bibliothèque Sentence Transformers.