2 items
#long-context
Toutes les news taguées avec ce sujet.
- RECHERCHEheat 62
Stream-CQSA : éviter les dépassements mémoire dans le calcul de l'attention via un ordonnancement flexible
Un nouveau cadre d'ordonnancement permet d'exécuter une attention exacte sur des séquences de milliards de tokens sur un seul GPU, sans approximation.
- RECHERCHEanthropicheat 72
Claude optimisé pour les calculs scientifiques de longue durée
Anthropic dévoile des avancées pour permettre à Claude de gérer des tâches de calcul scientifique s'étendant sur de longues périodes.