
tech
Les LLMs se forment entre eux : avancées et défis du training distribué à 72 milliards de paramètres
Une nouvelle étape est franchie dans la formation des grands modèles de langage (LLMs) avec des expérimentations où des LLMs affinent d'autres LLMs, ainsi qu'un entraînement distribué inédit à 72 milliards de paramètres. Parallèlement, la vision par ordinateur confirme sa complexité supérieure à la génération de texte.
6 min
30 avr · 05h10