Romain Leclaire

L'impasse à 600 milliards - Meta, l'open source et le quitte ou double d'Alexandr Wang

1775543491241

Dire que les tentatives de Meta pour devenir un leader de l'intelligence artificielle ont jusqu'à présent échoué serait un euphémisme. À titre personnel, j'observe cette frénésie autour de cette technologie depuis un moment et l'entêtement du géant américain a quelque chose de fascinant. L'entreprise est engagée jusqu'au cou dans cette partie de poker, avec un budget faramineux de 600 milliards de dollars spécifiquement alloué à ce secteur. À ce niveau d'investissement, ils n'ont d'autre choix que d'aller jusqu'au bout.

Selon un récent rapport d'Axios, Meta serait enfin sur le point de dévoiler ses nouveaux modèles, qui devraient être disponibles à l'avenir via des licences open source. La véritable nouveauté réside dans la direction. Ce seront les premiers publiés sous la houlette d'Alexandr Wang. Le fondateur de Scale AI (un mastodonte des données d'entraînement avalé par l'entreprise de Mark Zuckerberg pour tenter de revigorer des modèles désespérément à la traîne) est désormais aux commandes.

1775543514723

Bien que ces nouvelles versions conservent apparemment certaines parties propriétaires sous couvert de « sécurité », la volonté globale est bien de proposer des accords de licence aux entreprises qui souhaitent les exploiter. C'est un contraste saisissant avec la boîte noire totale privilégiée par la grande majorité de ses concurrents.

Pourquoi l'open source a du sens (sur le papier)

Cette théorie tient la route pour Meta. Le géant du codage IA Cursor a révélé, il y a peu, s'appuyer sur le modèle open source Kimi 2.5, publié par Moonshot AI, comme base pour son propre modèle Composer 2. Étant donné les coûts astronomiques liés à l'entraînement d'une IA à partir de zéro, il est presque certain que de plus en plus d'acteurs adopteront cette démarche à l'avenir. En devenant le principal acteur du marché des modèles frontières à proposer une véritable option open source, Meta adopterait un modèle économique potentiellement beaucoup plus simple et attractif que l'approche par abonnement sur laquelle s'appuient ses rivaux.

Le vrai problème - La qualité des modèles

Selon moi, le plus grand obstacle qui se dresse encore devant Meta est que leur modèle soit toujours aussi médiocre. L'entreprise a beau qualifier LLaMa d'« open source », son processus de licence ne correspond en réalité à aucune définition stricte de ces droits. Elle a forcé l'intégration de ses produits IA à chaque recoin de son écosystème, mais en vérité, presque personne ne les utilise réellement. Souvenez-vous de l'année dernière. Meta avait tenté de faire des vagues avec la sortie de LLaMa 4, mais le modèle a cruellement déçu, n'atteignant pratiquement aucun des benchmarks espérés par l'industrie.

Un bouc émissaire tout trouvé

Jusqu'ici, les tentatives de Meta pour revenir dans la cour des grands et concurrencer les leaders du secteur ressemblent à un naufrage spectaculaire. Malgré des salaires mirobolants de 100 millions de dollars jetés au visage des grands noms de l'IA et des restructurations internes qui semblent ne jamais finir, la machine patine toujours. L'entreprise devait même publier un nouveau modèle le mois dernier, mais a préféré repousser l'échéance, craignant de nouvelles contre-performances.

1775543555151

Les rumeurs font état de vives tensions en coulisses entre Zuckerberg et Wang face à ces problèmes persistants. Le fait qu'Alexandr Wang soit aujourd'hui présenté comme la figure de proue dans le rapport d'Axios concernant ces nouveaux modèles ressemble fort à un test de survie. C'est l'heure du quitte ou double. Si cette nouvelle mouture échoue, il sera indéniablement le fusible parfait. Car s'il y a bien une certitude absolue dans cette course technologique, c'est que si les choses tournent mal, Mark Zuckerberg ne prendra jamais le blâme.