Dans les premiers temps de l'informatique de haute performance, les principales entreprises technologiques de l'époque ont toutes investi massivement dans le développement de leurs propres versions d'Unix à code source fermé. À l'époque, il était difficile d'imaginer qu'une autre approche puisse permettre de développer des logiciels aussi avancés. Cependant, Linux a fini par gagner en popularité, d'abord parce qu'il permettait aux développeurs de modifier son code à leur guise et qu'il était plus abordable, puis parce qu'il est devenu plus avancé, plus sûr et qu'il disposait d'un écosystème plus large prenant en charge davantage de fonctionnalités que n'importe quel Unix fermé. Aujourd'hui, Linux est la base standard de l'industrie pour le cloud computing et les systèmes d'exploitation qui font fonctionner la plupart des appareils mobiles - et nous bénéficions tous de produits de qualité supérieure grâce à lui.
Je pense que l'IA se développera de la même manière. Aujourd'hui, plusieurs entreprises technologiques développent des modèles fermés de pointe. Mais l'open source comble rapidement le fossé. L'année dernière, Llama 2 n'était comparable qu'à une ancienne génération de modèles derrière la frontière. Cette année, Llama 3 est compétitif avec les modèles les plus avancés et en avance dans certains domaines. À partir de l'année prochaine, nous prévoyons que les futurs modèles Llama deviendront les plus avancés de l'industrie. Mais même avant cela, Llama est déjà en tête pour ce qui est de l'ouverture, de la modifiabilité et de la rentabilité.
Aujourd'hui, nous franchissons une nouvelle étape pour que l'IA open source devienne le standard de l'industrie. Nous sortons le Llama 3.1 405B, le premier modèle d'IA open source de niveau frontière, ainsi que les nouveaux modèles améliorés Llama 3.1 70B et 8B. Outre un rapport coût/performance nettement meilleur que celui des modèles fermés, le fait que le modèle 405B soit ouvert en fait le meilleur choix pour affiner et distiller des modèles plus petits.
Au-delà de la sortie de ces modèles, nous travaillons avec une série d'entreprises pour développer l'écosystème au sens large. Amazon, Databricks et NVIDIA lancent des suites complètes de services pour aider les développeurs à affiner et distiller leurs propres modèles. Des innovateurs comme Groq ont construit des services d'inférence à faible latence et à faible coût pour tous les nouveaux modèles. Les modèles seront disponibles sur tous les principaux clouds, y compris AWS, Azure, Google, Oracle, etc. Des entreprises comme Scale.AI, Dell, Deloitte et d'autres sont prêtes à aider les entreprises à adopter Llama et à former des modèles personnalisés avec leurs propres données. À mesure que la communauté s'agrandit et que d'autres entreprises développent de nouveaux services, nous pouvons collectivement faire de Llama la norme de l'industrie et mettre les avantages de l'IA à la portée de tous.
Meta s'engage en faveur de l'IA open source. J'expliquerai pourquoi je pense que l'open source est la meilleure pile de développement pour vous, pourquoi l'open source de Llama est bon pour Meta, et pourquoi l'IA open source est bon pour le monde et donc une plateforme qui existera à long terme.
Pourquoi l'IA open source est une bonne chose pour les développeurs
Lorsque je discute avec des développeurs, des PDG et des responsables gouvernementaux du monde entier, j'entends généralement plusieurs thèmes :
- Nous devons former, affiner et distiller nos propres modèles. Chaque organisation a des besoins différents qui sont mieux satisfaits par des modèles de différentes tailles qui sont entraînés ou affinés avec leurs données spécifiques. Les tâches sur appareil et les tâches de classification nécessitent de petits modèles, tandis que les tâches plus complexes requièrent des modèles plus importants. Désormais, vous pourrez prendre les modèles Llama les plus avancés, continuer à les entraîner avec vos propres données, puis les distiller jusqu'à obtenir un modèle de votre taille optimale - sans que ni nous ni personne d'autre ne puisse voir vos données.
- Nous devons contrôler notre propre destin et ne pas nous laisser enfermer dans un fournisseur fermé. De nombreuses organisations ne veulent pas dépendre de modèles qu'elles ne peuvent pas gérer et contrôler elles-mêmes. Elles ne veulent pas que les fournisseurs de modèles fermés puissent changer de modèle, modifier leurs conditions d'utilisation, voire cesser complètement de les servir. Ils ne veulent pas non plus être enfermés dans un cloud unique qui détient des droits exclusifs sur un modèle. L'open source permet à un large écosystème d'entreprises disposant de chaînes d'outils compatibles de passer facilement d'un modèle à l'autre.
- Nous devons protéger nos données. De nombreuses organisations manipulent des données sensibles qu'elles doivent sécuriser et qu'elles ne peuvent pas envoyer à des modèles fermés via des API dans le cloud. D'autres organisations ne font tout simplement pas confiance aux fournisseurs de modèles fermés pour leurs données. L'open source résout ces problèmes en vous permettant d'exécuter les modèles où vous le souhaitez. Il est communément admis que les logiciels open source sont généralement plus sûrs, car ils sont développés de manière plus transparente.
- Nous avons besoin d'un modèle efficace et abordable. Les développeurs peuvent exécuter l'inférence sur Llama 3.1 405B sur leur propre infrastructure à environ 50 % du coût de l'utilisation de modèles fermés comme GPT-4o, à la fois pour les tâches d'inférence en ligne et hors ligne.
- Nous voulons investir dans l'écosystème qui sera la norme à long terme. Beaucoup de gens voient que l'open source progresse plus rapidement que les modèles fermés, et ils veulent construire leurs systèmes sur l'architecture qui leur donnera le plus d'avantages à long terme.
Pourquoi l'IA open source est une bonne chose pour Meta
Le modèle commercial de Meta consiste à créer les meilleures expériences et les meilleurs services pour les gens. Pour ce faire, nous devons nous assurer que nous avons toujours accès à la meilleure technologie et que nous ne sommes pas enfermés dans l'écosystème fermé d'un concurrent qui pourrait restreindre ce que nous construisons.
L'une de mes expériences formatrices a été la construction de nos services limités par ce qu'Apple nous permet de construire sur ses plateformes. Entre la façon dont ils taxent les développeurs, les règles arbitraires qu'ils appliquent et toutes les innovations de produits qu'ils empêchent de livrer, il est clair que Meta et beaucoup d'autres entreprises seraient libérées pour construire de bien meilleurs services pour les gens si nous pouvions construire les meilleures versions de nos produits et si les concurrents n'étaient pas en mesure de restreindre ce que nous pouvons construire. D'un point de vue philosophique, c'est l'une des principales raisons pour lesquelles je crois fermement à la construction d'écosystèmes ouverts dans les domaines de l'IA et de l'AR/VR pour la prochaine génération d'ordinateurs.
Les gens me demandent souvent si je crains d'abandonner un avantage technique en mettant Llama en open source, mais je pense que cela passe a coté du tableau d'ensemble pour plusieurs raisons :
Premièrement, pour garantir que nous ayons accès à la meilleure technologie et que nous ne soyons pas enfermés dans un écosystème fermé à long terme, Llama doit se développer en un écosystème complet d'outils, d'améliorations de l'efficacité, d'optimisations du silicium et d'autres intégrations. Si nous étions la seule entreprise à utiliser Llama, cet écosystème ne se développerait pas et nous ne ferions pas mieux que les variantes fermées d'Unix.
Deuxièmement, je m'attends à ce que le développement de l'IA reste très compétitif, ce qui signifie que l'ouverture d'un modèle donné ne donne pas un avantage massif par rapport aux meilleurs modèles suivants à ce moment-là. Pour que Llama devienne la norme de l'industrie, il faut qu'elle soit constamment compétitive, efficace et ouverte, génération après génération.
Troisièmement, une différence essentielle entre Meta et les fournisseurs de modèles fermés est que la vente d'accès aux modèles d'IA n'est pas notre modèle commercial. Cela signifie que la publication de Llama n'affecte pas nos revenus, notre viabilité ou notre capacité à investir dans la recherche, comme c'est le cas pour les fournisseurs de modèles fermés. (C'est l'une des raisons pour lesquelles plusieurs fournisseurs fermés exercent une pression constante sur les gouvernements pour qu'ils s'opposent à l'open source).
Enfin, Meta a une longue histoire de projets et de succès dans le domaine de l'open source. Nous avons économisé des milliards de dollars en publiant nos conceptions de serveurs, de réseaux et de centres de données dans le cadre de l'Open Compute Project et en faisant en sorte que les chaînes d'approvisionnement normalisent nos conceptions. Nous avons bénéficié des innovations de l'écosystème en mettant en open source des outils de premier plan comme PyTorch, React et bien d'autres encore. Cette approche a toujours fonctionné pour nous lorsque nous nous y tenons sur le long terme.
Pourquoi l'IA open source est une bonne chose pour le monde
Je pense que l'open source est nécessaire pour un avenir positif de l'IA. Plus que toute autre technologie moderne, l'IA a le potentiel d'accroître la productivité humaine, la créativité et la qualité de vie, et d'accélérer la croissance économique tout en débloquant les progrès de la recherche médicale et scientifique. L'open source permettra à un plus grand nombre de personnes dans le monde d'accéder aux avantages et aux possibilités de l'IA, de ne pas concentrer le pouvoir entre les mains d'un petit nombre d'entreprises et de déployer la technologie de manière plus uniforme et plus sûre dans l'ensemble de la société.
Un débat est en cours sur la sécurité des modèles d'IA open source, et je pense que l'IA open source sera plus sûre que les autres solutions. Je pense que les gouvernements concluront qu'il est dans leur intérêt de soutenir l'open source parce qu'elle rendra le monde plus prospère et plus sûr.
Pour comprendre la sécurité, j'estime qu'il faut se protéger contre deux catégories de dommages : les dommages involontaires et les dommages intentionnels. On parle de dommages involontaires lorsqu'un système d'IA peut causer des dommages même si ce n'était pas l'intention de ceux qui l'utilisent. Par exemple, les modèles d'IA modernes peuvent, par inadvertance, donner de mauvais conseils en matière de santé. Ou, dans des scénarios plus futuristes, certains craignent que les modèles ne s'autoreproduisent involontairement ou n'optimisent leurs objectifs au détriment de l'humanité. Il y a préjudice intentionnel lorsqu'un mauvais acteur utilise un modèle d'IA dans le but de causer un préjudice.
Il convient de noter que les dommages involontaires couvrent la majorité des préoccupations des gens à l'égard de l'IA, qu'il s'agisse de l'influence des systèmes d'IA sur les milliards de personnes qui les utiliseront ou de la plupart des scénarios de science-fiction véritablement catastrophiques pour l'humanité. À cet égard, les logiciels open source devraient être nettement plus sûrs, car les systèmes sont plus transparents et peuvent être largement examinés. Historiquement, les logiciels open source ont été plus sûrs pour cette raison. De même, l'utilisation de Llama avec ses systèmes de sécurité tels que Llama Guard sera probablement plus sûre que les modèles fermés. C'est pourquoi la plupart des discussions sur la sécurité de l'IA open source se concentrent sur les dommages intentionnels.
Notre processus de sécurité comprend des tests rigoureux et une équipe d'experts pour évaluer si nos modèles sont capables de causer des dommages significatifs, dans le but d'atténuer les risques avant leur diffusion. Étant donné que les modèles sont ouverts, tout le monde est en mesure de les tester. Nous devons garder à l'esprit que ces modèles sont formés à partir d'informations qui se trouvent déjà sur l'internet, de sorte que le point de départ de l'examen des dommages devrait être de savoir si un modèle peut faciliter des dommages plus importants que des informations qui peuvent être rapidement récupérées sur Google ou d'autres résultats de recherche.
Lorsque l'on raisonne sur les dommages intentionnels, il est utile de faire la distinction entre ce que des acteurs individuels ou à petite échelle peuvent faire et ce que des acteurs à grande échelle, tels que des États-nations dotés de vastes ressources, peuvent faire.
À un moment donné dans l'avenir, des acteurs individuels mal intentionnés pourraient être en mesure d'utiliser l'intelligence des modèles d'IA pour fabriquer des préjudices entièrement nouveaux à partir des informations disponibles sur l'internet. À ce stade, l'équilibre des pouvoirs sera essentiel pour la sécurité de l'IA. Je pense qu'il est préférable de vivre dans un monde où l'IA est largement déployée afin que les acteurs les plus importants puissent contrôler le pouvoir des plus petits acteurs malveillants. C'est ainsi que nous avons géré la sécurité de nos réseaux sociaux : nos systèmes d'IA les plus robustes identifient et arrêtent les menaces d'acteurs moins sophistiqués qui utilisent souvent des systèmes d'IA à plus petite échelle. De manière plus générale, les grandes institutions qui déploient l'IA à grande échelle favoriseront la sécurité et la stabilité dans l'ensemble de la société. Tant que tout le monde a accès à des générations similaires de modèles - ce que l'open source favorise - les gouvernements et les institutions disposant de plus de ressources informatiques seront en mesure de contrôler les mauvais acteurs avec moins de ressources informatiques.
La question suivante est de savoir comment les États-Unis et les nations démocratiques doivent faire face à la menace d'États disposant de ressources massives comme la Chine. L'avantage des États-Unis réside dans l'innovation décentralisée et ouverte. Certains affirment que nous devons fermer nos modèles pour empêcher la Chine d'y accéder, mais je pense que cela ne fonctionnera pas et ne fera que désavantager les États-Unis et leurs alliés. Nos adversaires sont très doués pour l'espionnage, il est relativement facile de voler des modèles qui tiennent sur une clé USB, et la plupart des entreprises technologiques sont loin d'opérer d'une manière qui rendrait la chose plus difficile. Il semble plus probable qu'un monde où seuls les modèles fermés sont utilisés permette à un petit nombre de grandes entreprises et à nos adversaires géopolitiques d'avoir accès aux modèles de pointe, tandis que les startups, les universités et les petites entreprises ne profitent pas des opportunités qui s'offrent à elles. En outre, le fait de limiter l'innovation américaine à un développement fermé augmente le risque que nous ne soyons pas du tout à l'avant-garde. Au contraire, je pense que notre meilleure stratégie consiste à construire un écosystème ouvert solide et à faire en sorte que nos entreprises leaders travaillent en étroite collaboration avec notre gouvernement et nos alliés pour s'assurer qu'elles peuvent tirer le meilleur parti des dernières avancées et obtenir un avantage durable de premier plan sur le long terme.
Lorsque vous envisagez les possibilités qui s'offrent à vous, n'oubliez pas que la plupart des entreprises technologiques et des recherches scientifiques de pointe d'aujourd'hui s'appuient sur des logiciels open source. La prochaine génération d'entreprises et de chercheurs utilisera l'IA open source si nous investissons collectivement dans ce domaine. Il s'agit aussi bien de startups en phase de démarrage que de personnes travaillant dans des universités ou des pays qui n'ont peut-être pas les ressources nécessaires pour développer leur propre IA de pointe à partir de zéro.
En définitive, l'IA à code source ouvert représente la meilleure chance pour le monde d'exploiter cette technologie afin de créer les meilleures opportunités économiques et la plus grande sécurité pour tous.
Construisons cela ensemble
Avec les modèles Llama précédents, Meta les a développés pour nous-mêmes et les a ensuite diffusés, mais ne s'est pas beaucoup concentré sur la construction d'un écosystème plus large. Nous adoptons une approche différente avec cette version. Nous mettons en place des équipes en interne pour permettre à autant de développeurs et de partenaires que possible d'utiliser Llama, et nous construisons activement des partenariats afin que davantage d'entreprises de l'écosystème puissent également offrir des fonctionnalités uniques à leurs clients.
Je pense que la
sortie de Llama 3.1 sera un point d'inflexion dans l'industrie où la plupart des développeurs commencent à utiliser principalement l'open source, et je m'attends à ce que cette approche ne fasse que croître à partir d'ici. J'espère que vous vous joindrez à nous dans ce voyage pour apporter les avantages de l'IA à tout le monde dans le monde.
Partager