
Silo AI est un grand laboratoire privé d'intelligence artificielle en Europe, spécialisé dans la fourniture aux entreprises de solutions, plateformes et applications sectorielles d'IA sur mesure de bout en bout.
Silo AI propose principalement le développement de modèles IA sur mesure, une plateforme intégrée de développement et MLOps (Silo OS), une plateforme entreprise pour la personnalisation de grands modèles de langage (SiloGen) ainsi que des solutions IA complètes couvrant de multiples secteurs.
Les solutions s'appliquent largement à l'automobile, la santé, la finance, le retail, la logistique, l'énergie et les projets de villes intelligentes, entre autres.
Les expertises incluent le développement de grands modèles de langage (comme les séries Poro et Viking), la construction de plateformes IA d'entreprise et la livraison de projets IA de bout en bout en production.
AMD a acquis Silo AI en 2024 pour renforcer son écosystème de logiciels et services en IA. L'équipe Silo AI a été intégrée à la division intelligence artificielle d'AMD et continue d'opérer.
Il est généralement nécessaire que l'entreprise dispose d'une base de données adaptée et de cas d'usage IA clairement définis ; les plateformes et services visent à aider les entreprises à construire et intégrer des capacités IA.
Les solutions sont fournies par des équipes d'experts et des plateformes, sous forme de projets offrant conseil, développement de modèles, déploiement et exploitation sur mesure.
Silo AI a développé des séries de grands modèles de langage open source incluant le support des langues nordiques et se concentre sur la personnalisation et l'optimisation de modèles dédiés aux entreprises.
SiliconFlow IA propose une plateforme cloud tout-en-un pour l'IA générative, intégrant plus de 50 grands modèles open source et dotée d'un moteur d'inférence maison qui accélère les performances et réduit les coûts, aidant les développeurs et les entreprises à construire rapidement des applications d'IA.

Unsloth AI est un framework open-source dédié à l'affinage efficace des grands modèles de langage (LLM). Grâce à des optimisations bas-niveau, il accélère significativement l'entraînement et réduit la consommation mémoire, permettant aux développeurs et aux équipes de recherche de personnaliser des modèles avec des ressources matérielles limitées.