Comment définir une infrastructure de stockage pour les charges de travail d'IA et d'analyse
Comment définir une infrastructure de stockage pour les charges de travail d'IA et d'analyse

Auteur: Google Cloud Tech – Durée: 00:40:05
Cette session est destinée aux praticiens de l'IA/ML et des données qui souhaitent créer des pipelines de données IA/ML à grande échelle et sélectionner la bonne combinaison de solutions de stockage de blocs, de fichiers et d'objets pour votre cas d'utilisation. Découvrez comment optimiser toutes vos charges de travail IA/ML telles que la préparation, la formation, le réglage, l'inférence et la diffusion des données avec la meilleure solution de stockage et les intégrer facilement dans vos flux de travail Compute Engine, Google Kubernetes Engine ou Vertex. Nous verrons également comment optimiser les charges de travail d'analyse avec Cloud Storage et Anywhere Cache. Intervenants : David Stiver, Alex Bain, Jason Wu, Yusuke Yachide En savoir plus : Toutes les sessions de Google Cloud Suivant → https://goo.gle/next24
#GoogleCloudNext ARC306
Traduit en français à partir de cette source






