Restez organisé à l'aide des collections Enregistrez et classez les contenus selon vos préférences.
Firebase Machine Learning
plat_iosplat_androidplat_flutter
Exploitez le machine learning dans vos applications pour résoudre des problèmes concrets.
Firebase Machine Learning est un SDK pour mobile qui intègre l'expertise de Google en matière de machine learning dans les applications Android et Apple par le biais d'un package puissant et simple d'utilisation. Que vous soyez débutant ou expérimenté en machine learning, vous pouvez implémenter la fonctionnalité dont vous avez besoin en quelques lignes de code. Vous n'avez pas besoin d'avoir une connaissance approfondie des réseaux de neurones ni de l'optimisation des modèles pour vous lancer. En revanche, si vous êtes un développeur ML expérimenté, Firebase ML fournit des API pratiques qui vous aident à utiliser vos modèles TensorFlow Lite personnalisés dans vos applications mobiles.
Capacités clés
Héberger et déployer des modèles personnalisés
Utilisez vos propres modèles TensorFlow Lite pour l'inférence sur l'appareil. Il vous suffit de déployer votre modèle sur Firebase. Nous nous chargeons de l'héberger et de le diffuser dans votre application. Firebase diffusera dynamiquement la dernière version du modèle à vos utilisateurs, ce qui vous permettra de les mettre à jour régulièrement sans avoir à leur proposer une nouvelle version de votre application.
Lorsque vous utilisez Firebase ML avec Remote Config, vous pouvez diffuser différents modèles auprès de différents segments d'utilisateurs. Avec A/B Testing, vous pouvez effectuer des tests pour trouver le modèle le plus performant (consultez les guides Apple et Android).
Prêt pour la production pour les cas d'utilisation courants
Firebase ML est fourni avec un ensemble d'API prêtes à l'emploi pour les cas d'utilisation mobiles courants : reconnaissance de texte, étiquetage d'images et identification de points de repère. Il vous suffit de transmettre des données à la bibliothèque Firebase ML pour obtenir les informations dont vous avez besoin. Ces API exploitent la puissance de la technologie de machine learning de Google Cloud pour vous offrir le plus haut niveau de précision.
Cloud ou sur l'appareil
Firebase ML dispose d'API qui fonctionnent dans le cloud ou sur l'appareil. Lorsque nous décrivons une API de ML comme étant une API cloud ou une API sur l'appareil, nous décrivons quelle machine effectue l'inférence, c'est-à-dire quelle machine utilise le modèle de ML pour découvrir des insights sur les données que vous lui fournissez. Dans Firebase ML, cela se produit sur Google Cloud ou sur les appareils mobiles de vos utilisateurs.
Les API de reconnaissance de texte, d'étiquetage d'images et de reconnaissance de points de repère effectuent l'inférence dans le cloud. Ces modèles disposent de plus de puissance de calcul et de mémoire qu'un modèle intégré comparable. Ils peuvent donc effectuer des inférences avec une précision supérieure à celle d'un modèle intégré. En revanche, chaque requête envoyée à ces API nécessite un aller-retour réseau, ce qui les rend inadaptées aux applications en temps réel et à faible latence telles que le traitement vidéo.
Les API de modèles personnalisés traitent des modèles de ML qui s'exécutent sur l'appareil. Les modèles utilisés et produits par ces fonctionnalités sont des modèles TensorFlow Lite, qui sont optimisés pour s'exécuter sur des appareils mobiles. Le principal avantage de ces modèles est qu'ils ne nécessitent pas de connexion réseau et peuvent s'exécuter très rapidement, par exemple pour traiter des images vidéo en temps réel.
Firebase ML vous permet de déployer des modèles personnalisés sur les appareils de vos utilisateurs en les important sur nos serveurs. Votre application compatible avec Firebase téléchargera le modèle sur l'appareil à la demande. Cela vous permet de maintenir une petite taille d'installation initiale pour votre application et d'échanger le modèle de ML sans avoir à republier votre application.
ML Kit : modèles prêts à l'emploi sur l'appareil
Si vous recherchez des modèles pré-entraînés qui s'exécutent sur l'appareil, consultez ML Kit. ML Kit est disponible pour iOS et Android, et propose des API pour de nombreux cas d'utilisation :
Découvrez comment utiliser des modèles personnalisés optimisés pour les mobiles dans votre application.
Sauf indication contraire, le contenu de cette page est régi par une licence Creative Commons Attribution 4.0, et les échantillons de code sont régis par une licence Apache 2.0. Pour en savoir plus, consultez les Règles du site Google Developers. Java est une marque déposée d'Oracle et/ou de ses sociétés affiliées.
Dernière mise à jour le 2025/08/23 (UTC).
[[["Facile à comprendre","easyToUnderstand","thumb-up"],["J'ai pu résoudre mon problème","solvedMyProblem","thumb-up"],["Autre","otherUp","thumb-up"]],[["Il n'y a pas l'information dont j'ai besoin","missingTheInformationINeed","thumb-down"],["Trop compliqué/Trop d'étapes","tooComplicatedTooManySteps","thumb-down"],["Obsolète","outOfDate","thumb-down"],["Problème de traduction","translationIssue","thumb-down"],["Mauvais exemple/Erreur de code","samplesCodeIssue","thumb-down"],["Autre","otherDown","thumb-down"]],["Dernière mise à jour le 2025/08/23 (UTC)."],[],[],null,["Firebase Machine Learning \nplat_ios plat_android plat_flutter \nUse machine learning in your apps to solve real-world problems. \n\nFirebase Machine Learning is a mobile SDK that brings Google's machine\nlearning expertise to Android and Apple apps in a powerful yet easy-to-use\npackage. Whether you're new or experienced in machine learning, you can\nimplement the functionality you need in just a few lines of code. There's no\nneed to have deep knowledge of neural networks or model optimization to get\nstarted. On the other hand, if you are an experienced ML developer,\nFirebase ML provides convenient APIs that help you use your custom\nTensorFlow Lite models in your mobile apps.\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Host and deploy custom models | Use your own TensorFlow Lite models for on-device inference. Just deploy your model to Firebase, and we'll take care of hosting and serving it to your app. Firebase will dynamically serve the latest version of the model to your users, allowing you to regularly update them without having to push a new version of your app to users. When you use Firebase ML with [Remote Config](/docs/remote-config), you can serve different models to different user segments, and with [A/B Testing](/docs/ab-testing), you can run experiments to find the best performing model (see the [Apple](/docs/ml/ios/ab-test-models) and [Android](/docs/ml/android/ab-test-models) guides). |\n| Production-ready for common use cases | Firebase ML comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, labeling images, and identifying landmarks. Simply pass in data to the Firebase ML library and it gives you the information you need. These APIs leverage the power of Google Cloud's machine learning technology to give you the highest level of accuracy. |\n\nCloud vs. on-device\n\nFirebase ML has APIs that work either in the cloud or on the device.\nWhen we describe an ML API as being a cloud API or on-device API, we are\ndescribing *which machine performs inference* : that is, which machine uses the\nML model to discover insights about the data you provide it. In Firebase ML,\nthis happens either on Google Cloud, or on your users' mobile devices.\n\nThe text recognition, image labeling, and landmark recognition APIs perform\ninference in the cloud. These models have more computational power and memory\navailable to them than a comparable on-device model, and as a result, can\nperform inference with greater accuracy and precision than an on-device model.\nOn the other hand, every request to these APIs requires a network round-trip,\nwhich makes them unsuitable for real-time and low-latency applications such as\nvideo processing.\n\nThe custom model APIs deal with ML models that run on the\ndevice. The models used and produced by these features are\n[TensorFlow Lite](https://tensorflow.org/lite) models, which are\noptimized to run on mobile devices. The biggest advantage to these models is\nthat they don't require a network connection and can run very quickly---fast\nenough, for example, to process frames of video in real time.\n\nFirebase ML provides\nthe ability to deploy custom models to your users' devices by\nuploading them to our servers. Your Firebase-enabled app will download the\nmodel to the device on demand. This allows you to keep your app's initial\ninstall size small, and you can swap the ML model without having to republish\nyour app.\n\nML Kit: Ready-to-use on-device models On June 3, 2020, we started offering ML Kit's on-device APIs through a\n| [new\n| standalone SDK](https://developers.google.com/ml-kit).\n| Google Cloud APIs and custom model deployment will\n| continue to be available through Firebase Machine Learning.\n\nIf you're looking for pre-trained models that run on the device, check out\n[ML Kit](https://developers.google.com/ml-kit). ML Kit is available\nfor iOS and Android, and has APIs for many use cases:\n\n- Text recognition\n- Image labeling\n- Object detection and tracking\n- Face detection and contour tracing\n- Barcode scanning\n- Language identification\n- Translation\n- Smart Reply\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml/recognize-text), [image labeling](/docs/ml/label-images), and [landmark recognition](/docs/ml/recognize-landmarks).\n- Learn about using mobile-optimized [custom models](/docs/ml/use-custom-models) in your app."]]