Organiza tus páginas con colecciones Guarda y categoriza el contenido según tus preferencias.
Firebase Machine Learning
plat_iosplat_androidplat_flutter
Usa el aprendizaje automático en tus aplicaciones para resolver problemas reales.
Firebase Machine Learning es un SDK para dispositivos móviles que lleva la experiencia de aprendizaje automático de Google a las apps para Apple y Android en un paquete potente y fácil de usar. Independientemente de si eres nuevo o tienes experiencia en el aprendizaje automático, puedes implementar la funcionalidad que necesites con solo unas pocas líneas de código. No es necesario que tengas un profundo conocimiento sobre redes neuronales o en optimización de modelos para comenzar. Por otra parte, si eres un desarrollador de AA con experiencia, el Firebase ML te brinda APIs convenientes y útiles para que puedas usar tus propios modelos personalizados de TensorFlow Lite en tus apps para dispositivos móviles.
Funciones clave
Aloja y, luego, implementa modelos personalizados
Usa tus propios modelos de TensorFlow Lite para la inferencia en el dispositivo. Solo implementa tu modelo en Firebase y nosotros nos encargaremos de alojarlo y entregarlo en tu app. Firebase entregará dinámicamente a los usuarios la versión más reciente del modelo, lo que te permitirá actualizarla de forma periódica sin necesidad de enviar una nueva versión de tu app a los usuarios.
Cuando usas Firebase ML con Remote Config, puedes entregar diferentes modelos a distintos segmentos de usuarios y, con A/B Testing, puedes ejecutar experimentos para encontrar el modelo con mejor rendimiento (consulta las guías de Apple y Android).
Listo para producción en casos de uso comunes
Firebase ML incluye un conjunto de APIs listas para usar destinadas a casos de uso comunes en dispositivos móviles: reconocimiento de texto, identificación de puntos de referencia y etiquetado de imágenes. Simplemente transfiere los datos a la biblioteca de Firebase ML y obtendrás la información que necesitas. Estas APIs aprovechan la potencia de la tecnología de aprendizaje automático de Google Cloud para brindarte el nivel más alto de precisión.
En la nube en comparación con en el dispositivo
Firebase ML tiene APIs que funcionan en la nube o en el dispositivo. Cuando describimos una API de AA como una API en la nube o integrada en el dispositivo, describimos qué máquina realiza la inferencia, es decir, cuál usa el modelo de AA para descubrir estadísticas sobre los datos que proporcionas. En Firebase ML, esto sucede en Google Cloud o en los dispositivos móviles de tus usuarios.
Las API de reconocimiento de texto, etiquetado de imágenes y reconocimiento de puntos de referencia realizan inferencias en la nube. Estos modelos tienen más potencia de procesamiento y memoria disponibles que un modelo similar en un dispositivo y, como resultado, pueden realizar inferencias con mayor precisión y exactitud que un modelo en el dispositivo. Por otro lado, cada solicitud dirigida a estas API requiere un recorrido de ida y vuelta de red, por lo que no es adecuada para aplicaciones en tiempo real y con baja latencia, como las de procesamiento de video.
Las APIs de modelos personalizados se encargan de los modelos de AA que se ejecutan en el dispositivo. Los modelos que usan y producen estas funciones son modelos de TensorFlow Lite, que están optimizados para ejecutarse en dispositivos móviles. La mayor ventaja de estos modelos es que no requieren una conexión de red y que se pueden ejecutar muy rápido, por ejemplo, para procesar fotogramas de video en tiempo real.
Firebase ML proporciona la capacidad de implementar modelos personalizados en los dispositivos de tus usuarios. Para ello, los puedes cargar en nuestros servidores. Tu app compatible con Firebase descargará el modelo en el dispositivo a pedido. Esto te permite mantener pequeño el tamaño de la instalación inicial de la app y puedes cambiar el modelo de AA sin tener que volver a publicarla.
Kit de AA: modelos listos para usar en el dispositivo
Si buscas modelos previamente entrenados que se ejecuten en el dispositivo, consulta el Kit de AA. El Kit de AA está disponible para iOS y Android, y tiene API para muchos casos de uso:
[[["Fácil de comprender","easyToUnderstand","thumb-up"],["Resolvió mi problema","solvedMyProblem","thumb-up"],["Otro","otherUp","thumb-up"]],[["Falta la información que necesito","missingTheInformationINeed","thumb-down"],["Muy complicado o demasiados pasos","tooComplicatedTooManySteps","thumb-down"],["Desactualizado","outOfDate","thumb-down"],["Problema de traducción","translationIssue","thumb-down"],["Problema con las muestras o los códigos","samplesCodeIssue","thumb-down"],["Otro","otherDown","thumb-down"]],["Última actualización: 2025-08-04 (UTC)"],[],[],null,["Firebase Machine Learning \nplat_ios plat_android plat_flutter \nUse machine learning in your apps to solve real-world problems. \n\nFirebase Machine Learning is a mobile SDK that brings Google's machine\nlearning expertise to Android and Apple apps in a powerful yet easy-to-use\npackage. Whether you're new or experienced in machine learning, you can\nimplement the functionality you need in just a few lines of code. There's no\nneed to have deep knowledge of neural networks or model optimization to get\nstarted. On the other hand, if you are an experienced ML developer,\nFirebase ML provides convenient APIs that help you use your custom\nTensorFlow Lite models in your mobile apps.\n| This is a beta release of Firebase ML. This API might be changed in backward-incompatible ways and is not subject to any SLA or deprecation policy.\n\nKey capabilities\n\n|---------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|\n| Host and deploy custom models | Use your own TensorFlow Lite models for on-device inference. Just deploy your model to Firebase, and we'll take care of hosting and serving it to your app. Firebase will dynamically serve the latest version of the model to your users, allowing you to regularly update them without having to push a new version of your app to users. When you use Firebase ML with [Remote Config](/docs/remote-config), you can serve different models to different user segments, and with [A/B Testing](/docs/ab-testing), you can run experiments to find the best performing model (see the [Apple](/docs/ml/ios/ab-test-models) and [Android](/docs/ml/android/ab-test-models) guides). |\n| Production-ready for common use cases | Firebase ML comes with a set of ready-to-use APIs for common mobile use cases: recognizing text, labeling images, and identifying landmarks. Simply pass in data to the Firebase ML library and it gives you the information you need. These APIs leverage the power of Google Cloud's machine learning technology to give you the highest level of accuracy. |\n\nCloud vs. on-device\n\nFirebase ML has APIs that work either in the cloud or on the device.\nWhen we describe an ML API as being a cloud API or on-device API, we are\ndescribing *which machine performs inference* : that is, which machine uses the\nML model to discover insights about the data you provide it. In Firebase ML,\nthis happens either on Google Cloud, or on your users' mobile devices.\n\nThe text recognition, image labeling, and landmark recognition APIs perform\ninference in the cloud. These models have more computational power and memory\navailable to them than a comparable on-device model, and as a result, can\nperform inference with greater accuracy and precision than an on-device model.\nOn the other hand, every request to these APIs requires a network round-trip,\nwhich makes them unsuitable for real-time and low-latency applications such as\nvideo processing.\n\nThe custom model APIs deal with ML models that run on the\ndevice. The models used and produced by these features are\n[TensorFlow Lite](https://tensorflow.org/lite) models, which are\noptimized to run on mobile devices. The biggest advantage to these models is\nthat they don't require a network connection and can run very quickly---fast\nenough, for example, to process frames of video in real time.\n\nFirebase ML provides\nthe ability to deploy custom models to your users' devices by\nuploading them to our servers. Your Firebase-enabled app will download the\nmodel to the device on demand. This allows you to keep your app's initial\ninstall size small, and you can swap the ML model without having to republish\nyour app.\n\nML Kit: Ready-to-use on-device models On June 3, 2020, we started offering ML Kit's on-device APIs through a\n| [new\n| standalone SDK](https://developers.google.com/ml-kit).\n| Google Cloud APIs and custom model deployment will\n| continue to be available through Firebase Machine Learning.\n\nIf you're looking for pre-trained models that run on the device, check out\n[ML Kit](https://developers.google.com/ml-kit). ML Kit is available\nfor iOS and Android, and has APIs for many use cases:\n\n- Text recognition\n- Image labeling\n- Object detection and tracking\n- Face detection and contour tracing\n- Barcode scanning\n- Language identification\n- Translation\n- Smart Reply\n\nNext steps\n\n- Explore the ready-to-use APIs: [text recognition](/docs/ml/recognize-text), [image labeling](/docs/ml/label-images), and [landmark recognition](/docs/ml/recognize-landmarks).\n- Learn about using mobile-optimized [custom models](/docs/ml/use-custom-models) in your app."]]