TensorFlow es una plataforma de código abierto para el aprendizaje automático. Proporciona un ecosistema completo y extensible de bibliotecas, herramientas y soporte comunitario para crear e implementar aplicaciones basadas en aprendizaje automático.
El gigante de búsquedas Google ha lanzado TensorFlow Lite 1.0 para desarrolladores que están trabajando en modelos de inteligencia artificial para dispositivos móviles e IoT . La versión liviana tiene algunas mejoras útiles, como el registro selectivo, la clasificación de imágenes y la cuantificación durante y después del entrenamiento para modelos más rápidos y más pequeños.
Al igual que la mayoría de los modelos de IA, TensorFlow Lite también comienza con el entrenamiento. Después de eso, se convierte para crear modelos Lite para dispositivos móviles.
Internet de las Cosas
Se anunció por primera vez en Google I / O 2017 , luego en la vista previa para desarrolladores de 2018. El director de ingeniería de TensorFlow, Rajat Monga, dijo :
"Vamos a apoyarlo completamente. No vamos a romper las cosas y asegurarnos de garantizar su compatibilidad. Creo que muchas personas que implementan esto en los teléfonos quieren esas garantías ".
El motivo principal detrás de TensorFlow lite es acelerar los modelos de AI y reducir los procesos no deseados para el despliegue de borde. La versión liviana está diseñada con un modelo de aceleración, un kit de poda de conexión basado en Keras y otras mejoras de cuantización.
Además de esto, el equipo Lite también ha compartido su hoja de ruta para el futuro con algunos cambios próximos, como el soporte de flujo de control, varias optimizaciones de rendimiento de la CPU, más detalles de las operaciones de delegado de GPU y, por último, la API para su disponibilidad general.
Según el ingeniero de TensorFlow Lite, Raziel Alvarez, TensorFlow Lite se implementa en más de dos mil millones de dispositivos en la actualidad. También agregó que a medida que el uso de TensorFlow Lite aumentará, definitivamente hará que el TensorFlow sea obsoleto. Algunos usuarios pueden utilizarlo para capacitación, pero no como una solución mientras trabaja.
Los expertos están explorando numerosas formas de reducir el tamaño de los modelos de IA y optimizarlos para dispositivos móviles. Algunos de ellos son los siguientes:
  • Aceleración de GPU móvil con delegados que pueden hacer la implementación del modelo hasta 7 veces más rápido .
  • Los delegados de Edge TPU que pueden acelerar las cosas 64 veces más rápido que una CPU de punto flotante .
TensorFlow Lite también puede ejecutarse en Raspberry Pi y la nueva placa Coral Dev lanzada hace unos días. Google también lanzó TensorFlow 2.0 alpha, TensorFlow.js 1.0 y TensorFlow 0.2 para desarrolladores de Swift.
Solo para su información, las aplicaciones y servicios de Google como GBoard, Google Photos, AutoML y Nest también usan TensorFlow Lite. Básicamente, hace todo el trabajo cuando le preguntas algo a Google Assistant cuando está desconectado. En general, el equipo de TensorFlow ha realizado un gran trabajo de back-end para mejorar su facilidad de uso y viabilidad.