Google presentó hoy oficialmente TensorFlow Lite 1.0, una herramienta exclusiva para que los desarrolladores declaren modelos de IA en dispositivos móviles y de IoT. Las principales mejoras incluyen el registro selectivo y la cuantificación durante y después del entrenamiento para modelos más pequeños y rápidos. La cuantificación pudo compactar algunos modelos de IA hasta 4 veces.
Lite comenzó a entrenar modelos de IA en TensorFlow y luego se convirtió para crear modelos Lite que pueden funcionar en dispositivos móviles. Lite se presentó por primera vez en la conferencia de desarrolladores de E / S en mayo de 2017, y la vista previa (vista previa) se lanzó más tarde ese año.
- Google anunció una grave vulnerabilidad en el kernel de macOS
El equipo responsable de TensorFlow Lite en Google también presentó hoy la hoja de ruta para el desarrollo de esta plataforma en el futuro. En consecuencia, el enfoque principal en el desarrollo de TensorFlow Lite es minimizar y acelerar los modelos de IA, especialmente al permitir que los desarrolladores de Android usen redes neuronales y conectores. Basado en Keras y mejoras de cuantificación adicionales.
Algunos otros cambios típicos incluyen:
- Soporte de control de flujo, que es fundamental para el funcionamiento de modelos como las redes neuronales recurrentes.
- Optimice el rendimiento de la CPU con los modelos Lite, potencialmente relacionados con asociaciones con otras empresas.
- Amplíe el alcance de funcionamiento de la GPU y mejore la API para que esté lista para su uso.
El convertidor de modelos TensorFlow 2.0 para crear modelos Lite se proporcionará a los desarrolladores para ayudarlos a comprender mejor los errores que pueden ocurrir en el proceso de conversión y cómo superarlos. TensorFlow Lite está siendo implementado y utilizado por más de 2 mil millones de dispositivos en todo el mundo, según un discurso de Raziel Alvarez en el escenario de la Cumbre de desarrolladores de TensorFlow. Además, la constante innovación de TensorFlow Lite también ha hecho que TensorFlow Mobile sea cada vez más obsoleto.
- Google y DeepMind aplican IA para pronosticar la producción de parques eólicos
En el pasado, se han descubierto varias técnicas nuevas que ayudan a reducir el tamaño de los modelos de IA y optimizarlos para su uso en dispositivos móviles, como la cuantificación. y delegados (capas estructuradas para desplegar diferentes diagramas en hardware para mejorar la velocidad del razonamiento).
Además, la función de aceleración de GPU móvil para algunos dispositivos también se proporcionó en la vista previa para desarrolladores en enero. Esta característica puede optimizar la implementación del modelo de 2 a 7 veces más rápido que la CPU de punto flotante (CPU de punto flotante). Los delegados de Edge TPU pueden acelerar 64 veces más rápido que la CPU de punto flotante.
En el futuro, Google planea hacer que los delegados de GPU sean más útiles, ampliar el alcance y mejorar la API.
Algunas de las aplicaciones y servicios originales de Google utilizan TensorFlow Lite, incluidos GBoard, Google Photos, AutoML y Nest. Todos los cálculos son necesarios para los modelos de CPU cuando el Asistente de Google necesita responder a consultas en el estado fuera de línea actualmente implementado por Lite. Además, Lite también se puede ejecutar en dispositivos como la nueva Raspberry Pi y Coral Dev Board.
- Esta es la interfaz de Lite OS, el nuevo sistema operativo de Microsoft, que compite con Chrome OS
Además de TensorFlow Lite, hoy Google también ha presentado la versión alfa de TensorFlow 2.0 para una experiencia de usuario más simple, TensorFlow.js 1.0 y la versión TensorFlow 0.2 para desarrolladores escritos. código en el lenguaje de programación Apple Swift. Al mismo tiempo, hoy también se lanzaron TensorFlow Federated y TensorFlow Privacy.
Lite para Core ML: el marco de aprendizaje automático de Apple se introdujo en diciembre de 2017. Los modelos personalizados de TensorFlow Lite también pueden funcionar con el kit ML, que puede ser una forma rápida para que los desarrolladores creen el modelo de IA móvil, presentado el año pasado para desarrolladores de Android e iOS que utilizan Firebase.
TensorFlow TensorFlow Lite, desarrolladores de aprendizaje automático de Google AI, dispositivos móviles iOS IOS
Google presentó hoy oficialmente TensorFlow Lite 1.0, una herramienta exclusiva para que los desarrolladores declaren modelos de IA en dispositivos móviles y de IoT. Las principales mejoras incluyen el registro selectivo y la cuantificación durante y después del entrenamiento para modelos más pequeños y rápidos. La cuantificación pudo compactar algunos modelos de IA hasta 4 veces.
Lite comenzó a entrenar modelos de IA en TensorFlow y luego se convirtió para crear modelos Lite que pueden funcionar en dispositivos móviles. Lite se presentó por primera vez en la conferencia de desarrolladores de E / S en mayo de 2017, y la vista previa (vista previa) se lanzó más tarde ese año.
- Google anunció una grave vulnerabilidad en el kernel de macOS
El equipo responsable de TensorFlow Lite en Google también presentó hoy la hoja de ruta para el desarrollo de esta plataforma en el futuro. Por lo tanto, el enfoque principal en el desarrollo de TensorFlow Lite es minimizar y acelerar los modelos de IA, especialmente al permitir que los desarrolladores de Android usen redes neuronales y conectores. Basado en Keras y mejoras de cuantificación adicionales.
Algunos otros cambios típicos incluyen:
- Soporte de control de flujo, que es fundamental para el funcionamiento de modelos como las redes neuronales recurrentes.
- Optimice el rendimiento de la CPU con los modelos Lite, potencialmente relacionados con asociaciones con otras empresas.
- Amplíe el alcance de la operación de la GPU y mejore la API para que esté lista para su uso.
El convertidor de modelos TensorFlow 2.0 para crear modelos Lite se proporcionará a los desarrolladores para ayudarlos a comprender mejor los errores que pueden ocurrir en el proceso de conversión y cómo superarlos. TensorFlow Lite está siendo implementado y utilizado por más de 2000 millones de dispositivos en todo el mundo, según un discurso de Raziel Alvarez en el escenario de la Cumbre de desarrolladores de TensorFlow. Además, la innovación constante de TensorFlow Lite también ha hecho que TensorFlow Mobile sea cada vez más obsoleto.
- Google y DeepMind aplican IA para pronosticar la producción de parques eólicos
En el pasado, se han descubierto varias técnicas nuevas que ayudan a reducir el tamaño de los modelos de IA y optimizarlos para su uso en dispositivos móviles, como la cuantificación. y delegados (capas estructuradas para implementar diferentes diagramas en hardware para mejorar la velocidad del razonamiento).
Además, la función de aceleración de GPU móvil para algunos dispositivos también se proporcionó en la vista previa para desarrolladores en enero. Esta característica puede optimizar la implementación del modelo de 2 a 7 veces más rápido que la CPU de punto flotante (CPU de punto flotante). Los delegados de Edge TPU pueden acelerar 64 veces más rápido que la CPU de punto flotante.
En el futuro, Google planea hacer que los delegados de GPU sean más útiles, ampliar el alcance y mejorar la API.
Algunas de las aplicaciones y servicios originales de Google utilizan TensorFlow Lite, incluidos GBoard, Google Photos, AutoML y Nest. Todos los cálculos son necesarios para los modelos de CPU cuando el Asistente de Google necesita responder a consultas en el estado fuera de línea actualmente implementado por Lite. Además, Lite también se puede ejecutar en dispositivos como la nueva Raspberry Pi y Coral Dev Board.
- Esta es la interfaz de Lite OS, el nuevo sistema operativo de Microsoft, que compite con Chrome OS
Además de TensorFlow Lite, hoy Google también ha presentado la versión alfa de TensorFlow 2.0 para una experiencia de usuario más simple, TensorFlow.js 1.0 y la versión TensorFlow 0.2 para desarrolladores escritos. código en el lenguaje de programación Apple Swift. Al mismo tiempo, hoy también se lanzaron TensorFlow Federated y TensorFlow Privacy.
Lite para Core ML: el marco de aprendizaje automático de Apple se introdujo en diciembre de 2017. Los modelos personalizados de TensorFlow Lite también pueden funcionar con el kit de AA, que puede ser una forma rápida para que los desarrolladores creen un modelo de IA móvil, presentado el año pasado para los desarrolladores de Android e iOS que utilizan Firebase.