Обзор LiteRT (original) (raw)

LiteRT (сокращение от Lite Runtime), ранее известная как TensorFlow Lite, — это высокопроизводительная среда выполнения Google для искусственного интеллекта на устройстве. Вы можете найти готовые к использованию модели LiteRT для широкого спектра задач ML/AI или преобразовать и запустить модели TensorFlow, PyTorch и JAX в формат TFLite с помощью инструментов преобразования и оптимизации AI Edge.

Ключевые особенности

Рабочий процесс разработки

Рабочий процесс разработки LiteRT включает выявление проблемы ML/AI, выбор модели, которая решает эту проблему, и реализацию модели на устройстве. Следующие шаги проведут вас через рабочий процесс и предоставят ссылки на дальнейшие инструкции.

1. Определите наиболее подходящее решение проблемы ОД.

LiteRT предлагает пользователям высокий уровень гибкости и настраиваемости, когда дело доходит до решения задач машинного обучения, что делает его подходящим для пользователей, которым требуется конкретная модель или специализированная реализация. Пользователи, которым нужны готовые решения, могут предпочесть MediaPipe Tasks , который предоставляет готовые решения для распространенных задач машинного обучения, таких как обнаружение объектов, классификация текста и вывод LLM.

Выберите одну из следующих платформ AI Edge:

2. Выберите модель

Модель LiteRT представлена ​​в эффективном переносимом формате, известном как FlatBuffers , который использует расширение файла .tflite .

Вы можете использовать модель LiteRT следующими способами:

Модель LiteRT может дополнительно включать метаданные , которые содержат удобочитаемые описания моделей и машиночитаемые данные для автоматического создания конвейеров предварительной и последующей обработки во время вывода на устройстве. Дополнительные сведения см. в разделе Добавление метаданных .

3. Интегрируйте модель в свое приложение.

Вы можете реализовать свои модели LiteRT для выполнения выводов полностью на устройстве на веб-сайтах, встроенных и мобильных устройствах. LiteRT содержит API для Python , Java и Kotlin для Android, Swift для iOS и C++ для микроустройств.

Используйте следующие руководства для реализации модели LiteRT на предпочитаемой вами платформе:

На устройствах Android и iOS вы можете повысить производительность с помощью аппаратного ускорения. На любой платформе вы можете использовать делегата GPU , а на iOS — Core ML Delegate . Чтобы добавить поддержку новых аппаратных ускорителей, вы можете определить свой собственный делегат .

Вы можете выполнить вывод следующими способами в зависимости от типа модели:

Миграция с TF Lite

Приложения, использующие библиотеки TF Lite, продолжат работать, но все новые активные разработки и обновления будут включены только в пакеты LiteRT. API-интерфейсы LiteRT содержат те же имена методов, что и API-интерфейсы TF Lite, поэтому переход на LiteRT не требует детальных изменений кода.

Дополнительную информацию см. в руководстве по миграции .

Следующие шаги

Новым пользователям следует начать работу с кратким руководством LiteRT . Конкретную информацию смотрите в следующих разделах:

Преобразование модели

Направляющие платформы