Krótkie wprowadzenie dla urządzeń z systemem Linux korzystających z Pythona (original) (raw)
Używanie LiteRT z Pythonem świetnie się sprawdza na urządzeniach z systemem Linux, takie jak Raspberry Pi,Urządzenia Coral z Edge TPUi wielu innych.
Na tej stronie dowiesz się, jak zacząć uruchamiać modele LiteRT w języku Python tylko kilka minut. Potrzebny jest tylko model TensorFlow przekonwertowany na TensorFlow uproszczony. (Jeśli nie masz jeszcze przekonwertowanego modelu, możesz eksperymentu za pomocą modelu podanego w przykładzie podanym poniżej).
Informacje o pakiecie środowiska wykonawczego LiteRT
Aby szybko zacząć wykonywać modele LiteRT w Pythonie, możesz zainstalować tylko interpretera LiteRT, a nie wszystkich pakietów TensorFlow. Śr ten uproszczony pakiet Pythona tflite_runtime
.
Pakiet tflite_runtime
to ułamek rozmiaru pełnego pakietu tensorflow
i zawiera minimalne minimalny kod wymagany do uruchamiania wnioskowania z LiteRT – głównieInterpreter. klasą Pythona. Ten niewielki pakiet jest idealny, gdy chcesz tylko wykonać.tflite
i unikaj marnowania miejsca na dysku dzięki dużej bibliotece TensorFlow.
Zainstaluj LiteRT dla Pythona
Możesz zainstalować aplikację w Linuksie przy użyciu pip:
python3 -m pip install tflite-runtime
Obsługiwane platformy
Koła Pythona tflite-runtime
są gotowe i dostarczane do tych platformy:
- Linux armv7l (np. Raspberry Pi 2, 3, 4 i Zero 2 z systemem Raspberry Pi OS 32-bitowa)
- Linux aarch64 (np. Raspberry Pi 3, 4 z systemem Debian ARM64)
- Linux x86_64
Jeśli chcesz uruchamiać modele LiteRT na innych platformach, użyj pełnego pakietu TensorFlow;skonfiguruj pakiet tflite-runtime ze źródła.
Jeśli używasz TensorFlow z Coral Edge TPU, postępuj zgodnie z odpowiednią dokumentacją konfiguracji Coral.
Przeprowadź wnioskowanie za pomocą tflite_runtime
Zamiast importować plik Interpreter
z modułu tensorflow
, musisz: zaimportuj je z usługi tflite_runtime
.
Na przykład po zainstalowaniu powyższego pakietu skopiuj i uruchomlabel_image.py. Zapewne nie zadziała, ponieważ nie masz biblioteki tensorflow
Zainstalowano. Aby rozwiązać ten problem, zmodyfikuj ten wiersz pliku:
import tensorflow as tf
Zamiast tego wygląda to tak:
import tflite_runtime.interpreter as tflite
Następnie zmień ten wiersz:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Tak więc wygląda to:
interpreter = tflite.Interpreter(model_path=args.model_file)
Teraz ponownie uruchom polecenie label_image.py
. Znakomicie. Wykonujesz LiteRT modeli ML.
Więcej informacji
- Więcej informacji o interfejsie API
Interpreter
znajdziesz na stronieWczytaj i uruchom model w Pythonie. - Jeśli masz Raspberry Pi, obejrzyj serię filmówo tym, jak uruchamiać wykrywanie obiektów w Raspberry Pi za pomocą LiteRT.
- Jeśli używasz akceleratora Coral ML, przeczytajPrzykłady koralowców w GitHubie.
- Aby przekonwertować inne modele TensorFlow na LiteRT, przeczytaj oKonwerter LiteRT
- Jeśli chcesz zbudować koło
tflite_runtime
, przeczytajTworzenie pakietu LiteRT Python Wheel