Kurzanleitung für Linux-basierte Geräte mit Python (original) (raw)
Die Verwendung von LiteRT mit Python eignet sich hervorragend für eingebettete Geräte, die auf Linux basieren, wie Raspberry Pi undCoral-Geräte mit Edge TPUund vielen anderen.
Auf dieser Seite erfahren Sie, wie Sie LiteRT-Modelle mit Python in nur wenige Minuten. Sie brauchen nur ein in TensorFlow konvertiertes TensorFlow-Modell Lite Wenn Sie noch kein Modell konvertiert haben, mit dem Modell aus dem unten verlinkten Beispiel testen.)
Informationen zum LiteRT-Laufzeitpaket
Um schnell mit der Ausführung von LiteRT-Modellen mit Python zu beginnen, können Sie den LiteRT-Interpreter statt aller TensorFlow-Pakete. Mi. vereinfachtes Python-Paket tflite_runtime
nennen.
Das tflite_runtime
-Paket ist nur ein Bruchteil der Größe des gesamten tensorflow
-Objekts. und enthält den Code, der für die Ausführung von Inferenzen mit LiteRT – vor allem dieInterpreterPython-Klasse. Dieses kleine Paket eignet sich ideal,.tflite
-Modelle und vermeiden Sie die Verschwendung von Speicherplatz mit der großen TensorFlow-Bibliothek.
LiteRT für Python installieren
Sie können die Installation unter Linux mit pip ausführen:
python3 -m pip install tflite-runtime
Unterstützte Plattformen
Die Python-Rollen für tflite-runtime
sind vorgefertigt und werden für diese Plattformen:
- Linux armv7l (z.B. Raspberry Pi 2, 3, 4 und Zero 2 mit Raspberry Pi OS) 32-Bit)
- Linux aarch64 (z.B. Raspberry Pi 3, 4 mit Debian ARM64)
- Linux x86_64
Wenn Sie LiteRT-Modelle auf anderen Plattformen ausführen möchten, sollten Sie entweder das vollständige TensorFlow-Paket verwenden oderErstellen Sie das tflite-runtime-Paket aus der Quelle.
Wenn Sie TensorFlow mit der Coral Edge TPU verwenden, Folgen Sie stattdessen der entsprechenden Dokumentation zur Coral-Einrichtung.
Inferenz mit tflite_runtime ausführen
Anstatt Interpreter
aus dem Modul tensorflow
zu importieren, müssen Sie aus tflite_runtime
importieren.
Nachdem Sie das obige Paket installiert haben, kopieren Sie beispielsweise denlabel_image.py-Datei. Sie wird (wahrscheinlich) fehlschlagen, weil Sie die tensorflow
-Bibliothek nicht haben installiert haben. Um das Problem zu beheben, bearbeiten Sie diese Zeile in der Datei:
import tensorflow as tf
Also lautet der Text stattdessen:
import tflite_runtime.interpreter as tflite
Und dann ändern Sie diese Zeile:
interpreter = tf.lite.Interpreter(model_path=args.model_file)
Also lautet der Text:
interpreter = tflite.Interpreter(model_path=args.model_file)
Führen Sie jetzt label_image.py
noch einmal aus. Fertig! Sie führen jetzt LiteRT aus Modelle.
Weitere Informationen
- Weitere Informationen zur
Interpreter
API finden Sie unterModell in Python laden und ausführen - Wenn Sie einen Raspberry Pi haben, können Sie sich diese Videoreihe ansehen. zur Ausführung der Objekterkennung auf Raspberry Pi mithilfe von LiteRT.
- Wenn Sie einen Coral ML-Beschleuniger verwenden, sehen Sie sich dieBeispiele für Korallen auf GitHub
- Informationen zum Konvertieren anderer TensorFlow-Modelle in LiteRT finden Sie in denLiteRT Converter verfügbar.
- Wenn Sie ein
tflite_runtime
-Rad bauen möchten, lesen SieBuild LiteRT Python Wheel Package