Kurzanleitung für Linux-basierte Geräte mit Python (original) (raw)

Die Verwendung von LiteRT mit Python eignet sich hervorragend für eingebettete Geräte, die auf Linux basieren, wie Raspberry Pi undCoral-Geräte mit Edge TPUund vielen anderen.

Auf dieser Seite erfahren Sie, wie Sie LiteRT-Modelle mit Python in nur wenige Minuten. Sie brauchen nur ein in TensorFlow konvertiertes TensorFlow-Modell Lite Wenn Sie noch kein Modell konvertiert haben, mit dem Modell aus dem unten verlinkten Beispiel testen.)

Informationen zum LiteRT-Laufzeitpaket

Um schnell mit der Ausführung von LiteRT-Modellen mit Python zu beginnen, können Sie den LiteRT-Interpreter statt aller TensorFlow-Pakete. Mi. vereinfachtes Python-Paket tflite_runtime nennen.

Das tflite_runtime-Paket ist nur ein Bruchteil der Größe des gesamten tensorflow-Objekts. und enthält den Code, der für die Ausführung von Inferenzen mit LiteRT – vor allem dieInterpreterPython-Klasse. Dieses kleine Paket eignet sich ideal,.tflite-Modelle und vermeiden Sie die Verschwendung von Speicherplatz mit der großen TensorFlow-Bibliothek.

LiteRT für Python installieren

Sie können die Installation unter Linux mit pip ausführen:

python3 -m pip install tflite-runtime

Unterstützte Plattformen

Die Python-Rollen für tflite-runtime sind vorgefertigt und werden für diese Plattformen:

Wenn Sie LiteRT-Modelle auf anderen Plattformen ausführen möchten, sollten Sie entweder das vollständige TensorFlow-Paket verwenden oderErstellen Sie das tflite-runtime-Paket aus der Quelle.

Wenn Sie TensorFlow mit der Coral Edge TPU verwenden, Folgen Sie stattdessen der entsprechenden Dokumentation zur Coral-Einrichtung.

Inferenz mit tflite_runtime ausführen

Anstatt Interpreter aus dem Modul tensorflow zu importieren, müssen Sie aus tflite_runtime importieren.

Nachdem Sie das obige Paket installiert haben, kopieren Sie beispielsweise denlabel_image.py-Datei. Sie wird (wahrscheinlich) fehlschlagen, weil Sie die tensorflow-Bibliothek nicht haben installiert haben. Um das Problem zu beheben, bearbeiten Sie diese Zeile in der Datei:

import tensorflow as tf

Also lautet der Text stattdessen:

import tflite_runtime.interpreter as tflite

Und dann ändern Sie diese Zeile:

interpreter = tf.lite.Interpreter(model_path=args.model_file)

Also lautet der Text:

interpreter = tflite.Interpreter(model_path=args.model_file)

Führen Sie jetzt label_image.py noch einmal aus. Fertig! Sie führen jetzt LiteRT aus Modelle.

Weitere Informationen