All methods | Gemini API | Google AI for Developers (original) (raw)
Mit der Gemini API können Entwickler Anwendungen mit generativer KI mithilfe von Gemini-Modellen erstellen. Gemini ist unser leistungsstärkstes Modell, das von Grund auf multimodal konzipiert wurde. Es kann generalisieren und problemlos verschiedene Arten von Informationen wie Sprache, Bilder, Audio, Video und Code verstehen, verarbeiten und kombinieren. Sie können die Gemini API für Anwendungsfälle wie das Ableiten von Text und Bildern, die Generierung von Inhalten, Dialog-Agents, Zusammenfassungs- und Klassifizierungssysteme und vieles mehr verwenden.
Wir empfehlen, diesen Dienst mit den von Google bereitgestellten Clientbibliotheken aufzurufen. Wenn Ihre Anwendung diesen Dienst mit Ihren eigenen Bibliotheken aufrufen muss, sollten Sie die folgenden Informationen verwenden, wenn Sie die API-Anfragen senden.
Dienstendpunkt
Ein Dienstendpunkt ist eine Basis-URL, die die Netzwerkadresse eines API-Dienstes angibt. Ein Dienst kann mehrere Dienstendpunkte haben. Dieser Dienst hat den folgenden Dienstendpunkt und alle nachstehenden URIs beziehen sich auf ihn:
PATCH /v1beta/{generateContentBatch.name=batches/*}:updateGenerateContentBatch Aktualisiert einen Batch von GenerateContent-Anfragen für die Batchverarbeitung.
POST /v1beta/{fileSearchStoreName=fileSearchStores/*}:uploadToFileSearchStore POST /upload/v1beta/{fileSearchStoreName=fileSearchStores/*}:uploadToFileSearchStore Lädt Daten in einen FileSearchStore hoch, verarbeitet sie vor und teilt sie in Chunks auf, bevor sie in einem FileSearchStore-Dokument gespeichert werden.
POST /v1beta/{batch.model=models/*}:asyncBatchEmbedContent Stellt einen Batch von EmbedContent-Anfragen für die Batchverarbeitung in die Warteschlange.
POST /v1beta/{model=models/*}:batchEmbedContents Generiert mehrere Einbettungsvektoren aus der Eingabe Content, die aus einem Batch von Strings besteht, die als EmbedContentRequest-Objekte dargestellt werden.
POST /v1beta/{model=models/*}:batchEmbedText Generiert mehrere Einbettungen aus dem Modell, wenn Eingabetext in einem synchronen Aufruf angegeben wird.
POST /v1beta/{batch.model=models/*}:batchGenerateContent Stellt einen Batch von GenerateContent-Anfragen für die Batchverarbeitung in die Warteschlange.