Schritte zum Erstellen von KI-gestützten Antworten in Claris FileMaker.
Erfahren Sie, wie Sie schnell eine grundlegende KI-gestützte Funktion einrichten, die mit einem großen Sprachmodell (Large Language Model, LLM) interagiert. Was Sie erstellen, kann dann die Grundlage für komplexere KI-Implementierungen und -Entwicklungen liefern.
Claris in Aktion sehenSo legen Sie los:
- Claris FileMaker 2025 ist erforderlich. Wenn Sie es noch nicht haben, laden Sie eine Testversion herunter.
- Verwenden Sie eine Demodatei, um zu lernen, wie Sie die neue Funktion erstellen. Demodatei herunterladen.
Wenn diese zwei Voraussetzungen erfüllt sind, führen Sie die folgenden Schritte aus:
01
Konfigurieren Sie Ihr KI-Konto.
Richten Sie zunächst ein Konto bei einem unterstützten KI-Anbieter wie OpenAI, Anthropic oder Cohere ein. Verwenden Sie den Scriptschritt „KI-Konto konfigurieren“, geben Sie einen Namen für Ihr Konto ein, wählen Sie einen Anbieter aus (z. B. Open AI) und geben Sie dann Ihren API-Schlüssel ein.
02
Fügen Sie den Scriptschritt „Antwort von Modell generieren“ hinzu.
Dies ist der wichtigste Schritt, um die Kommunikation mit dem LLM zu ermöglichen. Fügen Sie diesen Scriptschritt in Ihr Skript ein und geben Sie den zuvor konfigurierten Kontonamen an.
03
Wählen Sie das Modell aus.
Wählen Sie das LLM aus, mit dem Sie interagieren möchten, z. B. GPT-40.
04
Geben Sie den Prompt ein.
Legen Sie fest, welche Mitteilung oder Eingabe Sie an das Modell senden möchten. Verwenden Sie ein Feld oder eine Variable, um den Prompt zu speichern.
05
Legen Sie das Antwortfeld fest.
Legen Sie fest, wo Sie die Antwort des Modells speichern möchten, und verwenden Sie ein Feld oder eine Variable, um die Ausgabe des Modells zu erfassen.
06
Aktivieren Sie das Streaming – ein optionaler Schritt.
Wenn Sie die Antwort sehen möchten, sobald diese generiert wurde, aktivieren Sie das Streaming. Dadurch erhalten Sie eine Echtzeitansicht der Ausgabe des Modells.
07
Speichern Sie den Mitteilungsverlauf – ein optionaler Schritt.
Um eine Chatbot-ähnliche Erfahrung zu schaffen, aktivieren Sie die Option „Mitteilungsverlauf speichern”. Damit können Sie den Mitteilungsverlauf in einer Variablen speichern, die den Kontext für die Antworten des Modells liefert. Geben Sie die Variable zum Speichern des Verlaufs und die Anzahl der vorherigen Mitteilungen an, die einbezogen werden sollen.
08
Testen und interagieren Sie.
Führen Sie Ihr Script aus und beginnen Sie mit dem LLM zu interagieren. Geben Sie Prompts ein und sehen Sie sich die Antworten des Modells an. Mit dem gespeicherten Mitteilungsverlauf hat das Modell einen entsprechenden Kontext für Ihre Unterhaltungen.
09
Verbessern Sie die Präsentation – ein optionaler Schritt.
Sie können Formeln oder Web-Viewer nutzen, um die Darstellung der Chatbot-Oberfläche zu verbessern. Formatieren Sie den Antworttext oder nutzen Sie Web-Technologien, um alles optisch ansprechender zu gestalten.
Bringen Sie Ihre App mit etwas Experimentierfreude weiter voran.
Nachdem Sie die neue Funktion zu einer App hinzugefügt haben, experimentieren Sie mit verschiedenen Prompts, Modellen und Präsentationsoptionen. Dieser KI-Scriptschritt eröffnet eine Reihe von Möglichkeiten, LLMs direkt in Ihre eigenen Apps zu integrieren.
Holen Sie sich bei Bedarf Hilfe von Experten.
Möchten Sie weitere KI-Möglichkeiten mit einem Entwicklungsexperten besprechen? Wir helfen Ihnen gerne dabei, ein Gespräch zu vereinbaren. Füllen Sie dieses Formular aus. Füllen Sie dieses Formular aus..
Sie möchten lieber eine PDF-Datei mit diesen Anweisungen?
PDF herunterladen