Création de réponses basées sur l'IA dans Claris FileMaker
Découvrez comment configurer rapidement une fonctionnalité d'IA de base qui vous permettra d'interagir avec un grand modèle de langage (LLM). Une fois cela fait, vous pourrez ensuite implémenter et exploiter d'autres options plus complexes.
Regarder une présentationAvant toute chose :
- Vous devez disposer de Claris FileMaker 2025. Si ce n'est pas le cas, téléchargez une version d'essai.
- Un fichier démo est requis pour apprendre à configurer la nouvelle fonctionnalité. Vous pouvez en télécharger un ici.
Une fois que vous êtes en possession de ces deux éléments, procédez comme suit :
01
Configurez un compte
Ouvrez un compte auprès d'un fournisseur de services d'IA pris en charge comme OpenAI, Anthropic ou Cohere. Ensuite, utilisez l'action de script Configurer le compte IA, attribuez un nom à votre compte, sélectionnez un fournisseur (OpenAI, par exemple), puis saisissez votre clé API.
02
Ajoutez l'action de script Générer une réponse à partir du modèle
Cette étape est essentielle pour activer la communication avec le LLM. Assurez-vous d'inclure cette action à votre script, en indiquant le nom du compte que vous avez précédemment configuré.
03
Sélectionnez un LLM
Sélectionnez le LLM avec lequel vous désirez interagir (GPT-40, par exemple).
04
Formulez un prompt
Déterminez quel message ou quelle entrée vous voulez transmettre au LLM. Enregistrez le prompt à l'aide d'une rubrique ou d'une variable.
05
Choisissez le mode d'enregistrement des réponses
Décidez à quel endroit les réponses du LLM doivent être enregistrées, à l'aide d'une rubrique ou d'une variable.
06
Activez la diffusion (facultatif)
Si vous souhaitez pouvoir visualiser les réponses du LLM lors de leur génération, en temps réel, activez la diffusion.
07
Enregistrez l'historique des messages (facultatif)
Pour créer un chat, activez l'option Enregistrer l'historique des messages. Ceci vous permettra d'enregistrer l'historique des conversations dans une variable et, ainsi, de fournir du contexte pour les réponses du LLM. Pensez à bien spécifier cette même variable, ainsi que le nombre de messages précédents à inclure.
08
Effectuez des tests et interagissez avec le LLM
Exécutez votre script et commencez à interagir avec le LLM en formulant des prompts et en consultant les réponses fournies. Si l'historique des messages est enregistré, le LLM dispose du contexte nécessaire pour les conversations.
09
Améliorez l'apparence de l'interface (facultatif)
Vous pouvez améliorer l'apparence du chat à l'aide de calculs et de visualiseurs Web, afin de mettre le texte des réponses en forme et de rendre l'ensemble plus attrayant visuellement.
Réalisez des essais pour aller plus loin.
Une fois la nouvelle fonctionnalité configurée dans votre application, réalisez des essais avec d'autres prompts, LLM et options de présentation. Grâce à l'action de script ad hoc, diverses possibilités s'offrent en effet à vous.
Tournez-vous vers un expert si besoin.
Vous aimeriez discuter des autres scénarios envisageables en matière d'IA avec un expert en développement ? Nous pouvons vous mettre en relation. Il vous suffit de renseigner ce formulaire.
Vous préférez consulter ces instructions sur un PDF ?
Cliquez ici pour le télécharger.