import torch import os import requests import spaces import gradio as gr api_token = os.environ.get("TOKEN") API_URL = "https://api-inference.huggingface.co/models/meta-llama/Meta-Llama-3-8B-Instruct" headers = {"Authorization": f"Bearer {api_token}"} @spaces.GPU def query(payload): response = requests.post(API_URL, headers=headers, json=payload) return response.json() output = query({ "inputs": " test ", }) def analyze_sentiment(text): # Construire le prompt prompt = f"Tu es un analyseur de sentiment. Ton rôle est d'évaluer le sentiment général du texte fourni. Réponds uniquement par 'positif' ou 'négatif'. N'ajoute aucune explication. Voici le texte à analyser :{text}" demo = gr.Interface( fn = query inputs=["text"], outputs=["text"], ) demo.launch()