import requests import gradio as gr import spaces import os api_token = os.environ.get("TOKEN") API_URL = "https://api-inference.huggingface.co/models/meta-llama/Meta-llama-3-8B-Instruct" headers = {"Authorization": f"Bearer {api_token}"} @spaces.GPU def query(payload): response = requests.post(API_URL, headers=headers, json=payload) return response.json() def detect_sentiment(message): prompt = f"Détecte le sentiment de ce message. Réponds par 'positif' ou 'négatif' :\nMessage : \"{message}\"" response = query({"inputs": prompt}) sentiment = response[0]['generated_text'].strip().lower() return sentiment def sentiment_analysis_interface(message): sentiment = detect_sentiment(message) return sentiment # Créer l'interface Gradio iface = gr.Interface( fn=sentiment_analysis_interface, inputs="text", outputs="text", title="Détection de Sentiment", description="Entrez un message pour détecter si le sentiment est positif ou négatif.", ) # Lancer l'interface iface.launch()