A newer version of this model is available:
trl-internal-testing/tiny-GPTNeoXForCausalLM
Agent-AI/gopu
le seul ia le plus leger tous en utilisant plus de 71m param
Agent-AI est un modèle de génération de texte basé sur GPT-NeoX, conçu pour être léger, modulaire et compatible avec Xenova et Hugging Face Transformers. Il peut être utilisé pour créer des assistants conversationnels, des agents intelligents et tout type d’application de génération de texte.
Installation
Clone le dépôt et installe les dépendances Python :
git clone https://github.com/Mauricio-100/agent-ai.git
cd agent-ai
pip install -r requirements.txt
⚠️ Compatible Python 3.10+
Chargement du modèle
from transformers import pipeline
# Charger le modèle depuis le dossier local ou HF hub
bot = pipeline("text-generation", model="./agent_model")
# Générer du texte
response = bot("Bonjour, comment vas-tu ?", max_length=100)
print(response[0]['generated_text'])
Structure des fichiers
agent-ai/
│
├─ agent_model/ # Modèle pré-entraîné
│ ├─ pytorch_model.bin
│ └─ config.json
│
├─ agent_tokenizer/ # Tokenizer pour convertir texte ↔ tokens
│ ├─ tokenizer.json
│ └─ vocab.json # avenir ->
│
└─ README.md # Ce fichier
Paramètres recommandés
- Hidden size : 2048
- Nombre de couches : 24
- Attention heads : 16
- Max sequence length : 2048
Compatibilité
- Hugging Face Transformers
- Xenova (Web/Node.js)
Contribuer
- Fork le dépôt
- Crée une branche feature :
git checkout -b feature/my-feature - Commit tes modifications :
git commit -am 'Add new feature' - Push vers la branche :
git push origin feature/my-feature - Crée une Pull Request
ou rejoin notre association openSource
- Downloads last month
- 238
Model tree for Mauricio-100/agent-ai
Base model
trl-internal-testing/tiny-GPTNeoXForCausalLM