Model_generative / exercice 8.py
Akheela's picture
Upload exercice 8.py
2bdc739 verified
raw
history blame
813 Bytes
from transformers import GPT2LMHeadModel, GPT2Tokenizer
# Chargement du modèle GPT-2 et le tokenizer
model_name = "gpt2"
tokenizer = GPT2Tokenizer.from_pretrained(model_name)
model = GPT2LMHeadModel.from_pretrained(model_name)
#Le prompt
prompt = "Au début du 21ème siècle, les humains ont découvert une nouvelle technologie"
# Encodage du prompt pour l'entrée dans le modèle
inputs = tokenizer.encode(prompt, return_tensors='pt')
# Générer du texte par exemple 100 tokens
output = model.generate(
inputs,
max_length=100,
num_return_sequences=1,
do_sample = True,
temperature = 0.7,
top_k = 50,
top_p = 0.95
)
# Décodage de la génération en texte compréhensible
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
#Affichage
print(generated_text)