Edit model card

essays

This model is a fine-tuned version of sberbank-ai/rugpt3small_based_on_gpt2 on a plato_full_russ It achieves the following results on the evaluation set:

  • Loss: 3.1957
  • Accuracy: 0.3682

Model description

More information needed

Intended uses & limitations

Biases: Cultural Bias: The model may reflect biases present in the translations of Plato's texts. Since translations can vary significantly based on the translator's interpretation, the model might inadvertently favor certain philosophical interpretations over others. Representation Bias: If the training data predominantly features specific translations or interpretations, the model may lack diversity in its responses, potentially neglecting alternative philosophical viewpoints. Ethical Dilemmas: Misinterpretation of Philosophical Ideas: The model could generate responses that misrepresent Plato's ideas or present them out of context. This raises concerns about the accuracy and integrity of philosophical discourse. Responsibility for Generated Content: There is an ethical question regarding who is responsible for the content generated by the model. If it produces harmful or misleading information, accountability becomes a significant issue. Limitations: Contextual Understanding: While the model can generate text based on patterns in the training data, it may lack true understanding of philosophical concepts, leading to superficial or nonsensical outputs. Dependence on Training Data: The quality and comprehensiveness of the training data directly impact the model's performance. If certain dialogues or themes from Plato are underrepresented, this will limit the model's ability to generate relevant responses.

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 5e-05
  • train_batch_size: 2
  • eval_batch_size: 8
  • seed: 42
  • gradient_accumulation_steps: 4
  • total_train_batch_size: 8
  • optimizer: Use adafactor and the args are: No additional optimizer arguments
  • lr_scheduler_type: linear
  • num_epochs: 10.0
  • mixed_precision_training: Native AMP

Training results

Training Loss Epoch Step Validation Loss Accuracy
2.7233 7.6046 500 3.1864 0.3682

Framework versions

  • Transformers 4.46.0.dev0
  • Pytorch 2.4.1+cu121
  • Datasets 3.0.1
  • Tokenizers 0.20.1

using

!pip install --upgrade transformers huggingface_hub

from transformers import pipeline

Load the model from Hugging Face Hub

model_name = "DmitryYarov/plato_2024_1.0" # Replace with your actual model ID pipe = pipeline("text-generation", model=model_name)

Define a prompt for generating philosophical text

prompt = "Что такое добро и Благо, Сократ? Объясните с философской точки зрения."

Generate text with beam search

output = pipe( prompt, repetition_penalty=2.0, no_repeat_ngram_size=2, max_length=200, num_return_sequences=3, # Generate multiple responses num_beams=5, # Use beam search with a specified number of beams temperature=0.7, # Adjust for creativity top_k=50, # Limit to top-k words top_p=0.95, # Use nucleus sampling truncation=True # Ensure truncation if needed )

Print all generated texts

for i, response in enumerate(output): print(f"Response {i+1}: {response['generated_text']}\n")

answers:

Response 1: Что такое добро и Благо, Сократ? Объясните с философской точки зрения. Сократ. Добро — это то, что мы называем благом, а не тем, чем оно названо. Если бы кто-нибудь спросил меня: «Какое благо ты называешь добром?» — я ответил бы: доброе. А если бы он спросил его: какое же из этих двух слов ты разумеешь добром? Я отвечал бы ему: добро. И вот теперь, когда он спрашивает меня о том же самом, я сказал бы следующее: зло. Итак, добрый человек должен быть добр, потому что иначе он не был бы человеком добрым. Так ли тебе кажется? Федон, или О должном 709 Чужеземец.. Но ведь ты утверждаешь, будто есть два вида добра: один — наилучший, другой — худший. Не так ли? Или ты не согласен со мной в этом вопросе? Скажи же мне, ради Зевса, каким образом

Response 2: Что такое добро и Благо, Сократ? Объясните с философской точки зрения. Сократ. Добро — это то, что мы называем благом, а не тем, чем оно названо. Если бы кто-нибудь спросил меня: «Какое благо ты называешь добром?» — я ответил бы: доброе. А если бы он спросил его: какое же из этих двух слов ты разумеешь добром? Я отвечал бы ему: добро. И вот теперь, когда он спрашивает меня о том же самом, я сказал бы следующее: зло. Итак, добрый человек должен быть добр, потому что иначе он не был бы человеком добрым. Так ли тебе кажется? Федон, или О должном 709 Чужеземец.. Но ведь ты утверждаешь, будто есть два вида добра: один — наилучший, другой — худший. Не так ли? Или ты не согласен со мной в этом вопросе? Впрочем, может быть, для тебя будет лучше,

Response 3: Что такое добро и Благо, Сократ? Объясните с философской точки зрения. Сократ. Добро — это то, что мы называем благом, а не тем, чем оно названо. Если бы кто-нибудь спросил меня: «Какое благо ты называешь добром?» — я ответил бы: доброе. А если бы он спросил его: какое же из этих двух слов ты разумеешь добром? Я отвечал бы ему: добро. И вот теперь, когда он спрашивает меня о том же самом, я сказал бы следующее: зло. Итак, добрый человек должен быть добр, потому что иначе он не был бы человеком добрым. Так ли тебе кажется? Федон, или О должном 709 Чужеземец.. Но ведь ты утверждаешь, будто есть два вида добра: один — наилучший, другой — худший. Не так ли? Или ты не согласен со мной в этом вопросе? Впрочем, может быть, ты и прав. Ведь

Downloads last month
624
Safetensors
Model size
125M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for DmitryYarov/plato_2024_1.0

Finetuned
(18)
this model

Space using DmitryYarov/plato_2024_1.0 1