louisbrulenaudet's picture
Upload README.md with huggingface_hub
aa639c1 verified
|
raw
history blame
6.04 kB
metadata
language:
  - fr
license: apache-2.0
multilinguality:
  - monolingual
size_categories:
  - 1K<n<10K
source_datasets:
  - original
task_categories:
  - text-generation
  - table-question-answering
  - summarization
  - text-retrieval
  - question-answering
  - text-classification
pretty_name: Code de procédure civile
tags:
  - finetuning
  - legal
  - french law
  - droit français
  - Code de procédure civile
dataset_info:
  features:
    - name: instruction
      dtype: string
    - name: input
      dtype: string
    - name: output
      dtype: string
    - name: start
      dtype: string
    - name: expiration
      dtype: string
    - name: num
      dtype: string
  splits:
    - name: train
      num_bytes: 1140146
      num_examples: 2053
  download_size: 402641
  dataset_size: 1140146
configs:
  - config_name: default
    data_files:
      - split: train
        path: data/train-*

Code de procédure civile, non-instruct (2024-03-27)

This project focuses on fine-tuning pre-trained language models to create efficient and accurate models for legal practice.

Fine-tuning is the process of adapting a pre-trained model to perform specific tasks or cater to particular domains. It involves adjusting the model's parameters through a further round of training on task-specific or domain-specific data. While conventional fine-tuning strategies involve supervised learning with labeled data, instruction-based fine-tuning introduces a more structured and interpretable approach.

Instruction-based fine-tuning leverages the power of human-provided instructions to guide the model's behavior. These instructions can be in the form of text prompts, prompts with explicit task descriptions, or a combination of both. This approach allows for a more controlled and context-aware interaction with the LLM, making it adaptable to a multitude of specialized tasks.

Instruction-based fine-tuning significantly enhances the performance of LLMs in the following ways:

  • Task-Specific Adaptation: LLMs, when fine-tuned with specific instructions, exhibit remarkable adaptability to diverse tasks. They can switch seamlessly between translation, summarization, and question-answering, guided by the provided instructions.
  • Reduced Ambiguity: Traditional LLMs might generate ambiguous or contextually inappropriate responses. Instruction-based fine-tuning allows for a clearer and more context-aware generation, reducing the likelihood of nonsensical outputs.
  • Efficient Knowledge Transfer: Instructions can encapsulate domain-specific knowledge, enabling LLMs to benefit from expert guidance. This knowledge transfer is particularly valuable in fields like tax practice, law, medicine, and more.
  • Interpretability: Instruction-based fine-tuning also makes LLM behavior more interpretable. Since the instructions are human-readable, it becomes easier to understand and control model outputs.
  • Adaptive Behavior: LLMs, post instruction-based fine-tuning, exhibit adaptive behavior that is responsive to both explicit task descriptions and implicit cues within the provided text.

Dataset generation

This JSON file is a list of dictionaries, each dictionary contains the following fields:

  • instruction: string, presenting the instruction linked to the element.
  • input: string, signifying the input details for the element.
  • output: string, indicating the output information for the element.
  • start: string, the date of entry into force of the article.
  • expiration: string, the date of expiration of the article.
  • num: string, the id of the article.

We used the following list of instructions for generating the dataset:

instructions = [
    "Compose l'intégralité de l'article sous forme écrite.",
    "Écris la totalité du contenu de l'article.",
    "Formule la totalité du texte présent dans l'article.",
    "Produis l'intégralité de l'article en écriture.",
    "Développe l'article dans son ensemble par écrit.",
    "Génère l'ensemble du texte contenu dans l'article.",
    "Formule le contenu intégral de l'article en entier.",
    "Rédige la totalité du texte de l'article en entier.",
    "Compose l'intégralité du contenu textuel de l'article.",
    "Rédige l'ensemble du texte qui constitue l'article.",
    "Formule l'article entier dans son contenu écrit.",
    "Composez l'intégralité de l'article sous forme écrite.",
    "Écrivez la totalité du contenu de l'article.",
    "Formulez la totalité du texte présent dans l'article.",
    "Développez l'article dans son ensemble par écrit.",
    "Générez l'ensemble du texte contenu dans l'article.",
    "Formulez le contenu intégral de l'article en entier.",
    "Rédigez la totalité du texte de l'article en entier.",
    "Composez l'intégralité du contenu textuel de l'article.",
    "Écrivez l'article dans son intégralité en termes de texte.",
    "Rédigez l'ensemble du texte qui constitue l'article.",
    "Formulez l'article entier dans son contenu écrit.",
    "Composer l'intégralité de l'article sous forme écrite.",
    "Écrire la totalité du contenu de l'article.",
    "Formuler la totalité du texte présent dans l'article.",
    "Produire l'intégralité de l'article en écriture.",
    "Développer l'article dans son ensemble par écrit.",
    "Générer l'ensemble du texte contenu dans l'article.",
    "Formuler le contenu intégral de l'article en entier.",
    "Rédiger la totalité du texte de l'article en entier.",
    "Composer l'intégralité du contenu textuel de l'article.",
    "Rédiger l'ensemble du texte qui constitue l'article.",
    "Formuler l'article entier dans son contenu écrit.",
    "Quelles sont les dispositions de l'article ?",
    "Quelles dispositions sont incluses dans l'article ?",
    "Quelles sont les dispositions énoncées dans l'article ?",
    "Quel est le texte intégral de l'article ?",
    "Quelle est la lettre de l'article ?"
]

Feedback

If you have any feedback, please reach out at louisbrulenaudet@icloud.com.