nlp-cirlce-demo / resources /interfaces /gpt2_interface.yml
JOELDSL's picture
feature/refactoring-to-config-yamls (#1)
79d67e0
raw
history blame
663 Bytes
title: GPT2 # will be used as tab title and for the link.
name: huggingface/gpt2 # path to model
description: >
GPT-3.5, auf dem ChatGPT beruht. Das Modell vervollständigt eingegebene Texte, in dem
es immer ein wahrscheinliches nächstes Wort voraussagt. Allerdings hat es auch einen
kleinen Zufallsfaktor, damit der gleiche Input nicht immer das gleiche Resultat liefern.
Das hier vorgestellte deutschsprachige GPT-2 Modell hat 124 Millionen Parameter, ist also
1400x kleiner als ChatGPT - und somit auch erkennbar schlechter in der Textgenerierung.
examples:
- Paris is the capital of
- Auf Deutsch funktioniert das Modell deutlich