nlp-cirlce-demo / resources /interfaces /gbert_interface.yml
JOELDSL's picture
Update resources/interfaces/gbert_interface.yml (#3)
60c7ef7
raw
history blame
717 Bytes
title: German BERT
name: huggingface/deepset/gbert-large
description: >
Hier zeigen wir ein Vergleichsmodell, welches ebenfalls maskierte Wörter (hier mit dem Stichwort [MASK]) zu erraten
versucht. Dieses Modell wurde allerdings nicht auf rechtliche Sprache spezialisiert, weshalb die prognostizierten
Wörter deutlich weniger spezifisch sind. Beide Modelle haben 354 Millionen Parameter.
examples:
# This is how we can do nested lists
- >
Die Beschwerdeführerin rügt sodann eine Verletzung des Verhältnismässigkeitsprinzips. Sie ist der
Auffassung, dass die Publikationstätigkeit der WEKO den Grundsatz der [MASK] gemäss Art. 5 Abs. 2
und Art. 36 BV wahren müsse.