title: German BERT name: huggingface/deepset/gbert-large description: > Hier zeigen wir ein Vergleichsmodell, welches ebenfalls maskierte Wörter (hier mit dem Stichwort [MASK]) zu erraten versucht. Dieses Modell wurde allerdings nicht auf rechtliche Sprache spezialisiert, weshalb die prognostizierten Wörter deutlich weniger spezifisch sind. Beide Modelle haben 354 Millionen Parameter. examples: # This is how we can do nested lists - > Die Beschwerdeführerin rügt sodann eine Verletzung des Verhältnismässigkeitsprinzips. Sie ist der Auffassung, dass die Publikationstätigkeit der WEKO den Grundsatz der [MASK] gemäss Art. 5 Abs. 2 und Art. 36 BV wahren müsse.