File size: 1,728 Bytes
72137d1
 
 
 
 
22179ca
72137d1
 
 
 
 
22179ca
4a2de14
 
22179ca
 
72137d1
 
 
11ea44e
 
22179ca
ddac8eb
 
11ea44e
 
 
 
 
d62f5ae
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
---
license: apache-2.0
license_link: https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct/blob/main/LICENSE
language:
- en
- es
pipeline_tag: text-generation
base_model: Qwen/Qwen2.5-0.5B-Instruct
tags:
- chat
- llama-cpp
- amoral
- abliterated
- uncensored
- nsfw
- not-for-all-audiences
library_name: transformers
---

📲 Gracias por mostrar interes en este modelo cuantizado del todopoderoso Novaciano que es capaz de correr en una papa 🥔 de 3Gb de RAM.

# Qwen2.5 0.5b NSFW Amoral Christmas 🎄

<center><a href="https://imgbb.com/"><img src="https://i.ibb.co/f8fBGb4/Amoral-Christmas.gif" alt="Amoral-Christmas" border="0"></a></center>

Le metí un dataset de los picantes, debería generar algún tipo de contenido interesante. Son varios los modelos que he entrenado con este dataset, no es el único. Este modelo tan solo es uno que forma parte de los otros modelos entre los que se encuentran las series Llama, QWEN2.5, Granite y GPT2. Cualquier cosa me dejan un comentario diciendome que experiencia tuvieron o puteandome; ambas opciones son válidas. 

Me voy a brindar, luego lleno esto para que no quede tan ciruja.

🧨 FELIZ NAVIDAD Y PROSPERO AÑO NUEVO 🎇

### Testeo personal del modelo
He probado este modelo en el Colab de Koboldcpp, ha dado buenos resultados. 

Usted puede hacer lo mismo probando el modelo [AQUÍ](https://colab.research.google.com/github/LostRuins/koboldcpp/blob/concedo/colab.ipynb#scrollTo=uJS9i_Dltv8Y)

Sin embargo y por una causa que desconozco no puedo decir lo mismo de mi experiencia con Koboldcpp 1.80.3 de forma local. El modelo escribe incoherencias, cosa que hace tiempo no me ocurría. Ignoro si será cosa del modelo o relacionado con la nueva versión de Koboldcpp.