gmaterni commited on
Commit
669d0be
1 Parent(s): 988e84f

Upload folder using huggingface_hub

Browse files
static/javascript/rag_mgr.js CHANGED
@@ -71,7 +71,7 @@ const Rag = {
71
  ragLog(msg, lftLen, rgtLen) {
72
  const maxl = MAX_PROMPT_LENGTH;
73
  const rspsl = this.responsesLength();
74
- const d = "      ";
75
  let s = `${msg} mx:${maxl} lft:${lftLen} rgt:${rgtLen} arr:${rspsl}`;
76
  xlog(s);
77
  s = `${msg}${d}${lftLen}${d}${rgtLen}${d}${rspsl}`;
 
71
  ragLog(msg, lftLen, rgtLen) {
72
  const maxl = MAX_PROMPT_LENGTH;
73
  const rspsl = this.responsesLength();
74
+ const d = "    ";
75
  let s = `${msg} mx:${maxl} lft:${lftLen} rgt:${rgtLen} arr:${rspsl}`;
76
  xlog(s);
77
  s = `${msg}${d}${lftLen}${d}${rgtLen}${d}${rspsl}`;
static/javascript/rag_prompts.js CHANGED
@@ -1,6 +1,7 @@
1
  /** @format */
2
 
3
  "use strict";
 
4
  function promptDoc(documento, domanda, docName) {
5
  return `
6
  SYSTEM:
@@ -73,21 +74,23 @@ RESPONSE:
73
  `;
74
  }
75
 
 
76
  function promptThread(contesto, conversazione, richiesta) {
77
  return `
78
  SYSTEM:
79
  Sei un assistente AI versatile progettato per gestire conversazioni dinamiche e adattarti a varie richieste. Rispondi sempre in italiano.
80
 
81
  INSTRUCTIONS:
82
- 1. Analizza il contesto, la conversazione precedente e la richiesta attuale.
83
  2. Interpreta l'intento dell'utente senza limitarti a categorie predefinite.
84
  3. Adatta la tua risposta in base all'intento percepito, sia esso una domanda, una richiesta di azione, un'istruzione specifica o altro.
85
- 4. Mantieni la coerenza con il contesto della conversazione.
86
- 5. Adatta tono e stile in base all'interazione, rimanendo professionale ma amichevole.
87
- 6. Fai riferimento a informazioni precedenti quando pertinente.
88
- 7. Se l'intento non è chiaro, chiedi gentilmente chiarimenti.
89
- 8. Sii flessibile: se la richiesta implica un'azione specifica, adattati di conseguenza.
90
- 9. Mantieni un tono oggettivo e uno stile fluido e coerente.
 
91
 
92
  CONTEXT:
93
  <<<BEGIN_CONTEXT>>>
@@ -170,9 +173,9 @@ function getPayloadDoc(prompt) {
170
  inputs: prompt,
171
  parameters: {
172
  task: "text2text-generation",
173
- max_new_tokens: 512,
174
  num_return_sequences: 1,
175
- temperature: 0.5,
176
  top_k: 50,
177
  top_p: 0.7,
178
  do_sample: true,
 
1
  /** @format */
2
 
3
  "use strict";
4
+
5
  function promptDoc(documento, domanda, docName) {
6
  return `
7
  SYSTEM:
 
74
  `;
75
  }
76
 
77
+
78
  function promptThread(contesto, conversazione, richiesta) {
79
  return `
80
  SYSTEM:
81
  Sei un assistente AI versatile progettato per gestire conversazioni dinamiche e adattarti a varie richieste. Rispondi sempre in italiano.
82
 
83
  INSTRUCTIONS:
84
+ 1. Analizza attentamente il contesto, la conversazione precedente e la richiesta attuale.
85
  2. Interpreta l'intento dell'utente senza limitarti a categorie predefinite.
86
  3. Adatta la tua risposta in base all'intento percepito, sia esso una domanda, una richiesta di azione, un'istruzione specifica o altro.
87
+ 4. Mantieni una stretta coerenza con il contesto della conversazione.
88
+ 5. Basa la tua risposta principalmente sulle informazioni fornite nel contesto e nella conversazione.
89
+ 6. Evita divagazioni o argomentazioni non direttamente pertinenti alla richiesta o al contesto.
90
+ 7. Fai riferimento a informazioni precedenti quando sono pertinenti, citando specificamente la fonte.
91
+ 8. Se l'intento non è chiaro, chiedi gentilmente chiarimenti invece di fare supposizioni.
92
+ 9. Sii flessibile: se la richiesta implica un'azione specifica, adattati di conseguenza.
93
+ 10. Se è necessario integrare con conoscenze generali, specifica chiaramente quando lo stai facendo.
94
 
95
  CONTEXT:
96
  <<<BEGIN_CONTEXT>>>
 
173
  inputs: prompt,
174
  parameters: {
175
  task: "text2text-generation",
176
+ max_new_tokens: 1024,
177
  num_return_sequences: 1,
178
+ temperature: 0.6,
179
  top_k: 50,
180
  top_p: 0.7,
181
  do_sample: true,
static/js/ragrqs.min.js CHANGED
@@ -30,8 +30,8 @@ const e=await d.json();if(!d.ok){const g=this.checkError(d.status,e),l=this.crea
30
  along with this program. If not, see <https://www.gnu.org/licenses/>.
31
  */
32
  const MAX_PROMPT_LENGTH=87040,PROMPT_DECR=2048,Rag={ragContext:"",ragQuery:"",ragResponse:"",responses:[],prompts:[],doc:"",doc_part:"",init(){this.readRespsFromDb();this.readFromDb()},saveToDb(){UaDb.saveJson("id_rag",{context:this.ragContext,ragquery:this.ragQuery,ragresponse:this.ragResponse});UaDb.saveArray("id_thread",ThreadMgr.rows)},readFromDb(){const a=UaDb.readJson("id_rag");this.ragContext=a.context||"";this.ragQuery=a.ragquery||"";this.ragResponse=a.ragresponse||"";ThreadMgr.rows=UaDb.readArray("id_thread")},
33
- saveRespToDb(){UaDb.saveArray("id_responses",this.responses)},readRespsFromDb(){this.responses=UaDb.readArray("id_responses")},addPrompt(a){this.prompts.push(a)},responsesLength(){return this.responses.reduce((a,b)=>a+b.length,0)},ragLog(a,b,c){const d=MAX_PROMPT_LENGTH,e=this.responsesLength();xlog(`${a} mx:${d} lft:${b} rgt:${c} arr:${e}`);UaLog.log(`${a}${"&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;"}${b}${"&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;"}${c}${"&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;"}${e}`)},truncInput(a,
34
- b){return a.substring(0,a.length-b)},getPartSize(a,b,c){c=MAX_PROMPT_LENGTH-c;a.length+b.length<c?c=a.length:(a=a.indexOf(".",c),a=(-1!=a?a:c)+1,a>c+100&&(a=c),c=a);return c},getPartDoc(a,b){const c=a.substring(0,b);a=a.substring(b).trim();return[c,a]},errorInfo(a){return JSON.parse(a.message)},errorTotext(a){a=JSON.parse(a.message);return`Errore:
35
  Stato: ${a.status}
36
  Descrizione stato: ${a.statusText}
37
  Tipo di errore: ${a.errorType}
@@ -110,15 +110,16 @@ SYSTEM:
110
  Sei un assistente AI versatile progettato per gestire conversazioni dinamiche e adattarti a varie richieste. Rispondi sempre in italiano.
111
 
112
  INSTRUCTIONS:
113
- 1. Analizza il contesto, la conversazione precedente e la richiesta attuale.
114
  2. Interpreta l'intento dell'utente senza limitarti a categorie predefinite.
115
  3. Adatta la tua risposta in base all'intento percepito, sia esso una domanda, una richiesta di azione, un'istruzione specifica o altro.
116
- 4. Mantieni la coerenza con il contesto della conversazione.
117
- 5. Adatta tono e stile in base all'interazione, rimanendo professionale ma amichevole.
118
- 6. Fai riferimento a informazioni precedenti quando pertinente.
119
- 7. Se l'intento non \u00e8 chiaro, chiedi gentilmente chiarimenti.
120
- 8. Sii flessibile: se la richiesta implica un'azione specifica, adattati di conseguenza.
121
- 9. Mantieni un tono oggettivo e uno stile fluido e coerente.
 
122
 
123
  CONTEXT:
124
  <<<BEGIN_CONTEXT>>>
@@ -139,7 +140,7 @@ OUTPUT_FORMAT:
139
  - Evita qualsiasi tipo di etichetta o marcatori speciali.
140
 
141
  RESPONSE:
142
- `}function getPayloadDoc(a){return{inputs:a,parameters:{task:"text2text-generation",max_new_tokens:512,num_return_sequences:1,temperature:.5,top_k:50,top_p:.7,do_sample:!0,no_repeat_ngram_size:4,num_beams:5,repetition_penalty:1.4,return_full_text:!1,details:!1,max_time:90,seed:42},options:{use_cache:!1,wait_for_model:!0}}}
143
  function getPayloadWithContext(a){return{inputs:a,parameters:{task:"text-generation",max_new_tokens:1024,num_return_sequences:1,temperature:.6,top_k:50,top_p:.7,do_sample:!0,no_repeat_ngram_size:4,num_beams:5,repetition_penalty:1.4,return_full_text:!1,details:!1,max_time:120,seed:42},options:{use_cache:!1,wait_for_model:!0}}}
144
  function getPayloadThread(a){return{inputs:a,parameters:{task:"text-generation",max_new_tokens:1024,num_return_sequences:1,temperature:.6,top_k:50,top_p:.7,do_sample:!0,no_repeat_ngram_size:43,num_beams:5,repetition_penalty:1.4,return_full_text:!1,details:!1,max_time:120,seed:42},options:{use_cache:!1,wait_for_model:!0}}};const VERS="0.1.40 (28-07-2024)";var xlog=console.log,xerror=console.error;const cancelRequest=()=>{confirm("Confermi Cancellazione Richeista ?")&&(HfRequest.cancelRequest(),hideSpinner())},showSpinner=()=>{const a=document.getElementById("spinner");a.classList.add("show-spinner");a.addEventListener("click",cancelRequest)},hideSpinner=()=>{const a=document.getElementById("spinner");a.classList.remove("show-spinner");a.removeEventListener("click",cancelRequest)};
145
  function openApp(){wnds.init();Menu.init();TextInput.init();TextOutput.init();Rag.init();document.querySelector(".menu-btn").checked=!1;release()}function release(){document.querySelector(".release").innerHTML=VERS}const op0=async function(a){a=await requestGet("./help1.html");wnds.wdiv.show(a)};function showQuery(a){wnds.wpre.show(`\n${Rag.ragQuery}`)}function showRagResponse(a){wnds.wpre.show(`\n${Rag.ragResponse}`)}function showThread(a){a=ThreadMgr.getOutText();wnds.wpre.show(a)}
 
30
  along with this program. If not, see <https://www.gnu.org/licenses/>.
31
  */
32
  const MAX_PROMPT_LENGTH=87040,PROMPT_DECR=2048,Rag={ragContext:"",ragQuery:"",ragResponse:"",responses:[],prompts:[],doc:"",doc_part:"",init(){this.readRespsFromDb();this.readFromDb()},saveToDb(){UaDb.saveJson("id_rag",{context:this.ragContext,ragquery:this.ragQuery,ragresponse:this.ragResponse});UaDb.saveArray("id_thread",ThreadMgr.rows)},readFromDb(){const a=UaDb.readJson("id_rag");this.ragContext=a.context||"";this.ragQuery=a.ragquery||"";this.ragResponse=a.ragresponse||"";ThreadMgr.rows=UaDb.readArray("id_thread")},
33
+ saveRespToDb(){UaDb.saveArray("id_responses",this.responses)},readRespsFromDb(){this.responses=UaDb.readArray("id_responses")},addPrompt(a){this.prompts.push(a)},responsesLength(){return this.responses.reduce((a,b)=>a+b.length,0)},ragLog(a,b,c){const d=MAX_PROMPT_LENGTH,e=this.responsesLength();xlog(`${a} mx:${d} lft:${b} rgt:${c} arr:${e}`);UaLog.log(`${a}${"&nbsp;&nbsp;&nbsp;&nbsp;"}${b}${"&nbsp;&nbsp;&nbsp;&nbsp;"}${c}${"&nbsp;&nbsp;&nbsp;&nbsp;"}${e}`)},truncInput(a,b){return a.substring(0,a.length-
34
+ b)},getPartSize(a,b,c){c=MAX_PROMPT_LENGTH-c;a.length+b.length<c?c=a.length:(a=a.indexOf(".",c),a=(-1!=a?a:c)+1,a>c+100&&(a=c),c=a);return c},getPartDoc(a,b){const c=a.substring(0,b);a=a.substring(b).trim();return[c,a]},errorInfo(a){return JSON.parse(a.message)},errorTotext(a){a=JSON.parse(a.message);return`Errore:
35
  Stato: ${a.status}
36
  Descrizione stato: ${a.statusText}
37
  Tipo di errore: ${a.errorType}
 
110
  Sei un assistente AI versatile progettato per gestire conversazioni dinamiche e adattarti a varie richieste. Rispondi sempre in italiano.
111
 
112
  INSTRUCTIONS:
113
+ 1. Analizza attentamente il contesto, la conversazione precedente e la richiesta attuale.
114
  2. Interpreta l'intento dell'utente senza limitarti a categorie predefinite.
115
  3. Adatta la tua risposta in base all'intento percepito, sia esso una domanda, una richiesta di azione, un'istruzione specifica o altro.
116
+ 4. Mantieni una stretta coerenza con il contesto della conversazione.
117
+ 5. Basa la tua risposta principalmente sulle informazioni fornite nel contesto e nella conversazione.
118
+ 6. Evita divagazioni o argomentazioni non direttamente pertinenti alla richiesta o al contesto.
119
+ 7. Fai riferimento a informazioni precedenti quando sono pertinenti, citando specificamente la fonte.
120
+ 8. Se l'intento non \u00e8 chiaro, chiedi gentilmente chiarimenti invece di fare supposizioni.
121
+ 9. Sii flessibile: se la richiesta implica un'azione specifica, adattati di conseguenza.
122
+ 10. Se \u00e8 necessario integrare con conoscenze generali, specifica chiaramente quando lo stai facendo.
123
 
124
  CONTEXT:
125
  <<<BEGIN_CONTEXT>>>
 
140
  - Evita qualsiasi tipo di etichetta o marcatori speciali.
141
 
142
  RESPONSE:
143
+ `}function getPayloadDoc(a){return{inputs:a,parameters:{task:"text2text-generation",max_new_tokens:1024,num_return_sequences:1,temperature:.6,top_k:50,top_p:.7,do_sample:!0,no_repeat_ngram_size:4,num_beams:5,repetition_penalty:1.4,return_full_text:!1,details:!1,max_time:90,seed:42},options:{use_cache:!1,wait_for_model:!0}}}
144
  function getPayloadWithContext(a){return{inputs:a,parameters:{task:"text-generation",max_new_tokens:1024,num_return_sequences:1,temperature:.6,top_k:50,top_p:.7,do_sample:!0,no_repeat_ngram_size:4,num_beams:5,repetition_penalty:1.4,return_full_text:!1,details:!1,max_time:120,seed:42},options:{use_cache:!1,wait_for_model:!0}}}
145
  function getPayloadThread(a){return{inputs:a,parameters:{task:"text-generation",max_new_tokens:1024,num_return_sequences:1,temperature:.6,top_k:50,top_p:.7,do_sample:!0,no_repeat_ngram_size:43,num_beams:5,repetition_penalty:1.4,return_full_text:!1,details:!1,max_time:120,seed:42},options:{use_cache:!1,wait_for_model:!0}}};const VERS="0.1.40 (28-07-2024)";var xlog=console.log,xerror=console.error;const cancelRequest=()=>{confirm("Confermi Cancellazione Richeista ?")&&(HfRequest.cancelRequest(),hideSpinner())},showSpinner=()=>{const a=document.getElementById("spinner");a.classList.add("show-spinner");a.addEventListener("click",cancelRequest)},hideSpinner=()=>{const a=document.getElementById("spinner");a.classList.remove("show-spinner");a.removeEventListener("click",cancelRequest)};
146
  function openApp(){wnds.init();Menu.init();TextInput.init();TextOutput.init();Rag.init();document.querySelector(".menu-btn").checked=!1;release()}function release(){document.querySelector(".release").innerHTML=VERS}const op0=async function(a){a=await requestGet("./help1.html");wnds.wdiv.show(a)};function showQuery(a){wnds.wpre.show(`\n${Rag.ragQuery}`)}function showRagResponse(a){wnds.wpre.show(`\n${Rag.ragResponse}`)}function showThread(a){a=ThreadMgr.getOutText();wnds.wpre.show(a)}