akhaliq HF staff commited on
Commit
793e72e
1 Parent(s): d878ab1

move meta to first tab

Browse files
Files changed (1) hide show
  1. app.py +39 -39
app.py CHANGED
@@ -12,6 +12,45 @@ import fireworks_gradio
12
 
13
 
14
  with gr.Blocks(fill_height=True) as demo:
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
15
  with gr.Tab("Gemini"):
16
  with gr.Row():
17
  gemini_model = gr.Dropdown(
@@ -126,45 +165,6 @@ with gr.Blocks(fill_height=True) as demo:
126
  inputs=[claude_model],
127
  outputs=[claude_interface]
128
  )
129
- with gr.Tab("Meta Llama"):
130
- with gr.Row():
131
- llama_model = gr.Dropdown(
132
- choices=[
133
- 'Meta-Llama-3.2-1B-Instruct', # Llama 3.2 1B
134
- 'Meta-Llama-3.2-3B-Instruct', # Llama 3.2 3B
135
- 'Llama-3.2-11B-Vision-Instruct', # Llama 3.2 11B
136
- 'Llama-3.2-90B-Vision-Instruct', # Llama 3.2 90B
137
- 'Meta-Llama-3.1-8B-Instruct', # Llama 3.1 8B
138
- 'Meta-Llama-3.1-70B-Instruct', # Llama 3.1 70B
139
- 'Meta-Llama-3.1-405B-Instruct' # Llama 3.1 405B
140
- ],
141
- value='Llama-3.2-90B-Vision-Instruct', # Default to the most advanced model
142
- label="Select Llama Model",
143
- interactive=True
144
- )
145
-
146
- llama_interface = gr.load(
147
- name=llama_model.value,
148
- src=sambanova_gradio.registry,
149
- multimodal=True,
150
- fill_height=True
151
- )
152
-
153
- def update_llama_model(new_model):
154
- return gr.load(
155
- name=new_model,
156
- src=sambanova_gradio.registry,
157
- multimodal=True,
158
- fill_height=True
159
- )
160
-
161
- llama_model.change(
162
- fn=update_llama_model,
163
- inputs=[llama_model],
164
- outputs=[llama_interface]
165
- )
166
-
167
- gr.Markdown("**Note:** You need to use a SambaNova API key from [SambaNova Cloud](https://cloud.sambanova.ai/).")
168
  with gr.Tab("Grok"):
169
  gr.load(
170
  name='grok-beta',
 
12
 
13
 
14
  with gr.Blocks(fill_height=True) as demo:
15
+ with gr.Tab("Meta Llama"):
16
+ with gr.Row():
17
+ llama_model = gr.Dropdown(
18
+ choices=[
19
+ 'Meta-Llama-3.2-1B-Instruct', # Llama 3.2 1B
20
+ 'Meta-Llama-3.2-3B-Instruct', # Llama 3.2 3B
21
+ 'Llama-3.2-11B-Vision-Instruct', # Llama 3.2 11B
22
+ 'Llama-3.2-90B-Vision-Instruct', # Llama 3.2 90B
23
+ 'Meta-Llama-3.1-8B-Instruct', # Llama 3.1 8B
24
+ 'Meta-Llama-3.1-70B-Instruct', # Llama 3.1 70B
25
+ 'Meta-Llama-3.1-405B-Instruct' # Llama 3.1 405B
26
+ ],
27
+ value='Llama-3.2-90B-Vision-Instruct', # Default to the most advanced model
28
+ label="Select Llama Model",
29
+ interactive=True
30
+ )
31
+
32
+ llama_interface = gr.load(
33
+ name=llama_model.value,
34
+ src=sambanova_gradio.registry,
35
+ multimodal=True,
36
+ fill_height=True
37
+ )
38
+
39
+ def update_llama_model(new_model):
40
+ return gr.load(
41
+ name=new_model,
42
+ src=sambanova_gradio.registry,
43
+ multimodal=True,
44
+ fill_height=True
45
+ )
46
+
47
+ llama_model.change(
48
+ fn=update_llama_model,
49
+ inputs=[llama_model],
50
+ outputs=[llama_interface]
51
+ )
52
+
53
+ gr.Markdown("**Note:** You need to use a SambaNova API key from [SambaNova Cloud](https://cloud.sambanova.ai/).")
54
  with gr.Tab("Gemini"):
55
  with gr.Row():
56
  gemini_model = gr.Dropdown(
 
165
  inputs=[claude_model],
166
  outputs=[claude_interface]
167
  )
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
168
  with gr.Tab("Grok"):
169
  gr.load(
170
  name='grok-beta',