File size: 451 Bytes
fc3790e
db134f6
fc3790e
db134f6
 
fc3790e
 
db134f6
fc3790e
 
 
 
db134f6
fc3790e
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
import gradio as gr
from llama_cpp import Llama

# gguf形式のモデルファイルのパスを指定してロード
llm = Llama(model_path="Mori-kamiyama/sarashina2-13b-r1/unsloth.Q8_0.gguf")

def generate_text(prompt):
    return llm(prompt)

iface = gr.Interface(fn=generate_text,
                     inputs="text",
                     outputs="text",
                     title="GGUFモデルテキストジェネレーター")

iface.launch()