Update app.py
Browse files
app.py
CHANGED
|
@@ -42,9 +42,8 @@ def get_system_tokens(model):
|
|
| 42 |
return get_message_tokens(model, **system_message)
|
| 43 |
|
| 44 |
|
| 45 |
-
repo_name = "TheBloke/
|
| 46 |
-
model_name = "
|
| 47 |
-
|
| 48 |
snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
|
| 49 |
|
| 50 |
model = Llama(
|
|
@@ -104,7 +103,7 @@ with gr.Blocks(
|
|
| 104 |
) as demo:
|
| 105 |
gr.Markdown(f"""<h1><center>上师附外-安风-人工智能助理</center></h1>""")
|
| 106 |
gr.Markdown(value="""这儿是一个中文模型的部署。
|
| 107 |
-
这是量化版安风的部署,具有
|
| 108 |
Ventipacifier 是一种会话语言模型,在多种类型的语料库上进行训练。
|
| 109 |
本节目由上海师范大学附属外国语中学 NLPark 赞助播出""")
|
| 110 |
|
|
|
|
| 42 |
return get_message_tokens(model, **system_message)
|
| 43 |
|
| 44 |
|
| 45 |
+
repo_name = "TheBloke/CausalLM-14B-GGUF"
|
| 46 |
+
model_name = "causallm_14b.Q4_1.gguf"
|
|
|
|
| 47 |
snapshot_download(repo_id=repo_name, local_dir=".", allow_patterns=model_name)
|
| 48 |
|
| 49 |
model = Llama(
|
|
|
|
| 103 |
) as demo:
|
| 104 |
gr.Markdown(f"""<h1><center>上师附外-安风-人工智能助理</center></h1>""")
|
| 105 |
gr.Markdown(value="""这儿是一个中文模型的部署。
|
| 106 |
+
这是量化版安风的部署,具有 140亿 个参数,在 CPU 上运行。
|
| 107 |
Ventipacifier 是一种会话语言模型,在多种类型的语料库上进行训练。
|
| 108 |
本节目由上海师范大学附属外国语中学 NLPark 赞助播出""")
|
| 109 |
|