import gradio as gr import operator import torch import os from transformers import BertTokenizer, BertForMaskedLM # 使用私有模型和分詞器 model_name_or_path = "DeepLearning101/Corrector101zhTW" auth_token = os.getenv("HF_HOME") # 嘗試加載模型和分詞器 try: tokenizer = BertTokenizer.from_pretrained(model_name_or_path, use_auth_token=auth_token) model = BertForMaskedLM.from_pretrained(model_name_or_path, use_auth_token=auth_token) model.eval() except Exception as e: print(f"加載模型或分詞器失敗,錯誤信息:{e}") exit(1) def ai_text(text): """處理輸入文本並返回修正後的文本及錯誤細節""" with torch.no_grad(): inputs = tokenizer(text, return_tensors="pt", padding=True) outputs = model(**inputs) corrected_text, details = get_errors(text, outputs) return corrected_text + ' ' + str(details) def get_errors(text, outputs): """識別原始文本和模型輸出之間的差異""" sub_details = [] corrected_text = tokenizer.decode(torch.argmax(outputs.logits[0], dim=-1), skip_special_tokens=True).replace(' ', '') for i, ori_char in enumerate(text): if ori_char in [' ', '“', '”', '‘', '’', '琊', '\n', '…', '—', '擤']: continue if i >= len(corrected_text): continue if ori_char != corrected_text[i]: sub_details.append((ori_char, corrected_text[i], i, i + 1)) sub_details = sorted(sub_details, key=operator.itemgetter(2)) return corrected_text, sub_details if __name__ == '__main__': examples = [ ['你究輸入利的手機門號跟生分證就可以了。'], ['這裡是客服中新,很高性為您服物,請問金天有什麼須要幫忙'], ['因為我們這邊是按天術比例計蒜給您的,其實不會有態大的穎響。也就是您用前面的資非的廢率來做計算'], ['我來看以下,他的時價是多少?起實您就可以直皆就不用到門事'], ['因為你現在月富是六九九嘛,我幫擬減衣百塊,兒且也不會江速'], ] gr.Interface( fn=ai_text, inputs=gr.Textbox(lines=2, label="欲校正的文字"), outputs=gr.Textbox(lines=2, label="修正後的文字"), title="

客服ASR文本AI糾錯系統

", description="""

deep-learning-101.github.io | AI | TonTon Huang Ph.D. | 手把手帶你一起踩AI坑


輸入ASR文本,糾正同音字/詞錯誤
Deep Learning 101 Github | Deep Learning 101 | 台灣人工智慧社團 FB | YouTube
AI 陪伴機器人:2025 趨勢分析技術突破、市場潛力與未來展望 | 金融科技新浪潮:生成式 AI (GenAI) 應用場景、效益與導入挑戰
避開 AI Agent 開發陷阱:常見問題、挑戰與解決方案 (實戰經驗):探討多種 AI 代理人工具的應用經驗與挑戰,分享實用經驗與工具推薦。
白話文手把手帶你科普 GenAI:淺顯介紹生成式人工智慧核心概念,強調硬體資源和數據的重要性。
大型語言模型直接就打完收工?:回顧 LLM 領域探索歷程,討論硬體升級對 AI 開發的重要性。
檢索增強生成不是萬靈丹:挑戰與優化技巧:探討 RAG 技術應用與挑戰,提供實用經驗分享和工具建議。
大型語言模型 (LLM) 入門完整指南:原理、應用與未來 (2025 版):探討多種 LLM 工具的應用與挑戰,強調硬體資源的重要性。
解析探索大型語言模型:模型發展歷史、訓練及微調技術的 VRAM 估算:探討 LLM 的發展與應用,強調硬體資源在開發中的關鍵作用。。
Diffusion Model 完全解析:從原理、應用到實作 (AI 圖像生成):深入探討影像生成與分割技術的應用,強調硬體資源的重要性。
ASR/TTS 開發避坑指南:語音辨識與合成的常見挑戰與對策:探討 ASR 和 TTS 技術應用中的問題,強調數據質量的重要性。
那些自然語言處理 (Natural Language Processing, NLP) 踩的坑:分享 NLP 領域的實踐經驗,強調數據質量對模型效果的影響。
那些語音處理 (Speech Processing) 踩的坑:分享語音處理領域的實務經驗,強調資料品質對模型效果的影響。
用PPOCRLabel來幫PaddleOCR做OCR的微調和標註
基於機器閱讀理解和指令微調的統一信息抽取框架之診斷書醫囑資訊擷取分析
Masked Language Model (MLM) as correction BERT""", examples=examples ).launch()