ArissBandoss's picture
Update goai_helpers/goai_traduction.py
4302c2b verified
raw
history blame
1.95 kB
import torch
import spaces
from transformers import pipeline, AutoModelForSeq2SeqLM, AutoTokenizer
from peft import PeftModel, PeftConfig
import os
import unicodedata
from huggingface_hub import login
max_length = 512
auth_token = os.getenv('HF_SPACE_TOKEN')
login(token=auth_token)
@spaces.GPU
def goai_traduction(text, src_lang, tgt_lang):
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
if src_lang == "fra_Latn" and tgt_lang == "mos_Latn":
model_id = "ArissBandoss/nllb-200-distilled-600M-finetuned-fr-to-mos-V4"
elif src_lang == "mos_Latn" and tgt_lang == "fra_Latn":
model_id = "ArissBandoss/mos2fr-3B-1200"
else:
model_id = "ArissBandoss/nllb-200-distilled-600M-finetuned-fr-to-mos-V4"
tokenizer = AutoTokenizer.from_pretrained(model_id, token=auth_token)
model = AutoModelForSeq2SeqLM.from_pretrained(model_id, token=auth_token).to(device)
# Ajout du code de langue source
tokenizer.src_lang = src_lang
# Tokenisation du texte d'entrée
inputs = tokenizer(text, return_tensors="pt").to(device)
# Utilisation de convert_tokens_to_ids au lieu de lang_code_to_id
tgt_lang_id = tokenizer.convert_tokens_to_ids(tgt_lang)
# Génération avec paramètres améliorés
outputs = model.generate(
**inputs,
forced_bos_token_id=tgt_lang_id,
max_new_tokens=1024,
bad_words_ids=None, # Évite de bloquer des tokens spécifiques
no_repeat_ngram_size=0 # Désactive la pénalité pour les répétitions
)
# Décodage de la sortie
translation = tokenizer.batch_decode(outputs, skip_special_tokens=True)[0]
print("ici translation")
print(translation)
translation = unicodedata.normalize('NFC', translation)
return translation
def real_time_traduction(input_text, src_lang, tgt_lang):
return goai_traduction(input_text, src_lang, tgt_lang)