File size: 1,185 Bytes
aef06f1
add0ece
fc96b33
aef06f1
 
 
fc96b33
 
 
 
aef06f1
fc96b33
 
 
 
 
 
 
 
 
 
aef06f1
 
 
 
fc96b33
add0ece
fc96b33
add0ece
aef06f1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
from fastapi import FastAPI, UploadFile, File
from transformers import AutoModelForCausalLM, AutoTokenizer
import os

app = FastAPI()

# Récupérer le token Hugging Face depuis la variable d’environnement
hf_token = os.getenv("yoyo")
if not hf_token:
    raise ValueError("HF_TOKEN n’est pas défini. Ajoute-le dans les secrets de Hugging Face Spaces.")

# Charger Llama 2 avec le token
model_name = "meta-llama/Llama-2-7b-chat-hf"
tokenizer = AutoTokenizer.from_pretrained(model_name, use_auth_token=hf_token)
model = AutoModelForCausalLM.from_pretrained(model_name, use_auth_token=hf_token)

@app.get("/")
async def root():
    return {"message": "API avec Llama 2 sur Hugging Face Spaces"}

# Endpoint pour résumer un texte
@app.post("/summarization/text")
async def summarize_text(file: UploadFile = File(...)):
    content = await file.read()
    text = content.decode("utf-8")
    prompt = f"Summarize this text in 3 short sentences: {text}"
    inputs = tokenizer(prompt, return_tensors="pt")
    outputs = model.generate(**inputs, max_length=100, num_return_sequences=1)
    summary = tokenizer.decode(outputs[0], skip_special_tokens=True)
    return {"summary": summary}