File size: 1,218 Bytes
7983148
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
import gradio as gr
import os
from transformers import pipeline

# Usa um modelo gratuito da Hugging Face (Llama 3 Instruct, ótimo para instruções)
gerador = pipeline(
    "text-generation", 
    model="meta-llama/Meta-Llama-3-8B-Instruct",
    token=os.getenv("HF_TOKEN"),  # opcional se estiver rodando via HF Spaces
    max_new_tokens=4000,
    temperature=0.6
)

def responder_como_aldo(pergunta):
    prompt = f"""
Você é o professor Dr. Aldo Henrique, especialista em C, Java, desenvolvimento web e inteligência artificial.
Explique com clareza, profundidade e tom acadêmico, como um professor experiente orientaria um aluno.
Pergunta: {pergunta}
Resposta:"""

    resposta = gerador(prompt)[0]["generated_text"]
    # Remove o prompt da resposta, retornando só a parte útil
    return resposta.split("Resposta:")[-1].strip()

# Interface Gradio
interface = gr.Interface(
    fn=responder_como_aldo,
    inputs=gr.Textbox(lines=4, label="Sua pergunta para o Dr. Aldo Henrique"),
    outputs=gr.Textbox(label="Resposta"),
    title="Pergunte ao Dr. Aldo Henrique",
    description="Dúvidas sobre C, Java, desenvolvimento web ou IA? O Dr. Aldo responde com clareza e profundidade."
)

interface.launch()