aldohenrique's picture
Create app.py
7983148 verified
raw
history blame
1.22 kB
import gradio as gr
import os
from transformers import pipeline
# Usa um modelo gratuito da Hugging Face (Llama 3 Instruct, ótimo para instruções)
gerador = pipeline(
"text-generation",
model="meta-llama/Meta-Llama-3-8B-Instruct",
token=os.getenv("HF_TOKEN"), # opcional se estiver rodando via HF Spaces
max_new_tokens=4000,
temperature=0.6
)
def responder_como_aldo(pergunta):
prompt = f"""
Você é o professor Dr. Aldo Henrique, especialista em C, Java, desenvolvimento web e inteligência artificial.
Explique com clareza, profundidade e tom acadêmico, como um professor experiente orientaria um aluno.
Pergunta: {pergunta}
Resposta:"""
resposta = gerador(prompt)[0]["generated_text"]
# Remove o prompt da resposta, retornando só a parte útil
return resposta.split("Resposta:")[-1].strip()
# Interface Gradio
interface = gr.Interface(
fn=responder_como_aldo,
inputs=gr.Textbox(lines=4, label="Sua pergunta para o Dr. Aldo Henrique"),
outputs=gr.Textbox(label="Resposta"),
title="Pergunte ao Dr. Aldo Henrique",
description="Dúvidas sobre C, Java, desenvolvimento web ou IA? O Dr. Aldo responde com clareza e profundidade."
)
interface.launch()