Spaces:
Sleeping
Sleeping
import gradio as gr | |
from transformers import BlipProcessor, BlipForConditionalGeneration | |
from PIL import Image | |
import requests | |
# Carregar o modelo e o processador BLIP | |
processor = BlipProcessor.from_pretrained("Salesforce/blip-image-captioning-base") | |
model = BlipForConditionalGeneration.from_pretrained("Salesforce/blip-image-captioning-base") | |
def interpret_image(image): | |
# Converter a imagem para o formato PIL se necessário | |
if isinstance(image, str): | |
image = Image.open(requests.get(image, stream=True).raw) | |
# Processar a imagem e gerar a descrição | |
inputs = processor(image, return_tensors="pt") | |
out = model.generate(**inputs) | |
# Decodificar a saída para texto | |
description = processor.decode(out[0], skip_special_tokens=True) | |
return description | |
# Interface Gradio | |
iface = gr.Interface( | |
fn=interpret_image, | |
inputs=gr.Image(type="pil", label="Upload uma imagem"), | |
outputs=gr.Textbox(label="Descrição da Imagem"), | |
title="Interpretação de Imagens com BLIP", | |
description="Carregue uma imagem e o modelo BLIP irá gerar uma descrição." | |
) | |
# Iniciar o aplicativo | |
iface.launch() |