Spaces:
Running
Running
All Ready
Browse files- app.py +1 -2
- funciones.py +1 -3
- globales.py +1 -1
- herramientas.py +0 -1
app.py
CHANGED
@@ -8,8 +8,7 @@ from fastapi.responses import StreamingResponse, FileResponse
|
|
8 |
app = FastAPI()
|
9 |
|
10 |
@app.post("/echo-image/",
|
11 |
-
|
12 |
-
description="Descripción",
|
13 |
summary="Summary"
|
14 |
)
|
15 |
async def echo_image(image: UploadFile = File(...)):
|
|
|
8 |
app = FastAPI()
|
9 |
|
10 |
@app.post("/echo-image/",
|
11 |
+
description="Test endpoint que recibe y regresa la misma imagen, para probar envío, recepción y problemas con api o red.",
|
|
|
12 |
summary="Summary"
|
13 |
)
|
14 |
async def echo_image(image: UploadFile = File(...)):
|
funciones.py
CHANGED
@@ -48,7 +48,6 @@ def genera_platillo_inference(platillo):
|
|
48 |
|
49 |
print("Proveedor:", globales.proveedor)
|
50 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
51 |
-
|
52 |
modelo = modelo_actual
|
53 |
|
54 |
print("Modelo:", modelo)
|
@@ -73,8 +72,7 @@ def genera_platillo_inference(platillo):
|
|
73 |
print("GATEWAY TIME-OUT 💀")
|
74 |
modelo=globales.inferencia_backup
|
75 |
#Escribe en txt el nuevo modelo.
|
76 |
-
herramientas.modificaModeloActual(modelo)
|
77 |
-
|
78 |
return f"Error: {e}"
|
79 |
|
80 |
img_io = io.BytesIO()
|
|
|
48 |
|
49 |
print("Proveedor:", globales.proveedor)
|
50 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
|
|
51 |
modelo = modelo_actual
|
52 |
|
53 |
print("Modelo:", modelo)
|
|
|
72 |
print("GATEWAY TIME-OUT 💀")
|
73 |
modelo=globales.inferencia_backup
|
74 |
#Escribe en txt el nuevo modelo.
|
75 |
+
herramientas.modificaModeloActual(modelo)
|
|
|
76 |
return f"Error: {e}"
|
77 |
|
78 |
img_io = io.BytesIO()
|
globales.py
CHANGED
@@ -8,7 +8,7 @@ espacio = "black-forest-labs/FLUX.1-schnell"
|
|
8 |
inferencia = "black-forest-labs/FLUX.1-dev"
|
9 |
inferencia_backup = "black-forest-labs/FLUX.1-schnell"
|
10 |
|
11 |
-
proveedor = "hf-inference"
|
12 |
|
13 |
work_cost = 6
|
14 |
|
|
|
8 |
inferencia = "black-forest-labs/FLUX.1-dev"
|
9 |
inferencia_backup = "black-forest-labs/FLUX.1-schnell"
|
10 |
|
11 |
+
proveedor = "hf-inference" #falai
|
12 |
|
13 |
work_cost = 6
|
14 |
|
herramientas.py
CHANGED
@@ -103,7 +103,6 @@ def modificaModeloActual(nuevo_modelo):
|
|
103 |
problemas con el actual.
|
104 |
"""
|
105 |
|
106 |
-
print("Estoy en actualiza modelo actual...")
|
107 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
108 |
conexion_firebase.editaDato('nowme', 'huggingface', 'modelo_actual', nuevo_modelo)
|
109 |
print(f"Se actualizó el modelo actual: {modelo_actual} por {nuevo_modelo}.")
|
|
|
103 |
problemas con el actual.
|
104 |
"""
|
105 |
|
|
|
106 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
107 |
conexion_firebase.editaDato('nowme', 'huggingface', 'modelo_actual', nuevo_modelo)
|
108 |
print(f"Se actualizó el modelo actual: {modelo_actual} por {nuevo_modelo}.")
|