Spaces:
Running
Running
All Ready
Browse files- app.py +1 -2
- funciones.py +1 -3
- globales.py +1 -1
- herramientas.py +0 -1
app.py
CHANGED
|
@@ -8,8 +8,7 @@ from fastapi.responses import StreamingResponse, FileResponse
|
|
| 8 |
app = FastAPI()
|
| 9 |
|
| 10 |
@app.post("/echo-image/",
|
| 11 |
-
|
| 12 |
-
description="Descripci贸n",
|
| 13 |
summary="Summary"
|
| 14 |
)
|
| 15 |
async def echo_image(image: UploadFile = File(...)):
|
|
|
|
| 8 |
app = FastAPI()
|
| 9 |
|
| 10 |
@app.post("/echo-image/",
|
| 11 |
+
description="Test endpoint que recibe y regresa la misma imagen, para probar env铆o, recepci贸n y problemas con api o red.",
|
|
|
|
| 12 |
summary="Summary"
|
| 13 |
)
|
| 14 |
async def echo_image(image: UploadFile = File(...)):
|
funciones.py
CHANGED
|
@@ -48,7 +48,6 @@ def genera_platillo_inference(platillo):
|
|
| 48 |
|
| 49 |
print("Proveedor:", globales.proveedor)
|
| 50 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
| 51 |
-
|
| 52 |
modelo = modelo_actual
|
| 53 |
|
| 54 |
print("Modelo:", modelo)
|
|
@@ -73,8 +72,7 @@ def genera_platillo_inference(platillo):
|
|
| 73 |
print("GATEWAY TIME-OUT 馃拃")
|
| 74 |
modelo=globales.inferencia_backup
|
| 75 |
#Escribe en txt el nuevo modelo.
|
| 76 |
-
herramientas.modificaModeloActual(modelo)
|
| 77 |
-
|
| 78 |
return f"Error: {e}"
|
| 79 |
|
| 80 |
img_io = io.BytesIO()
|
|
|
|
| 48 |
|
| 49 |
print("Proveedor:", globales.proveedor)
|
| 50 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
|
|
|
| 51 |
modelo = modelo_actual
|
| 52 |
|
| 53 |
print("Modelo:", modelo)
|
|
|
|
| 72 |
print("GATEWAY TIME-OUT 馃拃")
|
| 73 |
modelo=globales.inferencia_backup
|
| 74 |
#Escribe en txt el nuevo modelo.
|
| 75 |
+
herramientas.modificaModeloActual(modelo)
|
|
|
|
| 76 |
return f"Error: {e}"
|
| 77 |
|
| 78 |
img_io = io.BytesIO()
|
globales.py
CHANGED
|
@@ -8,7 +8,7 @@ espacio = "black-forest-labs/FLUX.1-schnell"
|
|
| 8 |
inferencia = "black-forest-labs/FLUX.1-dev"
|
| 9 |
inferencia_backup = "black-forest-labs/FLUX.1-schnell"
|
| 10 |
|
| 11 |
-
proveedor = "hf-inference"
|
| 12 |
|
| 13 |
work_cost = 6
|
| 14 |
|
|
|
|
| 8 |
inferencia = "black-forest-labs/FLUX.1-dev"
|
| 9 |
inferencia_backup = "black-forest-labs/FLUX.1-schnell"
|
| 10 |
|
| 11 |
+
proveedor = "hf-inference" #falai
|
| 12 |
|
| 13 |
work_cost = 6
|
| 14 |
|
herramientas.py
CHANGED
|
@@ -103,7 +103,6 @@ def modificaModeloActual(nuevo_modelo):
|
|
| 103 |
problemas con el actual.
|
| 104 |
"""
|
| 105 |
|
| 106 |
-
print("Estoy en actualiza modelo actual...")
|
| 107 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
| 108 |
conexion_firebase.editaDato('nowme', 'huggingface', 'modelo_actual', nuevo_modelo)
|
| 109 |
print(f"Se actualiz贸 el modelo actual: {modelo_actual} por {nuevo_modelo}.")
|
|
|
|
| 103 |
problemas con el actual.
|
| 104 |
"""
|
| 105 |
|
|
|
|
| 106 |
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
| 107 |
conexion_firebase.editaDato('nowme', 'huggingface', 'modelo_actual', nuevo_modelo)
|
| 108 |
print(f"Se actualiz贸 el modelo actual: {modelo_actual} por {nuevo_modelo}.")
|