Spaces:
Sleeping
Sleeping
Remove obtenModeloActual
Browse files- funciones.py +3 -5
funciones.py
CHANGED
|
@@ -3,6 +3,7 @@ import globales
|
|
| 3 |
import herramientas
|
| 4 |
import gradio_client
|
| 5 |
from huggingface_hub import InferenceClient
|
|
|
|
| 6 |
|
| 7 |
def genera_platillo_gpu(platillo):
|
| 8 |
|
|
@@ -46,13 +47,10 @@ def genera_platillo_gpu(platillo):
|
|
| 46 |
def genera_platillo_inference(platillo):
|
| 47 |
|
| 48 |
print("Proveedor:", globales.proveedor)
|
| 49 |
-
modelo_actual =
|
| 50 |
-
|
| 51 |
-
#modelo = globales.inferencia
|
| 52 |
-
|
| 53 |
modelo = modelo_actual
|
| 54 |
|
| 55 |
-
|
| 56 |
print("Modelo:", modelo)
|
| 57 |
|
| 58 |
prompt = globales.previo + platillo
|
|
|
|
| 3 |
import herramientas
|
| 4 |
import gradio_client
|
| 5 |
from huggingface_hub import InferenceClient
|
| 6 |
+
import conexion_firebase
|
| 7 |
|
| 8 |
def genera_platillo_gpu(platillo):
|
| 9 |
|
|
|
|
| 47 |
def genera_platillo_inference(platillo):
|
| 48 |
|
| 49 |
print("Proveedor:", globales.proveedor)
|
| 50 |
+
modelo_actual = conexion_firebase.obtenDato('nowme', 'huggingface', 'modelo_actual')
|
| 51 |
+
|
|
|
|
|
|
|
| 52 |
modelo = modelo_actual
|
| 53 |
|
|
|
|
| 54 |
print("Modelo:", modelo)
|
| 55 |
|
| 56 |
prompt = globales.previo + platillo
|