File size: 3,166 Bytes
6151397
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
# 🔧 ZeroGPU Plan Pro Fix - NTIA Space

## 📋 Problema Resuelto

El Space NTIA estaba usando el **plan gratuito de ZeroGPU** (`gpu.t4.micro`) en lugar del **plan Pro** (`gpu.h200.micro`), causando errores "GPU task aborted".

## ✅ Correcciones Implementadas

### 1. **Decoradores ZeroGPU Corregidos**

**Antes:**
```python
@spaces.GPU(compute_unit="gpu.t4.micro", timeout=30)
@spaces.GPU(compute_unit="gpu.t4.micro", timeout=60)
```

**Después:**
```python
@spaces.GPU(compute_unit="gpu.h200.micro", timeout=30)  # Plan Pro: H200
@spaces.GPU(compute_unit="gpu.h200.micro", timeout=60)  # Plan Pro: H200
```

### 2. **Configuración de Verificación**

Agregado al `app.py`:
```python
# Configuración específica para ZeroGPU Plan Pro
print("🔧 Configurando ZeroGPU Plan Pro...")
print("📊 Plan Pro: H200 con 25 minutos/día")
print("🎯 Compute Unit: gpu.h200.micro")

# Verificar plan Pro
if torch.cuda.is_available():
    gpu_name = torch.cuda.get_device_name(0)
    if "H200" in gpu_name:
        print("✅ ZeroGPU H200 detectado - Plan Pro activo")
```

### 3. **Funciones de Verificación**

```python
def check_auth():      # Verificar autenticación
def check_quota():     # Verificar estado de cuota
def get_space_status(): # Estado completo del Space
```

## 📊 Comparación de Planes

| Característica | Plan Gratuito | Plan Pro |
|----------------|---------------|----------|
| GPU | T4 | H200 |
| Memoria | 16GB | 69.5GB |
| Velocidad | Estándar | 3x más rápido |
| Compute Unit | `gpu.t4.micro` | `gpu.h200.micro` |

## 🔧 Configuración Requerida

### Variables de Entorno del Space:
```
HF_TOKEN=tu_token_aqui
SPACES_GPU_TIMEOUT=30
SPACES_GPU_MEMORY=8
```

### Plan Pro Activo:
- Verificar en Settings → Billing
- ZeroGPU Plan Pro debe estar activo

## 🚀 Optimizaciones

### Configuración H200:
-`torch.float16` para velocidad
- 🔧 Optimizaciones CUDA habilitadas
- 🎯 Configuración específica para H200

### Timeouts Optimizados:
- 🎨 Imágenes: 30 segundos
- 🎬 Videos: 60 segundos

### Parámetros Optimizados:
- SDXL Turbo: 1 paso, guidance=0.0
- SD Turbo: 2 pasos, guidance≤1.0
- Modelos estándar: 15 pasos máximo

## 📁 Archivos Modificados

1. **`app.py`** - Decoradores y configuración principal
2. **`check_zero_gpu_config.py`** - Script de verificación

## 🔍 Verificación

### Script de Verificación:
```bash
python check_zero_gpu_config.py
```

### Logs Esperados:
```
🔧 Configurando ZeroGPU Plan Pro...
📊 Plan Pro: H200 con 25 minutos/día
🎯 Compute Unit: gpu.h200.micro
✅ ZeroGPU H200 detectado - Plan Pro activo
```

## ⚠️ Próximos Pasos

1. **Verificar Plan Pro** en Hugging Face
2. **Configurar variables de entorno** del Space
3. **Probar generación** de imágenes/videos
4. **Verificar logs** del Space

## 📞 Troubleshooting

### Error: "GPU task aborted"
- Verificar plan Pro en Hugging Face
- Confirmar variables de entorno del Space

### Error: "Cuota agotada"
- Verificar tiempo restante del plan Pro
- Esperar reinicio diario de cuota

---

**Estado:** ✅ Correcciones implementadas y desplegadas
**Space:** https://huggingface.co/spaces/Ntdeseb/ntia