Spaces:
Paused
Paused
Update app.py
Browse files
app.py
CHANGED
|
@@ -129,13 +129,13 @@ base_model = "EleutherAI/gpt-neo-1.3B" #load_8bit = False (in load_tokenizer_
|
|
| 129 |
# Load model directly
|
| 130 |
#####################################################
|
| 131 |
#Tokenizer und Model laden
|
| 132 |
-
|
| 133 |
|
| 134 |
#################################################
|
| 135 |
# Few-Shot Training!!!!!!!!!
|
| 136 |
#################################################
|
| 137 |
# Load SetFit model from Hub
|
| 138 |
-
tokenizer,model,device = load_tokenizer_and_model_setFit(base_model, False)
|
| 139 |
|
| 140 |
|
| 141 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|
|
|
|
| 129 |
# Load model directly
|
| 130 |
#####################################################
|
| 131 |
#Tokenizer und Model laden
|
| 132 |
+
tokenizer,model,device = load_tokenizer_and_model(base_model, False)
|
| 133 |
|
| 134 |
#################################################
|
| 135 |
# Few-Shot Training!!!!!!!!!
|
| 136 |
#################################################
|
| 137 |
# Load SetFit model from Hub
|
| 138 |
+
#tokenizer,model,device = load_tokenizer_and_model_setFit(base_model, False)
|
| 139 |
|
| 140 |
|
| 141 |
#tokenizer.add_special_tokens({'pad_token': '[PAD]'}) #not necessary with fast Toekenizers like GPT2
|