Spaces:
Sleeping
Sleeping
| from summarizer import summarize_text | |
| text = "Tokenization, metni daha küçük parçalara ayırma işlemidir." | |
| mode = "📘 Teknik Özet" # Varsayılan modlardan biri | |
| print(summarize_text(text, mode)) | |