# app.py # File máy chủ Flask hoàn chỉnh để triển khai trên Hugging Face Spaces import os import joblib import numpy as np import librosa from flask import Flask, request, jsonify, render_template from werkzeug.utils import secure_filename # --- Cấu hình TensorFlow và các thư viện AI --- # Đặt biến môi trường để giảm thiểu log không cần thiết của TensorFlow. # Phải thực hiện trước khi import tensorflow. os.environ['TF_CPP_MIN_LOG_LEVEL'] = '2' import tensorflow as tf from transformers import Wav2Vec2Processor, Wav2Vec2Model import torch # --- KHỞI TẠO ỨNG DỤNG FLASK --- app = Flask(__name__) # Cấu hình thư mục tạm để lưu file audio người dùng tải lên UPLOAD_FOLDER = 'uploads/' app.config['UPLOAD_FOLDER'] = UPLOAD_FOLDER # Tạo thư mục nếu nó chưa tồn tại os.makedirs(app.config['UPLOAD_FOLDER'], exist_ok=True) # --- TẢI TẤT CẢ CÁC MÔ HÌNH KHI SERVER KHỞI ĐỘNG --- # Đây là bước quan trọng để tối ưu hóa hiệu suất. Mô hình chỉ được tải một lần # thay vì tải lại mỗi khi có yêu cầu dự đoán. print(">>> Đang tải các mô hình AI, quá trình này có thể mất một lúc...") try: MODEL_PATH = 'models/' # Tải các thành phần tiền xử lý và các mô hình machine learning scaler = joblib.load(os.path.join(MODEL_PATH, 'scaler.pkl')) label_encoder = joblib.load(os.path.join(MODEL_PATH, 'label_encoder.pkl')) model_xgb = joblib.load(os.path.join(MODEL_PATH, 'xgboost.pkl')) model_lgb = joblib.load(os.path.join(MODEL_PATH, 'lightgbm.pkl')) # Tải mô hình deep learning (CNN) model_cnn = tf.keras.models.load_model(os.path.join(MODEL_PATH, 'cnn.keras')) # Tải mô hình xử lý ngôn ngữ tự nhiên cho audio (Wav2Vec2) wav2vec_processor = Wav2Vec2Processor.from_pretrained("facebook/wav2vec2-base") wav2vec_model = Wav2Vec2Model.from_pretrained("facebook/wav2vec2-base") print(">>> OK! Tất cả các mô hình đã được tải thành công!") except Exception as e: print(f"!!! LỖI NGHIÊM TRỌNG: Không thể tải một hoặc nhiều mô hình. Lỗi: {e}") print("!!! Vui lòng kiểm tra lại đường dẫn và sự tồn tại của các file trong thư mục 'models/'.") # Thoát ứng dụng nếu không tải được mô hình exit() # --- CÁC HÀM TRÍCH XUẤT ĐẶC TRƯNG --- # Các hàm này phải giống hệt với các hàm đã được sử dụng trong quá trình huấn luyện # để đảm bảo tính nhất quán của dữ liệu đầu vào cho mô hình. # Các hằng số cấu hình SAMPLE_RATE = 22050 MAX_LENGTH_SECONDS = 5.0 MAX_SAMPLES = int(SAMPLE_RATE * MAX_LENGTH_SECONDS) N_MELS = 128 TRADITIONAL_FEATURE_SIZE = 570 # (128*4 cho melspec + 13*2 cho mfcc + ...) - Phải khớp với lúc train WAV2VEC_FEATURE_SIZE = 768 SPECTROGRAM_SHAPE = (224, 224, 3) def _extract_traditional_features(y, sr): """Trích xuất các đặc trưng âm thanh truyền thống (MFCC, Mel Spectrogram, etc.).""" try: # Mel Spectrogram features (mean, std, max, min) mel_spec = librosa.feature.melspectrogram(y=y, sr=sr, n_mels=N_MELS) mel_spec_db = librosa.power_to_db(mel_spec, ref=np.max) features = np.mean(mel_spec_db, axis=1) features = np.append(features, np.std(mel_spec_db, axis=1)) features = np.append(features, np.max(mel_spec_db, axis=1)) features = np.append(features, np.min(mel_spec_db, axis=1)) # MFCC features (mean, std) mfccs = librosa.feature.mfcc(y=y, sr=sr, n_mfcc=13) features = np.append(features, np.mean(mfccs, axis=1)) features = np.append(features, np.std(mfccs, axis=1)) # Cần thêm các đặc trưng khác nếu có trong lúc train để đủ `TRADITIONAL_FEATURE_SIZE` # Ví dụ: chroma, spectral_contrast, etc. # Ở đây, chúng ta sẽ pad/truncate để đảm bảo kích thước if len(features) > TRADITIONAL_FEATURE_SIZE: features = features[:TRADITIONAL_FEATURE_SIZE] elif len(features) < TRADITIONAL_FEATURE_SIZE: features = np.pad(features, (0, TRADITIONAL_FEATURE_SIZE - len(features)), mode='constant') return features except Exception as e: print(f"Lỗi trích xuất đặc trưng truyền thống: {e}") return np.zeros(TRADITIONAL_FEATURE_SIZE) def _extract_wav2vec_features(y, sr): """Trích xuất đặc trưng từ mô hình Wav2Vec2.""" try: # Wav2Vec2 yêu cầu sample rate 16000 y_16k = librosa.resample(y, orig_sr=sr, target_sr=16000) inputs = wav2vec_processor(y_16k, sampling_rate=16000, return_tensors="pt", padding=True) with torch.no_grad(): outputs = wav2vec_model(**inputs) # Lấy trung bình các hidden states cuối cùng để có một vector đại diện features = outputs.last_hidden_state.mean(dim=1).squeeze().cpu().numpy() return features except Exception as e: print(f"Lỗi trích xuất Wav2Vec2: {e}") return np.zeros(WAV2VEC_FEATURE_SIZE) def _create_spectrogram_image(y, sr): """Tạo ảnh spectrogram cho mô hình CNN.""" try: mel_spec = librosa.feature.melspectrogram(y=y, sr=sr, n_mels=SPECTROGRAM_SHAPE[0]) mel_spec_db = librosa.power_to_db(mel_spec, ref=np.max) # Chuẩn hóa giá trị về khoảng [0, 255] mel_spec_norm = ((mel_spec_db - mel_spec_db.min()) / (mel_spec_db.max() - mel_spec_db.min() + 1e-8) * 255).astype(np.uint8) # Chuyển thành ảnh 3 kênh (RGB) img = tf.keras.preprocessing.image.array_to_img(np.stack([mel_spec_norm]*3, axis=-1)) # Resize về kích thước đầu vào của CNN img = img.resize((SPECTROGRAM_SHAPE[1], SPECTROGRAM_SHAPE[0])) return np.array(img) except Exception as e: print(f"Lỗi tạo ảnh spectrogram: {e}") return np.zeros(SPECTROGRAM_SHAPE) def process_audio_file(file_path): """Hàm tổng hợp: Tải file audio và gọi các hàm trích xuất đặc trưng.""" try: y, sr = librosa.load(file_path, sr=SAMPLE_RATE) # Chuẩn hóa độ dài audio về MAX_SAMPLES if len(y) > MAX_SAMPLES: y = y[:MAX_SAMPLES] else: y = np.pad(y, (0, MAX_SAMPLES - len(y)), mode='constant') # Trích xuất đồng thời các bộ đặc trưng traditional_features = _extract_traditional_features(y, sr) wav2vec_features = _extract_wav2vec_features(y, sr) spectrogram = _create_spectrogram_image(y, sr) return traditional_features, wav2vec_features, spectrogram except Exception as e: print(f"Lỗi nghiêm trọng khi xử lý file audio {file_path}: {e}") return None, None, None # --- ĐỊNH NGHĨA CÁC ROUTE (API ENDPOINTS) CỦA ỨNG DỤNG --- @app.route('/', methods=['GET']) def home(): """Render trang chủ của ứng dụng.""" return render_template('index.html') @app.route('/predict', methods=['POST']) def predict(): """API endpoint để nhận file audio, xử lý và trả về kết quả dự đoán.""" if 'audio_file' not in request.files: return jsonify({'error': 'Không có file audio nào trong yêu cầu.'}), 400 file = request.files['audio_file'] if file.filename == '': return jsonify({'error': 'Tên file không hợp lệ.'}), 400 try: # Lưu file audio vào thư mục tạm một cách an toàn filename = secure_filename(file.filename) filepath = os.path.join(app.config['UPLOAD_FOLDER'], filename) file.save(filepath) # Xử lý file audio để trích xuất tất cả các đặc trưng cần thiết trad_feats, w2v_feats, spec_img = process_audio_file(filepath) if trad_feats is None: return jsonify({'error': 'Không thể xử lý file audio.'}), 500 # --- Chuẩn bị dữ liệu đầu vào cho từng mô hình --- # 1. Dữ liệu cho XGBoost và LightGBM (kết hợp và scale) combined_feats = np.concatenate([trad_feats, w2v_feats]).reshape(1, -1) scaled_feats = scaler.transform(combined_feats) # 2. Dữ liệu cho CNN (chuẩn hóa và thêm chiều batch) spec_img = spec_img / 255.0 spec_img = np.expand_dims(spec_img, axis=0) # --- Lấy dự đoán từ tất cả các mô hình --- pred_xgb = model_xgb.predict_proba(scaled_feats)[0][1] pred_lgb = model_lgb.predict_proba(scaled_feats)[0][1] pred_cnn = model_cnn.predict(spec_img, verbose=0)[0][0] # --- Ensemble: Kết hợp kết quả bằng cách lấy trung bình xác suất --- final_prediction_prob = (pred_xgb + pred_lgb + pred_cnn) / 3 # Quyết định nhãn cuối cùng dựa trên ngưỡng 0.5 final_prediction_label_index = 1 if final_prediction_prob > 0.5 else 0 # Chuyển đổi chỉ số nhãn (0 hoặc 1) thành chuỗi ('male'/'female') result_label_text = label_encoder.inverse_transform([final_prediction_label_index])[0] # Xóa file audio tạm sau khi xử lý xong os.remove(filepath) print(f"Phân tích hoàn tất. Kết quả: {result_label_text.upper()} (Xác suất: {final_prediction_prob:.2f})") # Trả về kết quả dưới dạng JSON return jsonify({ 'prediction': result_label_text.capitalize(), 'probability': f"{final_prediction_prob:.2f}" }) except Exception as e: print(f"Đã xảy ra lỗi trong quá trình dự đoán: {e}") import traceback traceback.print_exc() return jsonify({'error': 'Đã xảy ra lỗi không xác định trên máy chủ.'}), 500 # --- ĐIỂM BẮT ĐẦU CHẠY ỨNG DỤNG --- # Đoạn mã này được cấu hình để hoạt động tốt trên cả máy local và Hugging Face Spaces. if __name__ == '__main__': # Hugging Face Spaces sẽ đặt biến môi trường PORT. Nếu không có, dùng 7860 làm mặc định. port = int(os.environ.get("PORT", 7860)) # Chạy trên host '0.0.0.0' để ứng dụng có thể được truy cập từ bên ngoài container Docker. app.run(host='0.0.0.0', port=port)