Update app.py
Browse files
    	
        app.py
    CHANGED
    
    | @@ -3,8 +3,8 @@ from transformers import pipeline | |
| 3 | 
             
            from PIL import Image
         | 
| 4 |  | 
| 5 | 
             
            st.sidebar.header("**Instructions**")
         | 
| 6 | 
            -
            st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https:// | 
| 7 | 
            -
            version = st.sidebar.radio("Choix de la version du modèle :", ["QAmemBERT1", "QAmemBERT2", "QAmemBERTa", "QAmemBERT1-large"])
         | 
| 8 | 
             
            st.sidebar.markdown("---")
         | 
| 9 | 
             
            st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
         | 
| 10 |  | 
| @@ -14,7 +14,7 @@ st.sidebar.image(image, caption=None, width=None, use_column_width=None, clamp=F | |
| 14 |  | 
| 15 | 
             
            @st.cache_resource
         | 
| 16 | 
             
            def load_model(version):
         | 
| 17 | 
            -
                if version == "QAmemBERT1":
         | 
| 18 | 
             
                    return pipeline('question-answering', model='CATIE-AQ/QAmembert', tokenizer='CATIE-AQ/QAmembert')
         | 
| 19 | 
             
                elif version == "QAmemBERT2":
         | 
| 20 | 
             
                    return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
         | 
|  | |
| 3 | 
             
            from PIL import Image
         | 
| 4 |  | 
| 5 | 
             
            st.sidebar.header("**Instructions**")
         | 
| 6 | 
            +
            st.sidebar.markdown("Démonstrateur du modèle [QAmembert](https://huggingface.co/collections/CATIE-AQ/catie-french-qa-pack-650821750f44c341cdb8ec91) entraîné sur plus de 220 000 contextes/questions/réponses en français. Le modèle est capable d'indiquer si la réponse se situe ou non dans le texte fourni. Il est disponible en quatre versions *base* (110M de paramètres) et *large* (335M de paramètres) : QAmemBERT1-base se basant sur un [CamemBERT](https://huggingface.co/almanach/camembert-base) de 110M de paramètres et gérant une taille de contexte de 512 tokens, QAmemBERT2 se basant sur un [CamemBERT 2.0](https://huggingface.co/almanach/camembertv2-base) de 112M de paramètres et gérant une taille de contexte de 1024 tokens, QAmemBERTa se basant sur un [CamemBERTa 2.0](https://huggingface.co/almanach/camembertav2-base) de 111M de paramètres et gérant une taille de contexte de 1024 tokens (**ce modèle donne les meilleurs résultats d'après nos benchmarks**) et QAmemBERT1-large se basant sur un [CamemBERT](https://huggingface.co/almanach/camembert-base) de 336M de paramètres et gérant une taille de contexte de 512 tokens. Pour utiliser l'application, sélectionnez la version de votre choix ci-dessous, puis renseignez un texte et une question à propos de celui-ci. Enfin appuyez sur le bouton « Appliquer le modèle » pour observer la réponse trouvée par le modèle. Pour ens avoir plus sur ce modèle, vous pouvez lire l'[article de blog](https://blog.vaniila.ai/QA/) détaillant la démarche suvie.")
         | 
| 7 | 
            +
            version = st.sidebar.radio("Choix de la version du modèle :", ["QAmemBERT1-base", "QAmemBERT2", "QAmemBERTa", "QAmemBERT1-large"])
         | 
| 8 | 
             
            st.sidebar.markdown("---")
         | 
| 9 | 
             
            st.sidebar.markdown("Ce modèle a été entraîné via la plateforme [*Vaniila*](https://www.vaniila.ai/) du [CATIE](https://www.catie.fr/).")
         | 
| 10 |  | 
|  | |
| 14 |  | 
| 15 | 
             
            @st.cache_resource
         | 
| 16 | 
             
            def load_model(version):
         | 
| 17 | 
            +
                if version == "QAmemBERT1-base":
         | 
| 18 | 
             
                    return pipeline('question-answering', model='CATIE-AQ/QAmembert', tokenizer='CATIE-AQ/QAmembert')
         | 
| 19 | 
             
                elif version == "QAmemBERT2":
         | 
| 20 | 
             
                    return pipeline('question-answering', model='CATIE-AQ/QAmembert2', tokenizer='CATIE-AQ/QAmembert2')
         | 
