File size: 1,103 Bytes
f4690bc 4d6f595 45716e4 f83429c f4690bc b7e0e4e f4690bc 5b47c04 f4690bc e7a7cf1 f4690bc e7a7cf1 f4690bc 8dd188a 5b47c04 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 |
---
language: ko
tags:
- summarization
- bart
- longformer
---
- This model is a [kobart-news](https://huggingface.co/ainize/kobart-news) finetuned on the [๋ฌธ์์์ฝ ํ
์คํธ/์ ๋ฌธ๊ธฐ์ฌ](https://aihub.or.kr/aidata/8054)
<<20220904 Commit>>
๊ฐ์ธ ์คํฐ๋์ฉ์ผ๋ก ๊ธด ๋ฌธ์ฅ์ ์์ฝ ๋ชจ๋ธ ํนํ๋ ๋ชจ๋ธ์ ๋ง๋ค๊ธฐ ์ํด KoBART ๋ชจ๋ธ์ Longformer Encoder Decoder๋ก ๋ณํํ ๋ชจ๋ธ์
๋๋ค.
๊ธฐ์กด์ transformers๋ฅผ ๋ผ์ด๋ธ๋ฌ๋ฆฌ๋ก ๋ถ๋ฌ์์ ๋ชจ๋ธ์ ์คํํ๋ ๋ฐฉ๋ฒ์ ์ฌ์ฉํ ์๋ ์์ต๋๋ค.๐
๊ฐ์ด ์ฌ๋ ค๋์ load_model.py๋ฅผ ๋ผ์ด๋ธ๋ฌ๋ฆฌํํ์ฌ ๋ชจ๋ธ์ ๋ก๋ํ์๋ฉด ์ฌ์ฉ ๊ฐ๋ฅํฉ๋๋ค.
์ถํ ์ง์์ ์ธ ์
๋ฐ์ดํธ๋ก ๋ณ๋์ ๋ถํธํจ ์์ด ์ฌ์ฉํ ์ ์๋๋ก ๋ฐ๊พธ๊ฒ ์ต๋๋ค.
<pre><code>
# Python Code
from transformers import PreTrainedTokenizerFas
from load_model import LongformerBartForConditionalGeneration
tokenizer = PreTrainedTokenizerFast.from_pretrained("hohovisual/KoBART_with_LED")
model = LongformerBartForConditionalGeneration.from_pretrained("hohovisual/KoBART_with_LED model file path")
</pre></code> |