File size: 1,138 Bytes
f4690bc 4d6f595 f4690bc e7a7cf1 f4690bc e7a7cf1 f4690bc e7a7cf1 f4690bc |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 |
---
language: ko
license: mit
tags:
- summarization
- bart
- longformer
---
- This model is a [kobart-news](https://huggingface.co/ainize/kobart-news) finetuned on the [๋ฌธ์์์ฝ ํ
์คํธ/์ ๋ฌธ๊ธฐ์ฌ](https://aihub.or.kr/aidata/8054)
<<20220904 Commit>>
๊ฐ์ธ ์คํฐ๋์ฉ์ผ๋ก ๊ธด ๋ฌธ์ฅ์ ์์ฝ ๋ชจ๋ธ ํนํ๋ ๋ชจ๋ธ์ ๋ง๋ค๊ธฐ ์ํด KoBART์ Input Size๋ฅผ 4096์ผ๋ก ๋ณ๊ฒฝํ์ฌ Customizing ์งํํ์ต๋๋ค.
KoBART ๋ชจ๋ธ์ Longformer Encoder Decoder๋ก ๋ณํํ ๋ชจ๋ธ์
๋๋ค.
๊ธฐ์กด์ transformers์ Model Load๋ก๋ ๋ชจ๋ธ์ ์ฐ๊ธฐ๊ฐ ์ด๋ ต์ต๋๋ค.
๊ฐ์ด ์ฌ๋ ค๋์ load_model.py๋ฅผ ๋ผ์ด๋ธ๋ฌ๋ฆฌํํ์ฌ ๋ชจ๋ธ์ ๋ก๋ํ์๋ฉด ์ฌ์ฉ ๊ฐ๋ฅํฉ๋๋ค.
KoBART ๋ชจ๋ธ์
์ถํ ์ง์์ ์ธ ์
๋ฐ์ดํธ๋ก ๋ณ๋์ ๋ถํธํจ ์์ด ์ฌ์ฉํ ์ ์๋๋ก ๋ฐ๊พธ๊ฒ ์ต๋๋ค.
# Python Code
```python
from transformers import PreTrainedTokenizerFas
from load_model import LongformerBartForConditionalGeneration
tokenizer = PreTrainedTokenizerFast.from_pretrained("hohovisual/KoBART_with_LED")
model = LongformerBartForConditionalGeneration.from_pretrained("hohovisual/KoBART_with_LED") |