Dự án nghiên cứu về bài toán tách từ tiếng Việt, được phát triển bởi nhóm nghiên cứu xử lý ngôn ngữ tự nhiên tiếng Việt - underthesea. Chứa mã nguồn các thử nghiệm cho việc xử lý dữ liệu, huấn luyện và đánh giá mô hình, cũng như cho phép dễ dàng tùy chỉnh mô hình đối với những tập dữ liệu mới.
Nhóm tác giả
- Vũ Anh ([email protected])
- Bùi Nhật Anh ([email protected])
- Đoàn Việt Dũng ([email protected])
Tham gia đóng góp
Mọi ý kiến đóng góp hoặc yêu cầu trợ giúp xin gửi vào mục Issues của dự án. Các thảo luận được khuyến khích sử dụng tiếng Việt để dễ dàng trong quá trình trao đổi.
Nếu bạn muốn tham gia vào nhóm phát triển với vai trò là Developer, xin hãy đọc kỹ Hướng dẫn tham gia đóng góp.
Hệ điều hành: Linux (Ubuntu, CentOS), Mac
Python 3.6
Anaconda
languageflow==1.1.7
Tải project bằng cách sử dụng lệnh git clone
$ https://github.com/undertheseanlp/word_tokenize
Tạo môi trường mới và cài đặt các gói liên quan
$ cd word_tokenize
$ conda create -n word_tokenize python=3.6
$ pip install -r requirements.txt
Trước khi chạy các thử nghiệm, hãy chắc chắn bạn đã activate môi trường word_tokenize
, mọi câu lệnh đều được chạy trong thư mục gốc của dự án.
$ cd word_tokenize
$ source activate word_tokenize
$ python word_tokenize.py --text "Chàng trai 9X Quảng Trị khởi nghiệp từ nấm sò"
$ python word_tokenize.py --fin tmp/input.txt --fout tmp/output.txt
Huấn luyện mô hình mới
$ python util/preprocess_vlsp2013.py
$ python train.py \
--train tmp/vlsp2013/train.txt \
--model tmp/model.bin
Kiểm tra mô hình vừa huấn luyện
$ python word_tokenize.py \
--fin tmp/input.txt --fout tmp/output.txt \
--model tmp/model.bin
Vui lòng trích dẫn thông tin về dự án nếu bạn sử dụng mã nguồn này
@online{undertheseanlp/word_tokenize,
author ={Vu Anh, Bui Nhat Anh, Doan Viet Dung},
year = {2018},
title ={Xây dựng hệ thống tách từ tiếng Việt},
url ={https://github.com/undertheseanlp/word_tokenize}
}
Mã nguồn của dự án được phân phối theo giấy phép GPL-3.0.