| 程序包 | 说明 |
|---|---|
| com.hankcs.hanlp.classification.corpus | |
| com.hankcs.hanlp.classification.models | |
| com.hankcs.hanlp.classification.tokenizers |
| 限定符和类型 | 字段和说明 |
|---|---|
protected ITokenizer |
AbstractDataSet.tokenizer |
| 限定符和类型 | 方法和说明 |
|---|---|
ITokenizer |
IDataSet.getTokenizer()
获取分词器
|
ITokenizer |
AbstractDataSet.getTokenizer() |
| 限定符和类型 | 方法和说明 |
|---|---|
IDataSet |
IDataSet.setTokenizer(ITokenizer tokenizer)
设置分词器
|
IDataSet |
AbstractDataSet.setTokenizer(ITokenizer tokenizer) |
| 限定符和类型 | 字段和说明 |
|---|---|
ITokenizer |
AbstractModel.tokenizer
分词器
|
| 限定符和类型 | 类和说明 |
|---|---|
class |
BigramTokenizer |
class |
BlankTokenizer
使用\\s(如空白符)进行切分的分词器
|
class |
HanLPTokenizer |
Copyright © 2014–2018 码农场. All rights reserved.