Commit 486aa9ec authored by zhou's avatar zhou

Update readme.md

parent d687c2f8
Pipeline #97 canceled with stages
#一.api数据接收模块
##1.调用main_merge.py中的data_fetch类,其中:
###model分为'LXWL_model'和'JD_model'两种模式,分别是京东和非京东。
###localhost为是否数据在本地服务器,False为在线上服务器。
###True为在本地服务器。source为来源,比如'JD_ZH'或者'ZH_LXWL'。
###填写好后使用run()方法即可获取数据并且提取参数,类别品牌匹配后放入数据库,准备在页面呈现。数据输出在数据库中。
'''
# 一.api数据接收模块
## 1.调用main_merge.py中的data_fetch类,其中:
### model分为'LXWL_model'和'JD_model'两种模式,分别是京东和非京东。
### localhost为是否数据在本地服务器,False为在线上服务器。
### True为在本地服务器。source为来源,比如'JD_ZH'或者'ZH_LXWL'。
### 填写好后使用run()方法即可获取数据并且提取参数,类别品牌匹配后放入数据库,准备在页面呈现。数据输出在数据库中。
```python
data_api = data_fetch(model='LXWL_model', localhost=False, source=f'ZH_{channel}')
data_api_table = data_api.run()
'''
#二.NER模块
##1.训练模块lstm_train.py,在data中存入相应训练集,格式为XXXX_biaozhu.txt,在original_data中存入相应原始数据集,格式为XXXX.txt,其中XXXX为类别编码。
##2.调用LSTMNER类,输入子类编码,在保证该类训练集和原始数据集都存在的情况下,使用train_model方法即可开始训练。
'''
```
# 二.NER模块
## 1.训练模块lstm_train.py,在data中存入相应训练集,格式为XXXX_biaozhu.txt,在original_data中存入相应原始数据集,格式为XXXX.txt,其中XXXX为类别编码。
## 2.调用LSTMNER类,输入子类编码,在保证该类训练集和原始数据集都存在的情况下,使用train_model方法即可开始训练。
```python
ner = LSTMNER('0810')
ner.train_model()
'''
##3.预测模块lstm_train.py,调用LSTMNER类,输入子类编码,保证该类已经训练过,使用param_extract()方法,输入待提取字符串即可进行名称参数提取,输出为参数项对应参数值的字典。
#三.非标转标模块
##1.调用seq2seq/seq2seq_main.py中的seq2seq类,输入子类编码和参数项
##2.若要训练,保证seq2seq/data文件夹中有相应类和相应参数项的训练集,调用model_train()方法。
##3.若模型已经存在,确保其在model文件夹中,调用model_load()方法。
##4.非标转标调用decode_sequence()方法,输入非标准值,输出标准值,皆为字符串格式。
'''
```
## 3.预测模块lstm_train.py,调用LSTMNER类,输入子类编码,保证该类已经训练过,使用param_extract()方法,输入待提取字符串即可进行名称参数提取,输出为参数项对应参数值的字典。
# 三.非标转标模块
## 1.调用seq2seq/seq2seq_main.py中的seq2seq类,输入子类编码和参数项
## 2.若要训练,保证seq2seq/data文件夹中有相应类和相应参数项的训练集,调用model_train()方法。
## 3.若模型已经存在,确保其在model文件夹中,调用model_load()方法。
## 4.非标转标调用decode_sequence()方法,输入非标准值,输出标准值,皆为字符串格式。
```python
model_1 = seq2seq('0101','CPU型号')
model_1.model_train()
model_1.model_load()
print(model_1.decode_sequence('I5-4200'))
'''
\ No newline at end of file
```
\ No newline at end of file
Markdown is supported
0% or
You are about to add 0 people to the discussion. Proceed with caution.
Finish editing this message first!
Please register or to comment