文本预处理
text:字符串,待处理的文本
lower:布尔值,是否将序列设为小写形式
split:字符串,单词的分隔符,如空格
返回值
字符串列表
本函数将一段文本编码为one-hot形式的码,即仅记录词在词典中的下标。
【Tips】从定义上,当字典长为n时,每个单词应形成一个长为n的向量,其中仅有单词本身在字典中下标的位置为1,其余均为0,这称为one-hot。
为了方便起见,函数在这里仅把“1”的位置,即字典中词的下标记录下来。
参数
- n:整数,字典长度
整数列表,每个整数是[1,n]之间的值,代表一个单词(不保证唯一性,即如果词典长度不够,不同的单词可能会被编为同一个码)。
将文本转换为固定大小的哈希空间中的索引序列
参数
hash_function: 默认为 python 函数, 可以是 'md5' 或任何接受输入字符串, 并返回 int 的函数. 注意
hash
不是一个稳定的哈希函数, 因此在不同执行环境下会产生不同的结果, 作为对比, 'md5' 是一个稳定的哈希函数.
返回值
整数列表
Tokenizer是一个用于向量化文本,或将文本转换为序列(即单词在字典中的下标构成的列表,从1算起)的类。
与同名参数含义相同
num_words:None或整数,处理的最大单词数量。若被设置为整数,则分词器将被限制为待处理数据集中最常见的
num_words
个单词char_level: 如果为 True, 每个字符将被视为一个标记
类方法
fit_on_texts(texts)
- texts:要用以训练的文本列表
texts_to_sequences(texts)
texts:待转为序列的文本列表
返回值:序列的列表,列表中每个序列对应于一段输入文本
-
texts:待转为序列的文本列表
返回值:每次调用返回对应于一段输入文本的序列
texts_to_matrix(texts, mode):
texts:待向量化的文本列表
mode:‘binary’,‘count’,‘tfidf’,‘freq’之一,默认为‘binary’
返回值:形如
(len(texts), nb_words)
的numpy array
fit_on_sequences(sequences):
- sequences:要用以训练的序列列表
sequences_to_matrix(sequences):
sequences:待向量化的序列列表
返回值:形如的numpy array
属性
- word_counts:字典,将单词(字符串)映射为它们在训练期间出现的次数。仅在调用fit_on_texts之后设置。
- word_docs: 字典,将单词(字符串)映射为它们在训练期间所出现的文档或文本的数量。仅在调用fit_on_texts之后设置。
- document_count: 整数。分词器被训练的文档(文本或者序列)数量。仅在调用fit_on_texts或fit_on_sequences之后设置。