美文网首页
LSTM文本生成

LSTM文本生成

作者: y_7539 | 来源:发表于2023-02-01 10:48 被阅读0次
data = open("datas/any").read()
#移除换行符
data = data.replace("\n", "").replace("\r", "")
data
image.png
#字符去重
letters = list(set(data))
num_letters = len(letters)

#建立字典
int_to_char = {a:b for a,b in enumerate(letters)}
char_to_int = {b:a for a,b in enumerate(letters)}

#17个预测第18个字符
time_step = 17

import numpy as np
from keras.utils import to_categorical
#滑动窗口提取数据
def extract_data(data, slide):
    x = []
    y = []
    for i in range(len(data) -slide):
        x.append([a for a in data[i:i+slide]])
        y.append(data[i+slide])
    return x, y
#字符到数字的批量转化
def char_to_int_Data(x, y, char_to_int):
    x_to_int = []
    y_to_int = []
    for i in range(len(x)):
        x_to_int.append([char_to_int[char] for char in x[i]])
        y_to_int.append([char_to_int[char] for char in y[i]])
    return x_to_int, y_to_int
#实现输入字符文章的批量处理,输入整个字符,滑动窗口大小,转化字典
def data_preprocessing(data, slide, num_letters, char_to_int):
    char_Data = extract_data(data, slide)
    int_Data = char_to_int_Data(char_Data[0], char_Data[1], char_to_int)
    Input = int_Data[0]
    Output = list(np.array(int_Data[1]).flatten())
    Input_RESHAPE = np.array(Input).reshape(len(Input), slide)
    new = np.random.randint(0, 10, size=[Input_RESHAPE.shape[0], Input_RESHAPE.shape[1],
                                        num_letters])
    for i in range(Input_RESHAPE.shape[0]):
        for j in range(Input_RESHAPE.shape[1]):
            new[i, j, :] = to_categorical(Input_RESHAPE[i, j], num_classes=num_letters)
    return new, Output

#提取x和y
X, y = data_preprocessing(data, time_step, num_letters, char_to_int)

#数据分离
from sklearn.model_selection import train_test_split
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.1, random_state=10)
X_train.shape   #(576, 17, 17)

#one hot
y_train_category = to_categorical(y_train, num_letters)

#建立模型
from keras.models import Sequential
from keras.layers import Dense, LSTM
model = Sequential()
model.add(LSTM(units=20, input_shape=(X_train.shape[1], X_train.shape[2]), activation="relu"))
model.add(Dense(units=num_letters, activation="softmax"))
model.compile(optimizer="adam", loss="categorical_crossentropy", metrics="accuracy")
model.summary()

#训练
model.fit(X_train, y_train_category, batch_size=1000, epochs=5)

#预测训练集
y_train_predict = model.predict(X_train)
y_train_predict = np.argmax(y_train_predict, axis=1)
y_train_predict_char = [int_to_char[i] for i in y_train_predict]

from sklearn.metrics import accuracy_score
accuracy_score(y_train, y_train_predict)   #准确率低可以重复训练

#预测测试集
y_test_predict = model.predict(X_test)
y_test_predict = np.argmax(y_test_predict, axis=1)
accuracy_score(y_test, y_test_predict)
y_test_predict_char = [int_to_char[i] for i in y_test_predict]

#用语句预测
new_letters = "this is a good day. happy to meet you.Nice day.this is a good day."
x_new, y_new = data_preprocessing(new_letters, time_step, num_letters, char_to_int)
y_new_predict = model.predict(x_new)
y_new_predict = np.argmax(y_new_predict, axis=1)
y_new_predict_char = [int_to_char[i] for i in y_new_predict]
for i in range(0, x_new.shape[0]-time_step):
    print(new_letters[i:i+10], y_new_predict_char[i])

相关文章

  • [Deep-Learning-with-Python]使用LST

    github地址repos LSTM生成文本 使用循环神经网络生成序列文本数据。循环神经网络可以用来生成音乐、图像...

  • 2018-11-10

    LSTM的应用 文本分类LSTM文本分类:使用LSTM的最后一个状态 文本分类中不用one-hot编码,使用emb...

  • 利用RNN(lstm)生成文本

    致谢以及参考 最近在做序列化标注项目,试着理解rnn的设计结构以及tensorflow中的具体实现方法。在知乎中找...

  • PyTorch:Bi-LSTM的文本生成

    作者|Fernando López编译|VK来源|Towards Data Science “写作没有规定。有时它...

  • tensorflow生成——lstm生成诗

    学习tensorflow的生成,在网上查到生成诗的例子,改了一下,将所有的代码全部放在一个文件中,进行运行。 运行...

  • 2021-05-15 ch19 seq2seq

    seq2seq应用场景:文本生成:翻译、看图说话、生成摘要 文本理解和生成文本encoder & decodere...

  • 2019-01-24

    文本生成是今年来NLP领域研究的热点。文本生成有很多应用,比如对话中的回复生成或者问题生成,机器翻译,生成式文本摘...

  • 4、Lstm 生成藏头诗

  • 基于LSTM三分类的文本情感分析

    背景介绍 文本情感分析作为NLP的常见任务,具有很高的实际应用价值。本文将采用LSTM模型,训练一个能够识别文本p...

  • 2020-10-30-郑小西

    markdown学习 1.#生成标题 2.-生成列表 例子: 文本1 文本2 3.> 显示文本[%E9%93%BE...

网友评论

      本文标题:LSTM文本生成

      本文链接:https://www.haomeiwen.com/subject/mwlihdtx.html