日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 >

java rnn生成古诗_Tensorflow 基于RNN生成古诗词 自己的实践

發(fā)布時間:2024/1/1 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 java rnn生成古诗_Tensorflow 基于RNN生成古诗词 自己的实践 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

在網(wǎng)上看到一篇利用Tensorflow+RNN模型生成古詩詞的練習(xí),覺得挺有意思的便自己來試了下,算是熟悉下Tensorflow+NLP的基本操作流程

首先pip 安裝NLTK

在你的Tensorflow環(huán)境下 運(yùn)行pip install nltk

下載數(shù)據(jù)集:

$?python

>>>import nltk

>>>?nltk.download()

使用的數(shù)據(jù)集:全唐詩(43030首):https://pan.baidu.com/s/1o7QlUhO

RNN介紹:

RNN的目的使用來處理序列數(shù)據(jù)。在傳統(tǒng)的神經(jīng)網(wǎng)絡(luò)模型中,是從輸入層到隱含層再到輸出層,層與層之間是全連接的,每層之間的節(jié)點是無連接的。但是這種普通的神經(jīng)網(wǎng)絡(luò)對于很多問題卻無能無力。例如,你要預(yù)測句子的下一個單詞是什么,一般需要用到前面的單詞,因為一個句子中前后單詞并不是獨(dú)立的。RNNs之所以稱為循環(huán)神經(jīng)網(wǎng)路,即一個序列當(dāng)前的輸出與前面的輸出也有關(guān)。具體的表現(xiàn)形式為網(wǎng)絡(luò)會對前面的信息進(jìn)行記憶并應(yīng)用于當(dāng)前輸出的計算中,即隱藏層之間的節(jié)點不再無連接而是有連接的,并且隱藏層的輸入不僅包括輸入層的輸出還包括上一時刻隱藏層的輸出。

由于原文的代碼版本比較低,所以很多還要自己調(diào)整,想一想還是把總的源碼貼上吧?GIT傳送

當(dāng)然,由于我的小破筆記本安裝的是CPU版本的Tensorflow,速度實在太慢,訓(xùn)練的時間就設(shè)的比較短,當(dāng)然對于古詩詞這種藝術(shù)創(chuàng)作,目前AI還是基本無能為力,生成的東西也都是狗屁不通的,但是至少格式對了:

總結(jié)

以上是生活随笔為你收集整理的java rnn生成古诗_Tensorflow 基于RNN生成古诗词 自己的实践的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。