日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

tesseract4.0.0 中文语言包_一份TensorFlow2.0中文教程

發布時間:2024/7/23 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 tesseract4.0.0 中文语言包_一份TensorFlow2.0中文教程 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
近兩個月,網上已經出現了大量 TensorFlow 2 0 英文教程。在此文章中,本文為大家推薦一個持續更新的中文教程,以便大家學習。來源:機器之心

今年 3 月份,谷歌在 Tensorflow Developer Summit 2019 大會上發布 TensorFlow 2.0 Alpha 版。作為當前最為流行的深度學習框架,2.0 Alpha 版的正式發布引人關注。近兩個月,網上已經出現了大量 TensorFlow 2.0 英文教程。在此文章中,本文為大家推薦一個持續更新的中文教程,以便大家學習。

雖然,自 TensorFlow 2.0 發布以來,我們總是能夠聽到「TensorFlow 2.0 就是 keras」、「說的很好,但我用 PyTorch」類似的吐槽。但毋庸置疑,TensorFlow 依然是當前最主流的深度學習框架(感興趣的讀者可查看機器之心文章:2019 年,TensorFlow 被拉下馬了嗎?)。

整體而言,為了吸引用戶,TensorFlow 2.0 從簡單、強大、可擴展三個層面進行了重新設計。特別是在簡單化方面,TensorFlow 2.0 提供更簡化的 API、注重 Keras、結合了 Eager execution。

過去一段時間,機器之心為大家編譯介紹了部分英文教程,例如:

如何在 TensorFlow 2.0 中構建強化學習智能體

TensorFlow 2.0 到底怎么樣?簡單的圖像分類任務探一探

此文章中,機器之心為大家推薦一個持續更新的中文教程,方便大家更系統的學習、使用 TensorFlow 2.0 :

知乎專欄地址:https://zhuanlan.zhihu.com/c_1091021863043624960

Github 項目地址:https://github.com/czy36mengfei/tensorflow2_tutorials_chinese

該教程是 NLP 愛好者 Doit 在知乎上開的一個專欄,由作者從 TensorFlow2.0 官方教程的個人學習復現筆記整理而來。作者將此教程分為了三類:TensorFlow 2.0 基礎教程、TensorFlow 2.0 深度學習實踐、TensorFlow 2.0 基礎網絡結構。

以基礎教程為例,作者整理了 Keras 快速入門教程、eager 模式、Autograph 等。目前為止,該中文教程已經包含 20 多篇文章,作者還在持續更新中,感興趣的讀者可以 follow。

該中文教程當前目錄

以下是作者整理的「Keras 快速入門」教程內容。


Keras 快速入門

Keras 是一個用于構建和訓練深度學習模型的高階 API。它可用于快速設計原型、高級研究和生產。

keras 的 3 個優點: 方便用戶使用、模塊化和可組合、易于擴展

1. 導入 tf.keras

tensorflow2 推薦使用 keras 構建網絡,常見的神經網絡都包含在 keras.layer 中 (最新的 tf.keras 的版本可能和 keras 不同)

import tensorflow as tf

from tensorflow.keras import layers

print(tf.__version__)

print(tf.keras.__version__)


2. 構建簡單模型

2.1 模型堆疊

最常見的模型類型是層的堆疊:tf.keras.Sequential 模型

model = tf.keras.Sequential()

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(10, activation='softmax'))

2.2 網絡配置

tf.keras.layers 中網絡配置:

activation:設置層的激活函數。此參數由內置函數的名稱指定,或指定為可調用對象。默認情況下,系統不會應用任何激活函數。

kernel_initializer 和 bias_initializer:創建層權重(核和偏差)的初始化方案。此參數是一個名稱或可調用對象,默認為 "Glorot uniform" 初始化器。

kernel_regularizer 和 bias_regularizer:應用層權重(核和偏差)的正則化方案,例如 L1 或 L2 正則化。默認情況下,系統不會應用正則化函數。

layers.Dense(32, activation='sigmoid')

layers.Dense(32, activation=tf.sigmoid)

layers.Dense(32, kernel_initializer='orthogonal')

layers.Dense(32, kernel_initializer=tf.keras.initializers.glorot_normal)

layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l2(0.01))

layers.Dense(32, kernel_regularizer=tf.keras.regularizers.l1(0.01))


3. 訓練和評估

3.1 設置訓練流程

構建好模型后,通過調用 compile 方法配置該模型的學習流程:

model = tf.keras.Sequential()

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(32, activation='relu'))

model.add(layers.Dense(10, activation='softmax'))

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=[tf.keras.metrics.categorical_accuracy])

3.2 輸入 Numpy 數據

import numpy as np

train_x = np.random.random((1000, 72))

train_y = np.random.random((1000, 10))

val_x = np.random.random((200, 72))

val_y = np.random.random((200, 10))

model.fit(train_x, train_y, epochs=10, batch_size=100,

validation_data=(val_x, val_y))

3.3tf.data 輸入數據

dataset = tf.data.Dataset.from_tensor_slices((train_x, train_y))

dataset = dataset.batch(32)

dataset = dataset.repeat()

val_dataset = tf.data.Dataset.from_tensor_slices((val_x, val_y))

val_dataset = val_dataset.batch(32)

val_dataset = val_dataset.repeat()

model.fit(dataset, epochs=10, steps_per_epoch=30,

validation_data=val_dataset, validation_steps=3)

3.4 評估與預測

test_x = np.random.random((1000, 72))

test_y = np.random.random((1000, 10))

model.evaluate(test_x, test_y, batch_size=32)

test_data = tf.data.Dataset.from_tensor_slices((test_x, test_y))

test_data = test_data.batch(32).repeat()

model.evaluate(test_data, steps=30)

# predict

result = model.predict(test_x, batch_size=32)

print(result)

4. 構建高級模型

4.1 函數式 api

tf.keras.Sequential 模型是層的簡單堆疊,無法表示任意模型。使用 Keras 函數式 API 可以構建復雜的模型拓撲,例如:

多輸入模型,

多輸出模型,

具有共享層的模型(同一層被調用多次),

具有非序列數據流的模型(例如,殘差連接)。

使用函數式 API 構建的模型具有以下特征:

層實例可調用并返回張量。

輸入張量和輸出張量用于定義 tf.keras.Model 實例。

此模型的訓練方式和 Sequential 模型一樣。

input_x = tf.keras.Input(shape=(72,))

hidden1 = layers.Dense(32, activation='relu')(input_x)

hidden2 = layers.Dense(16, activation='relu')(hidden1)

pred = layers.Dense(10, activation='softmax')(hidden2)

model = tf.keras.Model(inputs=input_x, outputs=pred)

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=32, epochs=5)

4.2 模型子類化

通過對 tf.keras.Model 進行子類化并定義您自己的前向傳播來構建完全可自定義的模型。在 init 方法中創建層并將它們設置為類實例的屬性。在 call 方法中定義前向傳播

class MyModel(tf.keras.Model):

def __init__(self, num_classes=10):

super(MyModel, self).__init__(name='my_model')

self.num_classes = num_classes

self.layer1 = layers.Dense(32, activation='relu')

self.layer2 = layers.Dense(num_classes, activation='softmax')

def call(self, inputs):

h1 = self.layer1(inputs)

out = self.layer2(h1)

return out

def compute_output_shape(self, input_shape):

shape = tf.TensorShapej(input_shape).as_list()

shape[-1] = self.num_classes

return tf.TensorShape(shape)

model = MyModel(num_classes=10)

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.3 自定義層

通過對 tf.keras.layers.Layer 進行子類化并實現以下方法來創建自定義層:

build:創建層的權重。使用 add_weight 方法添加權重。

call:定義前向傳播。

compute_output_shape:指定在給定輸入形狀的情況下如何計算層的輸出形狀。或者,可以通過實現 get_config 方法和 from_config 類方法序列化層。

class MyLayer(layers.Layer):

def __init__(self, output_dim, **kwargs):

self.output_dim = output_dim

super(MyLayer, self).__init__(**kwargs)

def build(self, input_shape):

shape = tf.TensorShape((input_shape[1], self.output_dim))

self.kernel = self.add_weight(name='kernel1', shape=shape,

initializer='uniform', trainable=True)

super(MyLayer, self).build(input_shape)

def call(self, inputs):

return tf.matmul(inputs, self.kernel)

def compute_output_shape(self, input_shape):

shape = tf.TensorShape(input_shape).as_list()

shape[-1] = self.output_dim

return tf.TensorShape(shape)

def get_config(self):

base_config = super(MyLayer, self).get_config()

base_config['output_dim'] = self.output_dim

return base_config

@classmethod

def from_config(cls, config):

return cls(**config)

model = tf.keras.Sequential(

[

MyLayer(10),

layers.Activation('softmax')

])

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),

loss=tf.keras.losses.categorical_crossentropy,

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=16, epochs=5)

4.4 回調

callbacks = [

tf.keras.callbacks.EarlyStopping(patience=2, monitor='val_loss'),

tf.keras.callbacks.TensorBoard(log_dir='./logs')

]

model.fit(train_x, train_y, batch_size=16, epochs=5,

callbacks=callbacks, validation_data=(val_x, val_y))


5 保持和恢復

5.1 權重保存

model = tf.keras.Sequential([

layers.Dense(64, activation='relu'),

layers.Dense(10, activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.Adam(0.001),

loss='categorical_crossentropy',

metrics=['accuracy'])

model.save_weights('./weights/model')

model.load_weights('./weights/model')

model.save_weights('./model.h5')

model.load_weights('./model.h5')

5.2 保存網絡結構

# 序列化成json

import json

import pprint

json_str = model.to_json()

pprint.pprint(json.loads(json_str))

fresh_model = tf.keras.models.model_from_json(json_str)

# 保持為yaml格式 #需要提前安裝pyyaml

yaml_str = model.to_yaml()

print(yaml_str)

fresh_model = tf.keras.models.model_from_yaml(yaml_str)

5.3 保存整個模型

model = tf.keras.Sequential([

layers.Dense(10, activation='softmax', input_shape=(72,)),

layers.Dense(10, activation='softmax')

])

model.compile(optimizer='rmsprop',

loss='categorical_crossentropy',

metrics=['accuracy'])

model.fit(train_x, train_y, batch_size=32, epochs=5)

model.save('all_model.h5')

model = tf.keras.models.load_model('all_model.h5')

6. 將 keras 用于 Estimator

Estimator API 用于針對分布式環境訓練模型。它適用于一些行業使用場景,例如用大型數據集進行分布式訓練并導出模型以用于生產

model = tf.keras.Sequential([layers.Dense(10,activation='softmax'),

layers.Dense(10,activation='softmax')])

model.compile(optimizer=tf.keras.optimizers.RMSprop(0.001),

loss='categorical_crossentropy',

metrics=['accuracy'])

estimator = tf.keras.estimator.model_to_estimator(model)

總結

以上是生活随笔為你收集整理的tesseract4.0.0 中文语言包_一份TensorFlow2.0中文教程的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 国产一区二 | 樱桃成人精品视频在线播放 | 久草新在线 | 日韩有码在线视频 | 天天人人精品 | 久久人人妻人人人人妻性色av | jizz18国产 | 又大又硬又爽免费视频 | 91香蕉视频在线看 | 性中国古装videossex | 91亚洲精品久久久久久久久久久久 | 成人av网址在线观看 | 欧美少妇18p | 高潮无码精品色欲av午夜福利 | 色婷婷精品久久二区二区密 | 狠狠操在线播放 | 麻豆影视在线免费观看 | 丁香花激情网 | 97免费观看视频 | 大肉大捧一进一出好爽mba | 免费看a级黄色片 | 中文字幕无线精品亚洲乱码一区 | 欧美激情视频在线观看 | 91精品久久久久久久久久久 | 亚洲精品传媒 | 成人欧美一区二区三区黑人孕妇 | av新天堂| 日本xxxx免费 | 日韩熟女一区二区 | 日韩八区 | 亚洲男人天堂2024 | 精品国产露脸精彩对白 | 91在线播 | 日韩专区欧美专区 | 激情小说亚洲图片 | 91久久精品视频 | 成人免费看片'在线观看 | 国产精品欧美久久久久久 | 日本二区在线观看 | 国产免费av网 | 一级片欧美| 日韩欧美国产一区二区三区 | 韩日精品中文字幕 | 亚洲av无码乱码在线观看性色 | 成人a级大片 | 一区二区三区欧美日韩 | xxx黄色片| av漫画在线观看 | 国产成人无码精品久久久性色 | 久久久a级片 | 亚洲国产私拍精品国模在线观看 | 国产第一网站 | 日韩欧美少妇 | 日韩欧美成人免费视频 | xxxx黄色| 91亚洲精品国偷拍自产在线观看 | 国产激情无码一区二区 | 伊人网色 | 亚洲精品.www | 欧美激情精品久久久久 | 欧美三级韩国三级日本三斤在线观看 | 亚洲日本国产 | 亚洲国内在线 | 91美女片黄在线观看 | 久久人妻少妇嫩草av无码专区 | 青青视频在线免费观看 | 91伊人| 欧美xxxⅹ性欧美大片 | 亚洲欧洲成人精品久久一码二码 | 最新黄网| 欲求不满在线小早川怜子 | 久草综合在线观看 | 中国一级特黄毛片 | 男生和女生靠逼视频 | 亚洲区一区二区三区 | 欧美精品一区二区三区四区五区 | 福利社区一区二区 | 婷婷丁香激情五月 | 最新在线中文字幕 | 亚洲最大中文字幕 | 亚洲一区二区三区播放 | 天堂网在线观看 | 悟空影视大全免费高清观看在线 | 欧美在线免费观看视频 | 完全免费在线视频 | 妖精视频在线观看免费 | 1000亚洲裸体人体 | av拍拍拍 | 久久伊人色 | juliaann欧美二区三区 | 日本啪啪片 | 色哟哟黄色| 日韩欧美一区二区在线 | 精品久久久久久亚洲综合网站 | 日本免费视频 | 黄色av片三级三级三级免费看 | 在线资源站| 国产精品亚洲AV色欲三区不卡 | 久久伊人五月天 |