日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當前位置:首頁 > 科技  > 軟件

PyTorch中使用回調和日志記錄來監控模型訓練?

來源: 責編: 時間:2024-09-10 09:50:26 125觀看
導讀就像船長依賴儀器來保持航向一樣,數據科學家需要回調和日志記錄系統來監控和指導他們在PyTorch中的模型訓練。在本教程中,我們將指導您實現回調和日志記錄功能,以成功訓練模型。理解回調和日志記錄回調和日志記錄是PyTor

就像船長依賴儀器來保持航向一樣,數據科學家需要回調和日志記錄系統來監控和指導他們在PyTorch中的模型訓練。在本教程中,我們將指導您實現回調和日志記錄功能,以成功訓練模型。XKu28資訊網——每日最新資訊28at.com

XKu28資訊網——每日最新資訊28at.com

理解回調和日志記錄

回調和日志記錄是PyTorch中有效管理和監控機器學習模型訓練過程的基本工具。XKu28資訊網——每日最新資訊28at.com

1.回調

在編程中,回調是一個作為參數傳遞給另一個函數的函數。這允許回調函數在調用函數的特定點執行。在PyTorch中,回調用于在訓練循環的指定階段執行操作,例如一個時期的結束或處理一個批次之后。這些階段可以是:XKu28資訊網——每日最新資訊28at.com

  • 時期結束:當整個訓練時期(對整個數據集的迭代)完成時。
  • 批次結束:在一個時期內處理單個數據批次之后。
  • 其他階段:根據特定回調的實現,它也可能在其他點觸發。

回調執行的常見操作包括:XKu28資訊網——每日最新資訊28at.com

  • 監控:打印訓練指標,如損失和準確率。
  • 早停:如果模型性能停滯或惡化,則停止訓練。
  • 保存檢查點:定期保存模型的狀態,以便可能的恢復或回滾。
  • 觸發自定義邏輯:根據訓練進度執行任何用戶定義的代碼。

2.回調的好處

  • 模塊化設計:回調通過將特定功能與核心訓練循環分開封裝,促進模塊化。這提高了代碼組織和可重用性。
  • 靈活性:您可以輕松創建自定義回調以滿足特殊需求,而無需修改核心訓練邏輯。
  • 定制化:回調允許您根據特定要求和監控偏好定制訓練過程。

3.日志記錄

日志記錄是指記錄軟件執行過程中發生的事件。PyTorch日志記錄對于監控各種指標至關重要,以理解模型隨時間的性能。存儲訓練指標,如:XKu28資訊網——每日最新資訊28at.com

  • 損失值
  • 準確率分數
  • 學習率
  • 其他相關的訓練參數

4.為什么日志記錄很重要?

日志記錄提供了模型訓練歷程的歷史記錄。它允許您:XKu28資訊網——每日最新資訊28at.com

  • 可視化進度:您可以繪制隨時間記錄的指標,以分析損失、準確率或其他參數的趨勢。
  • 比較實驗:通過比較不同訓練運行的日志,您可以評估超參數調整或模型變化的影響。
  • 調試訓練問題:日志記錄有助于識別訓練期間的潛在問題,如突然的性能下降或意外的指標值。

在PyTorch中實現回調和日志記錄

讓我們逐步了解如何在PyTorch中實現一個簡單的回調和日志記錄系統。XKu28資訊網——每日最新資訊28at.com

步驟1:定義一個回調類

首先,我們定義一個回調類,它將在每個時期的結束時打印一條消息。XKu28資訊網——每日最新資訊28at.com

class PrintCallback:    def on_epoch_end(self, epoch, logs):        print(f"Epoch {epoch}: loss = {logs['loss']:.4f}, accuracy = {logs['accuracy']:.4f}")

步驟2:修改訓練循環

接下來,我們修改訓練循環以接受我們的回調,并在每個時期的結束時調用它。XKu28資訊網——每日最新資訊28at.com

def train_model(model, dataloader, criterion, optimizer, epochs, callbacks):    for epoch in range(epochs):        for batch in dataloader:            # Training process happens here            pass        logs = {'loss': 0.001, 'accuracy': 0.999}  # Example metrics after an epoch        for callback in callbacks:            callback.on_epoch_end(epoch, logs)

步驟3:實現日志記錄

對于日志記錄,我們將使用Python內置的日志模塊來記錄訓練進度。XKu28資訊網——每日最新資訊28at.com

import logginglogging.basicConfig(level=logging.INFO)def log_metrics(epoch, logs):    logging.info(f"Epoch {epoch}: loss = {logs['loss']:.4f}, accuracy = {logs['accuracy']:.4f}")

步驟4:將所有內容整合在一起

最后,我們創建我們的回調實例,設置記錄器,并開始訓練過程。XKu28資訊網——每日最新資訊28at.com

print_callback = PrintCallback()train_model(model, dataloader, criterion, optimizer, epochs=10, callbacks=[print_callback])

在PyTorch中實現回調和日志記錄

示例1:合成數據集

讓我們創建一個代表我們機器人繪畫的隨機數字的簡單數據集。我們將使用PyTorch創建隨機數據點。XKu28資訊網——每日最新資訊28at.com

import torch# Generate random data pointsdata = torch.rand(100, 3)  # 100 paintings, 3 colors eachlabels = torch.randint(0, 2, (100,))  # Randomly label them as good (1) or bad (0)

步驟1:定義一個簡單模型XKu28資訊網——每日最新資訊28at.com

現在,我們將定義一個簡單的模型,嘗試學習對繪畫進行分類。XKu28資訊網——每日最新資訊28at.com

from torch import nn# A simple neural network with one layerclass SimpleModel(nn.Module):    def __init__(self):        super(SimpleModel, self).__init__()        self.layer = nn.Linear(3, 2)    def forward(self, x):        return self.layer(x)model = SimpleModel()

步驟2:設置訓練XKu28資訊網——每日最新資訊28at.com

我們將準備訓練模型所需的一切。XKu28資訊網——每日最新資訊28at.com

# Loss function and optimizercriterion = nn.CrossEntropyLoss()optimizer = torch.optim.SGD(model.parameters(), lr=0.1)# DataLoader to handle our datasetfrom torch.utils.data import TensorDataset, DataLoaderdataset = TensorDataset(data, labels)dataloader = DataLoader(dataset, batch_size=10)

步驟3:實現一個回調XKu28資訊網——每日最新資訊28at.com

我們將創建一個回調,它在每個時期后打印損失。XKu28資訊網——每日最新資訊28at.com

class PrintLossCallback:    def on_epoch_end(self, epoch, loss):        print(f"Epoch {epoch}: loss = {loss:.4f}")

步驟4:使用回調訓練XKu28資訊網——每日最新資訊28at.com

現在,我們將訓練模型并使用我們的回調。XKu28資訊網——每日最新資訊28at.com

def train(model, dataloader, criterion, optimizer, epochs, callback):    for epoch in range(epochs):        total_loss = 0        for inputs, targets in dataloader:            optimizer.zero_grad()            outputs = model(inputs)            loss = criterion(outputs, targets)            loss.backward()            optimizer.step()            total_loss += loss.item()        callback.on_epoch_end(epoch, total_loss / len(dataloader))# Create an instance of our callbackprint_loss_callback = PrintLossCallback()# Start trainingtrain(model, dataloader, criterion, optimizer, epochs=5, callback=print_loss_callback)

輸出:XKu28資訊網——每日最新資訊28at.com

Epoch 0: loss = 0.6927Epoch 1: loss = 0.6909Epoch 2: loss = 0.6899Epoch 3: loss = 0.6891Epoch 4: loss = 0.6885

步驟5:可視化訓練XKu28資訊網——每日最新資訊28at.com

我們可以繪制隨時間變化的損失,以可視化我們機器人的進步。XKu28資訊網——每日最新資訊28at.com

import matplotlib.pyplot as pltlosses = []  # Store the losses hereclass PlotLossCallback:    def on_epoch_end(self, epoch, loss):        losses.append(loss)        plt.plot(losses)        plt.xlabel('Epoch')        plt.ylabel('Loss')        plt.show()# Update our training function to use the plotting callbackplot_loss_callback = PlotLossCallback()train(model, dataloader, criterion, optimizer, epochs=5, callback=plot_loss_callback)

輸出:XKu28資訊網——每日最新資訊28at.com

XKu28資訊網——每日最新資訊28at.com

XKu28資訊網——每日最新資訊28at.com

示例2:公共數據集

對于第二個示例,我們將使用在線可用的真實數據集。我們將直接使用URL加載著名的鳶尾花數據集。XKu28資訊網——每日最新資訊28at.com

步驟1:加載數據集XKu28資訊網——每日最新資訊28at.com

我們將使用pandas從URL加載數據集。XKu28資訊網——每日最新資訊28at.com

import pandas as pd# Load the Iris dataseturl = "https://archive.ics.uci.edu/ml/machine-learning-databases/iris/iris.data"iris_data = pd.read_csv(url, header=None)

步驟2:預處理數據XKu28資訊網——每日最新資訊28at.com

我們需要將數據轉換為PyTorch可以理解的格式。XKu28資訊網——每日最新資訊28at.com

from sklearn.preprocessing import LabelEncoderfrom sklearn.model_selection import train_test_split# Encode the labelsencoder = LabelEncoder()iris_labels = encoder.fit_transform(iris_data[4])# Split the datatrain_data, test_data, train_labels, test_labels = train_test_split(    iris_data.iloc[:, :4].values, iris_labels, test_size=0.2, random_state=42)# Convert to PyTorch tensorstrain_data = torch.tensor(train_data, dtype=torch.float32)test_data = torch.tensor(test_data, dtype=torch.float32)train_labels = torch.tensor(train_labels, dtype=torch.long)test_labels = torch.tensor(test_labels, dtype=torch.long)# Create DataLoaderstrain_dataset = TensorDataset(train_data, train_labels)test_dataset = TensorDataset(test_data, test_labels)train_loader = DataLoader(train_dataset, batch_size=10)test_loader = DataLoader(test_dataset, batch_size=10)

步驟3:為鳶尾花數據集定義一個模型XKu28資訊網——每日最新資訊28at.com

我們將為鳶尾花數據集創建一個合適的模型。XKu28資訊網——每日最新資訊28at.com

class IrisModel(nn.Module):    def __init__(self):        super(IrisModel, self).__init__()        self.layer1 = nn.Linear(4, 10)        self.layer2 = nn.Linear(10, 3)    def forward(self, x):        x = torch.relu(self.layer1(x))        return self.layer2(x)iris_model = IrisModel()

步驟4:訓練模型XKu28資訊網——每日最新資訊28at.com

我們將按照之前的步驟訓練這個模型。XKu28資訊網——每日最新資訊28at.com

# Assume the same training function and callbacks as beforetrain(iris_model, train_loader, criterion, optimizer, epochs=5, callback=plot_loss_callback)

輸出:XKu28資訊網——每日最新資訊28at.com

XKu28資訊網——每日最新資訊28at.com

步驟5:評估模型XKu28資訊網——每日最新資訊28at.com

最后,我們將檢查我們的模型在測試數據上的表現如何。XKu28資訊網——每日最新資訊28at.com

def evaluate(model, test_loader):    model.eval()  # Set the model to evaluation mode    correct = 0    with torch.no_grad():  # No need to track gradients        for inputs, targets in test_loader:            outputs = model(inputs)            _, predicted = torch.max(outputs, 1)            correct += (predicted == targets).sum().item()    accuracy = correct / len(test_loader.dataset)    print(f"Accuracy: {accuracy:.4f}")evaluate(iris_model, test_loader)

輸出:XKu28資訊網——每日最新資訊28at.com

Accuracy: 0.3333

結論

您可以通過設置回調和日志記錄來進行必要的調整,獲得對模型訓練過程的洞察,并確保其高效學習。請記住,如果您的模型提供明確反饋,您通往訓練有素的機器學習模型的道路將更加順利。本文提供了適合初學者的代碼示例和解釋,讓您基本掌握PyTorch中的回調和日志記錄。不要猶豫嘗試提供的代碼。記住,實踐是掌握這些主題的關鍵。XKu28資訊網——每日最新資訊28at.com

本文鏈接:http://www.www897cc.com/showinfo-26-112766-0.htmlPyTorch中使用回調和日志記錄來監控模型訓練?

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 玩轉文件權限:Python 的七個權限操作實戰

下一篇: Cookie的secure屬性引起循環登錄問題分析及解決方案

標簽:
  • 熱門焦點
  • 一加Ace2 Pro官宣:普及16G內存 引領24G

    一加官方今天繼續為本月發布的新機一加Ace2 Pro帶來預熱,公布了內存方面的信息。“淘汰 8GB ,12GB 起步,16GB 普及,24GB 引領,還有呢?#一加Ace2Pro#,2023 年 8 月,敬請期待。”同時
  • Flowable工作流引擎的科普與實踐

    一.引言當我們在日常工作和業務中需要進行各種審批流程時,可能會面臨一系列技術和業務上的挑戰。手動處理這些審批流程可能會導致開發成本的增加以及業務復雜度的上升。在這
  • 拼多多APP上線本地生活入口,群雄逐鹿萬億市場

    Tech星球(微信ID:tech618)文 | 陳橋輝 Tech星球獨家獲悉,拼多多在其APP內上線了“本地生活”入口,位置較深,位于首頁的“充值中心”內,目前主要售賣美食相關的
  • 東方甄選單飛:有些鳥注定是關不住的

    文/彭寬鴻編輯/羅卿東方甄選創始人俞敏洪帶隊的“7天甘肅行”直播活動已在近日順利收官。成立后一年多時間里,東方甄選要脫離抖音自立門戶的傳聞不絕于耳,“7
  • 消息稱小米汽車開始篩選交付中心:需至少120個車位

    IT之家 7 月 7 日消息,日前,有微博簡介為“汽車行業從業者、長三角一體化擁護者”的微博用戶 @長三角行健者 發文表示,據經銷商集團反饋,小米汽車目前
  • 7月4日見!iQOO 11S官宣:“雞血版”驍龍8 Gen2+200W快充加持

    上半年已接近尾聲,截至目前各大品牌旗下的頂級旗艦都已悉數亮相,而下半年即將推出的頂級旗艦已經成為了數碼圈爆料的主流,其中就包括全新的iQOO 11S系
  • Android 14發布:首批適配機型公布

    5月11日消息,谷歌在今天凌晨舉行了I/O大會,本次發布會谷歌帶來了自家的AI語言模型PaLM 2、谷歌Pixel Fold折疊屏、谷歌Pixel 7a手機,同時發布了Androi
  • 2022爆款:ROG魔霸6 冰川散熱系統持續護航

    喜逢開學季,各大商家開始推出自己的新產品,進行打折促銷活動。對于忠實的端游愛好者來說,能夠擁有一款夢寐以求的筆記本電腦是一件十分開心的事。但是現在的
  • 親歷馬斯克血洗Twitter,硅谷的苦日子在后頭

    文/劉哲銘  編輯/李薇  馬斯克再次揮下裁員大刀。  美國時間11月14日,Twitter約4400名外包員工遭解雇,此次被解雇的員工的主要工作為內容審核等。此前,T
Top 主站蜘蛛池模板: 临夏县| 集贤县| 涞水县| 赞皇县| 巍山| 白朗县| 治县。| 同德县| 汉中市| 齐齐哈尔市| 黑山县| 通榆县| 祁门县| 勃利县| 英山县| 景泰县| 三门峡市| 潢川县| 上思县| 家居| 壶关县| 昭觉县| 永川市| 察隅县| 汉沽区| 清流县| 镇江市| 育儿| 桃园县| 百色市| 嫩江县| 广州市| 樟树市| 抚州市| 晋宁县| 玛曲县| 定襄县| 石首市| 田阳县| 夹江县| 天门市|