日韩成人免费在线_国产成人一二_精品国产免费人成电影在线观..._日本一区二区三区久久久久久久久不

當前位置:首頁 > 科技  > 軟件

基于熵的不確定性預測

來源: 責編: 時間:2023-11-13 09:07:37 308觀看
導讀譯者 | 朱先忠審校 | 重樓在劍橋大學擔任神經成像和人工智能研究科學家期間,我面臨著使用最新的深度學習技術,尤其是nnU-Net,在復雜的大腦數據集上進行圖像分割的挑戰(zhàn)。在這項工作中,我注意到存在一個顯著的差距:對不確定

譯者 | 朱先忠bPS28資訊網——每日最新資訊28at.com

審校 | 重樓bPS28資訊網——每日最新資訊28at.com

在劍橋大學擔任神經成像和人工智能研究科學家期間,我面臨著使用最新的深度學習技術,尤其是nnU-Net,在復雜的大腦數據集上進行圖像分割的挑戰(zhàn)。在這項工作中,我注意到存在一個顯著的差距:對不確定性估計的忽視!然而,不確定性對于可靠的決策卻是至關重要。bPS28資訊網——每日最新資訊28at.com

在深入研究有關細節(jié)之前,您可以隨意查看我的Github存儲庫,其中包含本文中討論的所有代碼片段。bPS28資訊網——每日最新資訊28at.com

不確定性在圖像分割中的重要性

在計算機視覺和機器學習領域,圖像分割是一個核心問題。無論是在醫(yī)學成像、自動駕駛汽車還是機器人領域,準確的分割對于有效的決策至關重要。然而,一個經常被忽視的方面是與這些分割相關的不確定性的衡量。bPS28資訊網——每日最新資訊28at.com

為什么我們要關心圖像分割中的不確定性?

在許多實際應用中,不正確的分割可能會導致可怕的后果。例如,如果一輛自動駕駛汽車誤認了一個物體,或者醫(yī)學成像系統(tǒng)錯誤地標記了一個腫瘤,后果可能是災難性的。不確定性估計為我們提供了一個衡量模型對其預測的“確定度”的指標,從而做出更明智的決策。bPS28資訊網——每日最新資訊28at.com

我們還可以使用熵作為不確定性的度量來改進我們神經網絡的學習。這一領域被稱為“主動學習”。有關這一想法的更多的細節(jié)將在下一篇文章中探討,不過主要想法是確定模型最不確定的區(qū)域,以便將重點放在這些區(qū)域上。例如,我們可以讓卷積神經網絡(CNN對大腦進行醫(yī)學圖像分割,但對患有腫瘤的受試者表現非常差。然后我們可以集中精力獲得更多這別的標簽。bPS28資訊網——每日最新資訊28at.com

理解熵概念

(Entropy)是從熱力學和信息論中借來的一個概念,它量化了系統(tǒng)中的不確定性或隨機性。在機器學習的背景下,熵可以用來測量模型預測的不確定性。bPS28資訊網——每日最新資訊28at.com

數學上,對于具有概率質量函數P(X)的離散隨機變量X,熵H(X)定義為:bPS28資訊網——每日最新資訊28at.com

bPS28資訊網——每日最新資訊28at.com

或者在連續(xù)的情況下:bPS28資訊網——每日最新資訊28at.com

熵越高,不確定性就越大;反之亦然。熵越高,不確定性就越大;反之亦然。bPS28資訊網——每日最新資訊28at.com

下面,我們給出一個經典的例子來輔助充分掌握這個概念:bPS28資訊網——每日最新資訊28at.com

情形1:兩面不均勻的硬幣

bPS28資訊網——每日最新資訊28at.com

想象一下,一枚非均勻的硬幣,正面向上的概率p=0.9,反面向上的概率1-p=0.1。bPS28資訊網——每日最新資訊28at.com

于是,它的熵是bPS28資訊網——每日最新資訊28at.com

bPS28資訊網——每日最新資訊28at.com

情況2:兩面均勻的硬幣

現在讓我們想象一個兩面均勻的硬幣,它的正面和反面都著地概率都是p=0.5。于是,其熵為:bPS28資訊網——每日最新資訊28at.com

bPS28資訊網——每日最新資訊28at.com

熵更大,這與我們之前所說的一致,即有:更多的不確定性=更多的熵。bPS28資訊網——每日最新資訊28at.com

實際上,值得注意的是,p=0.5對應于最大熵:bPS28資訊網——每日最新資訊28at.com

熵的可視化描述(作者本人自制圖像)熵的可視化描述(作者本人自制圖像)bPS28資訊網——每日最新資訊28at.com

直覺上來看,均勻分布對應熵最大的情況。如果每個結果都是同樣可能的,那么這對應于最大的不確定性。bPS28資訊網——每日最新資訊28at.com

熵在圖像分割中的實現

為了將其與圖像分割聯(lián)系起來,請考慮在深度學習中,最終的Softmax層通常提供每個像素的類別概率??梢曰谶@些Softmax輸出來容易地計算每個像素的熵。bPS28資訊網——每日最新資訊28at.com

但這是如何工作的呢?

當模型對屬于特定類別的特定像素非常有信心時,Softmax層對該類別顯示出高概率(~1),而對其他類別顯示出非常小的概率(~0)。bPS28資訊網——每日最新資訊28at.com

Softmax圖層(非常有信心的情形,作者自制圖片)Softmax圖層(非常有信心的情形,作者自制圖片)bPS28資訊網——每日最新資訊28at.com

相反,當模型不確定時,Softmax輸出更均勻地分布在多個類別中。bPS28資訊網——每日最新資訊28at.com

Softmax層的不確定性情況(作者自制圖片)Softmax層的不確定性情況(作者自制圖片)bPS28資訊網——每日最新資訊28at.com

顯然,上面的概率結果表現得比較分散,如果你還記得的話,接近于均勻分布的情況,因為模型無法決定哪個類與像素相關。bPS28資訊網——每日最新資訊28at.com

如果你能堅持閱讀到現在,那就太好了!這說明你應該對熵的工作原理有很好的直覺理解了。bPS28資訊網——每日最新資訊28at.com

案例研究:醫(yī)學影像學

接下來,讓我們使用一個醫(yī)學成像的實際例子來說明這一點,特別是胎兒的T1大腦掃描的情況有關這個案例研究的所有代碼和圖像都可以在我的Github存儲庫中找到。bPS28資訊網——每日最新資訊28at.com

1.用Python編程計算熵

正如我們之前所說,我們正在使用神經網絡給出的Softmax輸出張量。這種方法不依賴于具體的模型,它只使用每個類的概率。bPS28資訊網——每日最新資訊28at.com

下面,讓我們來澄清一些關于我們正在處理的張量的維度的重要內容。bPS28資訊網——每日最新資訊28at.com

如果使用2D圖像,則Softmax層的形狀應為:bPS28資訊網——每日最新資訊28at.com

bPS28資訊網——每日最新資訊28at.com

這意味著,對于每個像素(或三維像素),我們都有一個大小為Classes的向量,這樣就確定了一個像素屬于我們所擁有的每個類的概率。bPS28資訊網——每日最新資訊28at.com

于是,熵應該是沿著第一維度的計算結果bPS28資訊網——每日最新資訊28at.com

def compute_entropy_4D(tensor): """ 計算具有形狀(number_of_classes,256256256)的4D張量上的熵。 參數: tensor (np.ndarray): 形狀 (number_of_classes, 256, 256, 256)的4D張量。 返回值: np.ndarray: 形狀(256, 256, 256)的3D張量,相應于每一個像素的熵值。 """ # 首先,沿著類別坐標軸歸一化張量,使其表示概率 sum_tensor = np.sum(tensor, axis=0, keepdims=True) tensor_normalized = tensor / sum_tensor # 計算熵 entropy_elements = -tensor_normalized * np.log2(tensor_normalized + 1e-12) # 添加一個小數,以避免log(0) entropy = np.sum(entropy_elements, axis=0) entropy = np.transpose(entropy, (2,1,0)) total_entropy = np.sum(entropy) return entropy, total_entropy

2.可視化基于熵的不確定性

現在,讓我們在圖像分割的每個切片上使用熱圖來可視化不確定性。bPS28資訊網——每日最新資訊28at.com

T1掃描(左),分割(中),熵(右):作者自制圖像T1掃描(左),分割(中),熵(右):作者自制圖像bPS28資訊網——每日最新資訊28at.com

讓我們看看另一個例子:bPS28資訊網——每日最新資訊28at.com

T1掃描(左),分割(中),熵(右):作者自制圖像T1掃描(左),分割(中),熵(右):作者自制圖像bPS28資訊網——每日最新資訊28at.com

結果看起來很棒!事實上,我們可以看到這是一致的,因為高熵區(qū)位于形狀的輪廓處。這是正常的,因為模型并不真正懷疑每個區(qū)域中間的點,而是很難發(fā)現的邊界或輪廓。bPS28資訊網——每日最新資訊28at.com

做出知情決策

總體來看,本文介紹的上述這種不確定性可以通過多種不同的方式使用:bPS28資訊網——每日最新資訊28at.com

  1. 隨著醫(yī)學專家越來越多地將人工智能作為一種工具,意識到模型的不確定性至關重要。這意味著,醫(yī)學專家可能會在需要更精細關注的區(qū)域花費更多時間。
  2. 在主動學習或半監(jiān)督學習的背景下,我們可以利用基于熵的不確定性來關注具有最大不確定性的例子,并提高學習效率(更多關于這一點的信息,請參閱后續(xù)文章)。

主要收獲

  • 熵是衡量系統(tǒng)隨機性或不確定性的一個非常強大的概念。
  • 在圖像分割中利用熵是可能的。這種方法是無模型即“不依賴具體的模型”的,并且只使用Softmax輸出張量。
  • 不確定性估計被忽略了,但它是至關重要的。優(yōu)秀的數據科學家知道如何制作好的模型。大數據科學家知道他們的模型在哪里失敗,并利用它來改進學習。

最后,如果你喜歡這篇文章,并且想了解更多的相關信息的話,請查看這個代碼倉庫:https://github.com/FrancoisPorcher?source=post_page-----812cca769d7abPS28資訊網——每日最新資訊28at.com

譯者介紹

朱先忠,51CTO社區(qū)編輯,51CTO專家博客、講師,濰坊一所高校計算機教師,自由編程界老兵一枚。bPS28資訊網——每日最新資訊28at.com

原文標題:Entropy based Uncertainty Prediction,作者:Fran?ois PorcherbPS28資訊網——每日最新資訊28at.com

本文鏈接:http://www.www897cc.com/showinfo-26-22490-0.html基于熵的不確定性預測

聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯(lián)系,我們將在第一時間刪除處理。郵件:2376512515@qq.com

上一篇: 關于四種獲取當前執(zhí)行方法名稱方案的基準測試報告

下一篇: JS面試題:公司真實JS面試題整理

標簽:
  • 熱門焦點
Top 主站蜘蛛池模板: 平南县| 夏邑县| 吉林省| 弋阳县| 淮北市| 舟曲县| 永德县| 怀远县| 呼玛县| 玉林市| 乾安县| 内乡县| 河源市| 宿松县| 海安县| 苍梧县| 马尔康县| 花莲市| 河北区| 上饶市| 沙洋县| 雷波县| 岳阳县| 衡南县| 电白县| 西平县| 宁波市| 齐齐哈尔市| 莱芜市| 池州市| 军事| 西安市| 田东县| 丰宁| 内黄县| 佛坪县| 寻乌县| 万山特区| 南康市| 黎川县| 长沙市|