當項目變得越來越大時,有效地管理計算資源是一個不可避免的需求。Python與C或c++等低級語言相比,似乎不夠節省內存。
但是其實有許多方法可以顯著優化Python程序的內存使用,這些方法可能在實際應用中并沒有人注意,所以本文將重點介紹Python的內置機制,掌握它們將大大提高Python編程技能。
首先在進行內存優化之前,我們首先要查看內存的使用情況
有幾種方法可以在Python中獲取對象的大小。可以使用sys.getsizeof()來獲取對象的確切大小,使用objgraph.show_refs()來可視化對象的結構,或者使用psutil.Process().memory_info()。RSS獲取當前分配的所有內存。
>>> import numpy as np >>> import sys >>> import objgraph >>> import psutil >>> import pandas as pd >>> ob = np.ones((1024, 1024, 1024, 3), dtype=np.uint8) ### Check object 'ob' size >>> sys.getsizeof(ob) / (1024 * 1024) 3072.0001373291016 ### Check current memory usage of whole process (include ob and installed packages, ...) >>> psutil.Process().memory_info().rss / (1024 * 1024) 3234.19140625 ### Check structure of 'ob' (Useful for class object) >>> objgraph.show_refs([ob], filename='sample-graph.png') ### Check memory for pandas.DataFrame >>> from sklearn.datasets import load_boston >>> data = load_boston() >>> data = pd.DataFrame(data['data']) >>> print(data.info(verbose=False, memory_usage='deep')) <class 'pandas.core.frame.DataFrame'> RangeIndex: 506 entries, 0 to 505 Columns: 13 entries, 0 to 12 dtypes: float64(13) memory usage: 51.5 KB ### Check memory for pandas.Series >>> data[0].memory_usage(deep=True) # deep=True to include all the memory used by underlying parts that construct the pd.Series 4176
這樣我們才能根據對象的內存占用來查看實際的優化結果
Python作為一種動態類型語言,在面向對象方面具有更大的靈活性。在運行時可以向Python類添加額外屬性和方法的能力。
例如,下面的代碼定義了一個名為Author的類。最初它有兩個屬性name和age。但是我們以后可以很容易地添加一個額外的job:
class Author: def __init__(self, name, age): self.name = name self.age = age me = Author('Yang Zhou', 30) me.job = 'Software Engineer' print(me.job) # Software Engineer
但是這種靈活性在底層浪費了更多內存。
因為Python中每個類的實例都維護一個特殊的字典(__dict__)來存儲實例變量。因為字典的底層基于哈希表的實現所以消耗了大量的內存。
在大多數情況下,我們不需要在運行時更改實例的變量或方法,并且__dict__不會(也不應該)在類定義后更改。所以Python為此提供了一個屬性:__slots__。
它通過指定類的所有有效屬性的名稱來作為白名單:
class Author: __slots__ = ('name', 'age') def __init__(self, name, age): self.name = name self.age = age me = Author('Yang Zhou', 30) me.job = 'Software Engineer' print(me.job) # AttributeError: 'Author' object has no attribute 'job'
白名單只定義了兩個有效的屬性name和age。由于屬性是固定的,Python不需要為它維護字典,只為__slots__中定義的屬性分配必要的內存空間。
下面我們做一個簡單的比較:
import sys class Author: def __init__(self, name, age): self.name = name self.age = age class AuthorWithSlots: __slots__ = ['name', 'age'] def __init__(self, name, age): self.name = name self.age = age # Creating instances me = Author('Yang', 30) me_with_slots = AuthorWithSlots('Yang', 30) # Comparing memory usage memory_without_slots = sys.getsizeof(me) + sys.getsizeof(me.__dict__) memory_with_slots = sys.getsizeof(me_with_slots) # __slots__ classes don't have __dict__ print(memory_without_slots, memory_with_slots) # 152 48 print(me.__dict__) # {'name': 'Yang', 'age': 30} print(me_with_slots.__dict__) # AttributeError: 'AuthorWithSlots' object has no attribute '__dict__'
可以看到 152 和 48 明顯節省了內存。
生成器是Python中列表的惰性求值版本。每當調用next()方法時生成一個項,而不是一次計算所有項。所以它們在處理大型數據集時非常節省內存。
def number_generator(): for i in range(100): yield i numbers = number_generator() print(numbers) # <generator object number_generator at 0x104a57e40> print(next(numbers)) # 0 print(next(numbers)) # 1
上面的代碼顯示了一個編寫和使用生成器的基本示例。關鍵字yield是生成器定義的核心。應用它意味著只有在調用next()方法時才會產生項i。
讓我們比較一個生成器和一個列表,看看哪個更節省內存:
mport sys numbers = [] for i in range(100): numbers.append(i) def number_generator(): for i in range(100): yield i numbers_generator = number_generator() print(sys.getsizeof(numbers_generator)) # 112 print(sys.getsizeof(numbers)) # 920
可以看到使用生成器可以顯著節省內存使用。如果我們將列表推導式的方括號轉換成圓括號,它將成為生成器表達式。這是在Python中定義生成器的更簡單的方法:
import sys numbers = [i for i in range(100)] numbers_generator = (i for i in range(100)) print(sys.getsizeof(numbers_generator)) # 112 print(sys.getsizeof(numbers)) # 920
內存映射文件I/O,簡稱“mmap”,是一種操作系統級優化。
簡單地說,當使用mmap技術對文件進行內存映射時,它直接在當前進程的虛擬內存空間中創建文件的映射,而不是將整個文件加載到內存中,這節省了大量內存。
Python已經提供了用于使用此技術的內置模塊,因此我們可以輕松地利用它,而無需考慮操作系統級別的實現。
以下是如何在Python中使用mmap進行文件處理:
import mmap with open('test.txt', "r+b") as f: # memory-map the file, size 0 means whole file with mmap.mmap(f.fileno(), 0) as mm: # read content via standard file methods print(mm.read()) # read content via slice notation snippet = mm[0:10] print(snippet.decode('utf-8'))
Python使內存映射文件I/O技術的使用變得方便。我們所需要做的只是應用mmap.mmap()方法,然后使用標準文件方法甚至切片符號處理打開的對象。
開發人員應仔細而精確地選擇數據類型。因為在某些情況下,使用一種數據類型比使用另一種數據類型更節省內存。
元組是不可變的(在創建后不能更改),它允許Python在內存分配方面進行優化。列表是可變的,因此需要額外的空間來容納潛在的修改。
import sys my_tuple = (1, 2, 3, 4, 5) my_list = [1, 2, 3, 4, 5] print(sys.getsizeof(my_tuple)) # 80 print(sys.getsizeof(my_list)) # 120
元組my_tuple比列表使用更少的內存,如果創建后不需要更改數據,我們應該選擇元組而不是列表。
Python中的數組要求元素具有相同的數據類型(例如,所有整數或所有浮點數),但列表可以存儲不同類型的對象,這不可避免地需要更多的內存。如果列表的元素都是相同類型,使用數組會更節省內存:
import sys import array my_list = [i for i in range(1000)] my_array = array.array('i', [i for i in range(1000)]) print(sys.getsizeof(my_list)) # 8856 print(sys.getsizeof(my_array)) # 4064
另外:Python是數據科學的主導語言。有許多強大的第三方模塊和工具提供更多的數據類型,如NumPy和Pandas。如果我們只需要一個簡單的一維數字數組,而不需要NumPy提供的廣泛功能,那么Python的內置數組是一個不錯的選擇。但當涉及到復雜的矩陣操作時,使用NumPy提供的數組是所有數據科學家的首選,也可能是最佳選擇。
看看下面的代碼:
>>> a = 'Y'*4096 >>> b = 'Y'*4096 >>> a is b True >>> c = 'Y'*4097 >>> d = 'Y'*4097 >>> c is d False
為什么a是b是真,而c是d是假呢?
這在Python中被稱作字符串駐留(string interning).如果有幾個值相同的小字符串,它們將被Python隱式地存儲并在內存中并引用相同的對象。定義小字符串閾值數字是4096。
由于c和d的長度為4097,因此它們是內存中的兩個對象而不是一個對象,不再隱式駐留字符串。所以當執行c = d時,我們得到一個False。
駐留是一種優化內存使用的強大技術。如果我們想要顯式地使用它可以使用sys.intern()方法:
>>> import sys >>> c = sys.intern('Y'*4097) >>> d = sys.intern('Y'*4097) >>> c is d True
本文鏈接:http://www.www897cc.com/showinfo-26-62787-0.html提高代碼效率的六個Python內存優化技巧
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com