目录
一、用法精讲
28、pandas.HDFStore.keys函数
28-1、语法
# 28、pandas.HDFStore.keys函数 HDFStore.keys(include='pandas') Return a list of keys corresponding to objects stored in HDFStore. Parameters: include str, default ‘pandas’ When kind equals ‘pandas’ return pandas objects. When kind equals ‘native’ return native HDF5 Table objects. Returns: list List of ABSOLUTE path-names (e.g. have the leading ‘/’). Raises: raises ValueError if kind has an illegal value.
28-2、参数
28-2-1、include(可选):用于控制返回的键的类型或格式。
include参数允许你指定一个过滤器,以限制keys()方法返回的键的类型,它接受以下值之一(或其组合,通过列表或元组提供):
28-2-1-1、'all'(默认值):返回所有类型的键。
28-2-1-2、'group':仅返回组(HDF5中的目录或容器)的键。
28-2-1-3、'table'或'dataframe':仅返回以表格形式存储的DataFrame的键(HDF5 中的表格)。
28-2-1-4、'fixed'或'series'或'scalar':仅返回以固定格式存储的Series或单个值的键。
28-3、功能
返回存储在HDF5文件中所有对象的键(即名称)的列表。
28-4、返回值
返回一个包含字符串的列表,每个字符串都是一个存储在HDF5文件中的对象的键(名称),这些键是对象的绝对路径名,通常以/开头。
28-5、说明
HDF5(Hierarchical Data Format version 5)是一种用于存储和组织大量数据的文件格式,它特别适合于存储和组织大量科学数据。
28-6、用法
28-6-1、数据准备
无
28-6-2、代码示例
# 28、pandas.HDFStore.keys函数 import pandas as pd # 假设'example.h5'是你的HDF5文件名 with pd.HDFStore('example.h5') as store: # 获取所有键 all_keys = store.keys() # 过滤出仅包含DataFrame的键 df_keys = [key for key in all_keys if store.get_storer(key).is_table] # 过滤出仅包含Series的键 series_keys = [key for key in all_keys if not store.get_storer(key).is_table] # 如果你想同时获取DataFrame和Series的键,可以这样做 all_pandas_keys = df_keys + series_keys if __name__ == '__main__': # 打印结果以供检查 print(f"DataFrame keys: {df_keys}") print(f"Series keys: {series_keys}") print(f"All keys: {all_pandas_keys}")
28-6-3、结果输出
# 28、pandas.HDFStore.keys函数 # DataFrame keys: ['/data'] # Series keys: [] # All keys: ['/data']
29、pandas.HDFStore.groups函数
29-1、语法
# 29、pandas.HDFStore.groups函数 HDFStore.groups() Return a list of all the top-level nodes. Each node returned is not a pandas storage object. Returns: list List of objects.
29-2、参数
无
29-3、功能
用于列出存储在HDF5文件中的所有组(或称为“目录”或“容器”)的信息。
29-4、返回值
HDFStore.groups()方法的返回值通常包含以下信息:
29-4-1、组名:每个组的名称,它通常是一个字符串,表示HDF5文件中的路径。
29-4-2、键:每个组内包含的键(即,对象的名称),这些键对应于存储在组中的DataFrame、Series或其他pandas对象。
29-4-3、子组:如果有的话,还可能包含关于子组的信息。不过,请注意,并不是所有的实现都会返回子组信息,这取决于pandas的版本和HDF5文件的结构。
29-5、说明
无
29-6、用法
29-6-1、数据准备
无
29-6-2、代码示例
# 29、pandas.HDFStore.groups函数 import pandas as pd import numpy as np # 创建一些示例数据 df1 = pd.DataFrame(np.random.randn(10, 4), columns=list('ABCD')) df2 = pd.DataFrame(np.random.randn(10, 4), columns=list('EFGH')) series1 = pd.Series(np.random.randn(10), name='series1') # 创建并写入数据到HDF5文件 with pd.HDFStore('example.h5') as store: store.put('dataframe1', df1) store.put('dataframe2', df2) store.put('series1', series1) # 使用HDFStore.groups()列出文件中的所有组 with pd.HDFStore('example.h5') as store: groups = store.groups() print("Groups in HDF5 file:") for group in groups: print(group)
29-6-3、结果输出
# 29、pandas.HDFStore.groups函数 # Groups in HDF5 file: # /data (Group) '' # /dataframe1 (Group) '' # /dataframe2 (Group) '' # /series1 (Group) ''
30、pandas.HDFStore.walk函数
30-1、语法
# 30、pandas.HDFStore.walk函数 HDFStore.walk(where='/') Walk the pytables group hierarchy for pandas objects. This generator will yield the group path, subgroups and pandas object names for each group. Any non-pandas PyTables objects that are not a group will be ignored. The where group itself is listed first (preorder), then each of its child groups (following an alphanumerical order) is also traversed, following the same procedure. Parameters: where str, default “/” Group where to start walking. Yields: path str Full path to a group (without trailing ‘/’). groups list Names (strings) of the groups contained in path. leaves list Names (strings) of the pandas objects contained in path.
30-2、参数
30-2-1、where(可选,默认值为'/'):字符串,指定了遍历的起始位置。默认为根目录('/'),意味着从HDF5文件的根开始遍历,你可以指定任何有效的路径来从文件的某个特定部分开始遍历。
30-3、功能
用于遍历存储在HDF5文件中的键(keys)或节点(nodes)。
30-4、返回值
返回一个生成器(generator),它会产生一个包含两个元素的元组(tuple):(key, group)。
30-4-1、key: 当前遍历到的键(或路径)的字符串表示。
30-4-2、group: 一个pandas._libs.lib.H5Group对象,表示当前遍历到的组(或数据集)。注意,对于数据集(dataset),这个对象可能不是非常有用,因为HDF5的组(group)和数据集(dataset)在pandas的HDFStore中以不同的方式处理。
30-5、说明
无
30-6、用法
30-6-1、数据准备
无
30-6-2、代码示例
# 30、pandas.HDFStore.walk函数 import pandas as pd import numpy as np # 创建一个示例HDF5文件 file_path = 'example.h5' with pd.HDFStore(file_path, mode='w') as store: # 写入一些数据 store.put('df1', pd.DataFrame(np.random.randn(10, 4), columns=list('ABCD'))) store.put('df2', pd.DataFrame(np.random.randn(10, 4), columns=list('WXYZ'))) store.put('subdir/df3', pd.DataFrame(np.random.randn(10, 4), columns=list('JKLM'))) # 使用walk方法遍历HDF5文件 with pd.HDFStore(file_path, mode='r') as store: print("Walking through the HDF5 file structure:") for root, dirs, files in store.walk(where='/'): print(f"Root: {root}") print(f"Directories: {dirs}") print(f"Files: {files}") print("-" * 40)
30-6-3、结果输出
# 30、pandas.HDFStore.walk函数 # Walking through the HDF5 file structure: # Root: # Directories: ['subdir'] # Files: ['df1', 'df2'] # ---------------------------------------- # Root: /subdir # Directories: [] # Files: ['df3'] # ----------------------------------------