阅读量:0
一、准备工作
1.创建一个虚拟环境
conda create --name drgcnn38 python=3.8.18
2.激活虚拟环境
conda activate drgcnn38
注意事项
在Pycharm中终端(terminal)显示PS而不是虚拟环境base
问题如下所示
解决方法:shell路径改成cmd.exe
重启终端显示虚拟环境
3.安装torch
conda install pytorch==2.1.0 torchvision==0.16.0 torchaudio==2.1.0 cpuonly -c pytorch
安装一系列包
注意事项
Pycharm远程连接Linux服务器实现代码同步
1.工具-->部署-->配置
2.选择SFTP远程连接,路径填与服务器要同步的路径地址
二、代码学习
各部分的作用
- eye_pre_process:视网膜眼底图像预处理模块。
- Encoder:编码器训练模块。
- modules:包含模型结构、损失函数和学习率降低策略。
- utils:包含一些常用函数和评估指标。
- BFFN:双眼特征融合网络训练模块。
- CAM:类别注意力模块。
eye_pre_process
copy.py
# 创建一个ArgumentParser对象,用于处理命令行参数 parser = argparse.ArgumentParser() # 添加一个命令行参数 '--image-folder',类型为字符串,默认值为 'D:/cv_paper/lesson/Dataset/ceshi' # 这个参数用于指定输入图像的文件夹路径 parser.add_argument('--image-folder', type=str, default=r'D:/cv_paper/lesson/Dataset/ceshi') # 添加一个命令行参数 '--output-folder',类型为字符串,默认值为 'D:\cv_paper\lesson/Dataset/ceshi_output' # 注意:这里路径中的反斜杠在不同的操作系统中可能需要特别注意,Python字符串中推荐使用原始字符串(r前缀)来避免转义字符的问题 # 这个参数用于指定输出结果的文件夹路径 parser.add_argument('--output-folder', type=str, default=r'D:\cv_paper\lesson/Dataset/ceshi_output') # 添加一个命令行参数 '--crop-size',类型为整数,默认值为512 # 这个参数用于指定图像裁剪的大小 parser.add_argument('--crop-size', type=int, default=512, help='crop size of image') # 添加一个命令行参数 '-n' 或 '--num-processes',类型为整数,默认值为8 # 这个参数用于指定处理任务时要使用的进程数 # '-n' 是 '--num-processes' 的简写形式,帮助信息说明了该参数的作用 parser.add_argument('-n', '--num-processes', type=int, default=8, help='number of processes to use')
# 转换一个包含多个任务的列表,每个任务由文件名、目标路径和裁剪大小组成 # 对于jobs列表中的每个任务(索引为j),它首先检查是否已经处理了100个任务(作为进度指示),然后调用convert函数来执行实际的图像转换。 def convert_list(i, jobs): for j, job in enumerate(jobs): # 每处理100个任务打印一次进度 if j % 100 == 0: print(f'worker{i} has finished {j} tasks.') # 解包任务元组并调用convert函数 convert(*job) # 转换单个图像文件,包括模糊处理、裁剪和保存 def convert(fname, tgt_path, crop_size): img = Image.open(fname) # 打开图像文件 blurred = img.filter(ImageFilter.BLUR) # 应用模糊滤镜 ba = np.array(blurred) # 将图像转换为NumPy数组 h, w, _ = ba.shape # 获取图像的高度、宽度和通道数 # 尝试根据图像的亮度分布来识别前景区域 if w > 1.2 * h: # 计算左右两侧的最大亮度值 left_max = ba[:, :w // 32, :].max(axis=(0, 1)).astype(int) right_max = ba[:, -w // 32:, :].max(axis=(0, 1)).astype(int) max_bg = np.maximum(left_max, right_max) foreground = (ba > max_bg + 10).astype(np.uint8) # 识别前景区域 bbox = Image.fromarray(foreground).getbbox() # 获取前景区域的最小边界框 # 如果边界框太小或不存在,则打印消息并可能设置为None if bbox is None: print(f'No bounding box found for {fname} (???)') else: left, upper, right, lower = bbox if right - left < 0.8 * h or lower - upper < 0.8 * h: print(f'Bounding box too small for {fname}') bbox = None else: bbox = None # 如果图像已经是合适的宽高比,则不尝试识别前景 # 如果未找到有效的边界框,则使用正方形边界框 if bbox is None: bbox = square_bbox(img) # 使用边界框裁剪图像,并调整大小 cropped = img.crop(bbox) cropped = cropped.resize([crop_size, crop_size], Image.ANTIALIAS) # 注意:ANTIALIAS可能是个拼写错误,应该是ANTIALIASIS save(cropped, tgt_path) # 保存图像 # 返回一个正方形裁剪框的边界 def square_bbox(img): w, h = img.size left = max((w - h) // 2, 0) upper = 0 right = min(w - (w - h) // 2, w) lower = h return (left, upper, right, lower) # 保存PIL图像到文件 def save(img, fname): img.save(fname, quality=100, subsampling=0) # 注意:subsampling参数可能不是所有格式都支持 # 假设的main函数,用于组织整个流程(注意:这里只是一个示例) def main(): # 示例任务列表,每个任务是一个(文件名, 目标路径, 裁剪大小)元组 jobs = [ ('input1.jpg', 'output1_resized.jpg', 256), ('input2.jpg', 'output2_resized.jpg', 256), # ... 更多任务 ] # 假设有一个工作者ID为1 convert_list(1, jobs) if __name__ == "__main__": main()
Encoder
main.py
# 定义主函数入口 def main(): # 解析配置参数 args = parse_configuration() # 加载配置文件 cfg = load_config(args.config) # 获取配置中保存的路径 save_path = cfg.config_base.config_save_path # 如果保存路径不存在,则创建该路径 if not os.path.exists(save_path): os.makedirs(save_path) # 将配置文件复制到保存路径 copy_config(args.config, cfg.config_base.config_save_path) # 执行工作函数 worker(cfg) # 定义工作函数,负责训练、验证和测试模型 def worker(cfg): # 根据配置生成模型 model = generate_model(cfg) # 计算模型总参数数量 total_param = 0 for param in model.parameters(): total_param += param.numel() print("Parameter: %.2fM" % (total_param / 1e6)) # 打印模型参数数量(单位:百万) # 根据配置生成训练、验证和测试数据集 train_dataset, test_dataset, val_dataset = generate_dataset(cfg) # 初始化性能评估器 estimator = PerformanceEvaluator(cfg.config_train.config_criterion, cfg.config_data.config_num_classes) # 执行训练过程 train( cfg=cfg, model=model, train_dataset=train_dataset, val_dataset=val_dataset, estimator=estimator, ) # 测试最佳验证模型性能 print('This is the performance of the best validation model:') checkpoint = os.path.join(cfg.config_base.config_save_path, 'best_validation_weights.pt') cfg.config_train.config_checkpoint = checkpoint # 设置检查点路径为最佳验证模型 model = generate_model(cfg) # 重新生成模型以加载权重 evaluate(cfg, model, test_dataset, estimator) # 评估模型性能 # 测试最终模型性能 print('This is the performance of the final model:') checkpoint = os.path.join(cfg.config_base.config_save_path, 'final_weights.pt') cfg.config_train.config_checkpoint = checkpoint # 设置检查点路径为最终模型 model = generate_model(cfg) # 重新生成模型以加载权重 evaluate(cfg, model, test_dataset, estimator) # 评估模型性能 # 如果此脚本作为主程序运行,则调用main函数 if __name__ == '__main__': main()
Encoder_predict.py
进行模型的训练,具体来说,它定义了一个训练循环&#x