当前位置:首页 > 文章列表 > 文章 > python教程 > MONAI自定义fMRI数据加载教程

MONAI自定义fMRI数据加载教程

2025-08-15 08:27:44 0浏览 收藏

一分耕耘,一分收获!既然都打开这篇《MONAI加载自定义fMRI数据方法详解》,就坚持看下去,学下去吧!本文主要会给大家讲到等等知识点,如果大家对本文有好的建议或者看到有不足之处,非常欢迎大家积极提出!在后续文章我会继续更新文章相关的内容,希望对大家都有所帮助!

如何使用MONAI加载和处理自定义fMRI数据

本文旨在指导读者如何修改现有的MONAI代码,以加载和处理存储在特定文件夹结构中的自定义fMRI数据(NIfTI格式)。文章将详细解释如何修改文件路径、调整数据裁剪参数,以及如何将nilearn库集成到现有的MONAI工作流程中,以便更方便地加载NIfTI图像并提取数据,最终实现高效的fMRI数据预处理。

修改文件路径

原始代码使用硬编码的文件路径和数据集名称。你需要根据你的数据存储结构修改以下几个关键变量:

  1. load_root: 将此变量设置为你的fMRI数据所在的根目录。例如:

    load_root = 'F:\\New folder\\cn_processed data'
  2. filenames: 代码使用os.listdir(load_root)获取文件名列表。 确保load_root目录下直接包含各个被试的文件夹(例如Sub1、Sub2等)。

  3. subj_name: 在循环中,subj_name = filename[:-7]用于从文件名中提取被试名称。根据你的文件名格式进行调整。 如果你的文件命名为S1.nii 且位于Sub1文件夹下,则需要在循环中构建完整的文件路径:

    for filename in sorted(filenames):
        subj_name = filename  # 文件名为Sub1
        # 构建完整路径
        full_path = os.path.join(load_root, subj_name, "S1.nii")
        # ...后续处理

调整数据裁剪参数

data = data[:, 14:-7, :, :] 这行代码用于裁剪fMRI数据。你需要根据你的数据的实际尺寸和感兴趣的脑区进行调整。

  • 使用可视化工具(例如FSLeyes, MRIcron)检查你的fMRI数据,确定需要保留的区域。
  • 根据实际情况修改切片范围。 请注意,索引是从0开始的。
  • 如果不需要裁剪,可以直接注释掉这行代码。

重要提示: 确保裁剪后的数据维度在后续处理中保持一致。

集成 Nilearn 库

虽然原始代码使用了MONAI的LoadImage,但Nilearn 提供了更简洁的NIfTI图像加载方式。 可以考虑将Nilearn集成到你的代码中。

  1. 安装 Nilearn:

    pip install nilearn
  2. 替换 MONAI 的 LoadImage:

    from nilearn.image import load_img
    import numpy as np
    
    def read_data(filename,load_root,save_root,subj_name,count,queue=None,scaling_method=None, fill_zeroback=False):
        print("processing: " + filename, flush=True)
        # 构建完整路径
        path = os.path.join(load_root, filename, "S1.nii") # 修改这里
        try:
            # 使用 nilearn 加载图像
            nifti_image = load_img(path)
            data = nifti_image.get_fdata()  # 获取 numpy 数组
        except Exception as e:
            print(f"Error loading image: {path}, {e}")
            return None
    
        # ...后续处理

代码示例(修改后的 read_data 函数)

from nilearn.image import load_img
import numpy as np
import torch
import os

def read_data(filename,load_root,save_root,subj_name,count,queue=None,scaling_method=None, fill_zeroback=False):
    print("processing: " + filename, flush=True)
    # 构建完整路径
    path = os.path.join(load_root, filename, "S1.nii") # 修改这里
    try:
        # 使用 nilearn 加载图像
        nifti_image = load_img(path)
        data = nifti_image.get_fdata()  # 获取 numpy 数组
    except Exception as e:
        print(f"Error loading image: {path}, {e}")
        return None

    #change this line according to your file names
    save_dir = os.path.join(save_root,subj_name)
    isExist = os.path.exists(save_dir)
    if not isExist:
        os.makedirs(save_dir)

    # change this line according to your dataset
    data = data[:, 14:-7, :, :] # 裁剪数据,根据你的数据调整
    # width, height, depth, time
    # Inspect the fMRI file first using your visualization tool. 
    # Limit the ranges of width, height, and depth to be under 96. Crop the background, not the brain regions. 
    # Each dimension of fMRI registered to MNI space (2mm) is expected to be around 100.
    # You can do this when you load each volume at the Dataset class, including padding backgrounds to fill dimensions under 96.

    background = data==0

    if scaling_method == 'z-norm':
        global_mean = data[~background].mean()
        global_std = data[~background].std()
        data_temp = (data - global_mean) / global_std
    elif scaling_method == 'minmax':
        data_temp = (data - data[~background].min()) / (data[~background].max() - data[~background].min())

    data_global = torch.empty(data.shape)
    data_global[background] = data_temp[~background].min() if not fill_zeroback else 0 
    # data_temp[~background].min() is expected to be 0 for scaling_method == 'minmax', and minimum z-value for scaling_method == 'z-norm'
    data_global[~background] = data_temp[~background]

    # save volumes one-by-one in fp16 format.
    data_global = torch.tensor(data_global, dtype=torch.float16) # 确保是 torch.Tensor
    data_global_split = torch.split(data_global, 1, 3)
    for i, TR in enumerate(data_global_split):
        torch.save(TR.clone(), os.path.join(save_dir,"frame_"+str(i)+".pt"))

注意事项:

  • 确保nilearn已正确安装。
  • 根据你的实际数据结构修改文件路径。
  • 使用适当的裁剪参数以保留感兴趣的脑区。
  • data_global = torch.tensor(data_global, dtype=torch.float16),确保data_global是一个torch.Tensor,以便与后续的torch.split和torch.save操作兼容。

总结

通过修改文件路径、调整裁剪参数以及集成 Nilearn 库,你可以轻松地将自定义 fMRI 数据加载到现有的 MONAI 代码中进行处理。 这种方法可以简化数据加载流程,并提高代码的可读性和可维护性。 记得在修改代码后进行充分测试,以确保数据处理的正确性。

今天带大家了解了的相关知识,希望对你有所帮助;关于文章的技术知识我们会一点点深入介绍,欢迎大家关注golang学习网公众号,一起学习编程~

Golang依赖包安全检查技巧Golang依赖包安全检查技巧
上一篇
Golang依赖包安全检查技巧
HTML自定义列表项目符号方法
下一篇
HTML自定义列表项目符号方法
查看更多
最新文章
查看更多
课程推荐
  • 前端进阶之JavaScript设计模式
    前端进阶之JavaScript设计模式
    设计模式是开发人员在软件开发过程中面临一般问题时的解决方案,代表了最佳的实践。本课程的主打内容包括JS常见设计模式以及具体应用场景,打造一站式知识长龙服务,适合有JS基础的同学学习。
    542次学习
  • GO语言核心编程课程
    GO语言核心编程课程
    本课程采用真实案例,全面具体可落地,从理论到实践,一步一步将GO核心编程技术、编程思想、底层实现融会贯通,使学习者贴近时代脉搏,做IT互联网时代的弄潮儿。
    511次学习
  • 简单聊聊mysql8与网络通信
    简单聊聊mysql8与网络通信
    如有问题加微信:Le-studyg;在课程中,我们将首先介绍MySQL8的新特性,包括性能优化、安全增强、新数据类型等,帮助学生快速熟悉MySQL8的最新功能。接着,我们将深入解析MySQL的网络通信机制,包括协议、连接管理、数据传输等,让
    498次学习
  • JavaScript正则表达式基础与实战
    JavaScript正则表达式基础与实战
    在任何一门编程语言中,正则表达式,都是一项重要的知识,它提供了高效的字符串匹配与捕获机制,可以极大的简化程序设计。
    487次学习
  • 从零制作响应式网站—Grid布局
    从零制作响应式网站—Grid布局
    本系列教程将展示从零制作一个假想的网络科技公司官网,分为导航,轮播,关于我们,成功案例,服务流程,团队介绍,数据部分,公司动态,底部信息等内容区块。网站整体采用CSSGrid布局,支持响应式,有流畅过渡和展现动画。
    484次学习
查看更多
AI推荐
  • 千音漫语:智能声音创作助手,AI配音、音视频翻译一站搞定!
    千音漫语
    千音漫语,北京熠声科技倾力打造的智能声音创作助手,提供AI配音、音视频翻译、语音识别、声音克隆等强大功能,助力有声书制作、视频创作、教育培训等领域,官网:https://qianyin123.com
    169次使用
  • MiniWork:智能高效AI工具平台,一站式工作学习效率解决方案
    MiniWork
    MiniWork是一款智能高效的AI工具平台,专为提升工作与学习效率而设计。整合文本处理、图像生成、营销策划及运营管理等多元AI工具,提供精准智能解决方案,让复杂工作简单高效。
    167次使用
  • NoCode (nocode.cn):零代码构建应用、网站、管理系统,降低开发门槛
    NoCode
    NoCode (nocode.cn)是领先的无代码开发平台,通过拖放、AI对话等简单操作,助您快速创建各类应用、网站与管理系统。无需编程知识,轻松实现个人生活、商业经营、企业管理多场景需求,大幅降低开发门槛,高效低成本。
    171次使用
  • 达医智影:阿里巴巴达摩院医疗AI影像早筛平台,CT一扫多筛癌症急慢病
    达医智影
    达医智影,阿里巴巴达摩院医疗AI创新力作。全球率先利用平扫CT实现“一扫多筛”,仅一次CT扫描即可高效识别多种癌症、急症及慢病,为疾病早期发现提供智能、精准的AI影像早筛解决方案。
    175次使用
  • 智慧芽Eureka:更懂技术创新的AI Agent平台,助力研发效率飞跃
    智慧芽Eureka
    智慧芽Eureka,专为技术创新打造的AI Agent平台。深度理解专利、研发、生物医药、材料、科创等复杂场景,通过专家级AI Agent精准执行任务,智能化工作流解放70%生产力,让您专注核心创新。
    188次使用
微信登录更方便
  • 密码登录
  • 注册账号
登录即同意 用户协议隐私政策
返回登录
  • 重置密码