美国西奈山伊坎医学院的一项新研究发现,放射科医生和大型语言多模态模型 (LLM) 都无法轻松区分人工智能 (AI) 生成的深度伪造 X 射线图像和真实的医学图像。研究人员表示,研究结果凸显了人工智能生成的医学图像可能带来的健康安全和网络安全风险。相关文章发表在最新一期的《放射学》杂志上。 “Deepfakes”是看似真实但实际上是由人工智能生成或修改的视频、照片、图像和音频。人工智能生成的 X 射线非常逼真,以至于可能会被误认为是真实的,并可能被用于医疗欺诈,例如伪造骨折图像以在试验中收集证据。如果黑客渗透医院系统并嵌入合成医学图像,他们可能会改变诊断结果并破坏电子病历系统的可靠性。回顾性研究涉及 17 个电台来自美国、法国、德国、土耳其、英国和阿联酋等 6 个国家 12 个医疗中心的专家。在这项研究中,共分析了两组 264 张 X 射线图像。第一组数据包括来自多个解剖部位的真实图像和 ChatGPT 生成的图像。第二组数据是胸部X光片,其中一半是真实图像,另一半是由RoentGen生成的,RoentGen是斯坦福大学医学院研究人员开发的开源生成式AI扩散模型。他们发现,只有 41% 的医生在不知道研究目的的情况下主动识别了人工智能生成的图像。医生收到清晰的信息后,能够以平均75%的准确率区分真假图像。同时,还对四个大型多模态模型进行了识别测试:GPT-4o(OpenAI)、GPT-5(OpenAI)、Gemini 2.5 Pro(Google)和Llama 4 Maverick(Meta),准确率在 57% 到 85% 之间。即使是参与生成这些深度伪造图像的 GPT-4o 模型本身也无法识别所有伪造图像。研究人员得出的结论是,人工智能生成的医学图像通常包含“过于完美”的特征,例如骨骼表面过于光滑、脊柱过于直、肺部过于对称、血管分布过于均匀以及骨折横截面异常干净。研究团队提出,为降低风险,需要在医学图像中融入隐形数字水印、密码签名等技术措施,防止图像被篡改,并加强利用人工智能进行医学图像识别能力的训练。 【主编圈子】其实,类似的问题首先出现在文本字段中。人工智能学习从人类语料库中进行书写,而人类则尝试从人工智能生成的内容中提取“含义”。目前,人类生成的内容和 AI-g生成的内容共存,因此很难区分它们。现在,同样的困境也进入了图像领域。高水平医生和知名模特本身很难准确判断哪些医学图像被人工智能修改过。这项研究为医疗安全敲响了警钟,甚至可能损害整个医疗系统的可信度。我们看到人工智能的深度渗透给各行各业带来了前所未有的挑战。
(责任编辑:张冲)

你也可能喜欢

发表评论

您的邮箱地址不会被公开。 必填项已用 * 标注