意大利华人网编译消息:一种日益普遍的做法引发了意大利隐私保护机构的强烈担忧,不少人将自己的医学诊断报告上传至人工智能平台(如ChatGPT),试图借助AI解释病情或获取治疗建议。对此,意大利个人数据保护局(Garante per la Protezione dei Dati Personali)发布通告,明确指出此类行为“弊大于利”,不仅威胁个人隐私,还可能严重危害健康。
监管机构首先指出,随意在互联网上上传包含个人健康信息的报告,极易遭遇信息滥用风险。在较轻情况下,这些数据可能被企业用于所谓的“网络抓取”(web scraping)进行用户画像分析;在最严重的情形下,则有可能被不法分子获取,导致身份盗用、数据贩卖等严重后果。
更为紧迫的问题在于医学信息的误读和误导。许多意大利民众在未咨询专业医生的情况下,仅依赖AI提供的解释与建议,从而自行判断病情和选择治疗方案。这种做法极具风险,不但可能延误正规诊治,还可能造成病情恶化或错误用药等严重后果。
“隐私监管局提醒广大用户,必须慎重考虑是否应向生成式人工智能服务提供商分享自身健康数据,更不能盲目信任AI所自动生成的医疗建议。任何医疗判断,都应在专业医生的指导下进行。”官方声明如是表示。
尽管目前尚无官方统计数据反映该行为的普及程度,但监管机构透露已接到大量来自医疗专业人士的警告和反馈。目前,包括ChatGPT在内的多种AI平台已支持上传文档功能,可自动解析医学报告,这种“无人审查”的分析方式增加了隐患。
对此,监管机构呼吁用户务必详细阅读平台的隐私政策,确认上传的数据是否会在处理后被删除,或是否可能被用于后续AI算法的训练。
更关键的是,公众需要明确认识到,目前向大众开放的AI工具并非经过官方认证的医疗设备,其提供的信息可能不准确,甚至完全错误,尤其在缺乏医生参与判断的情况下更是如此。
AI的“幻觉现象”(hallucination)已被广泛关注,指的是系统生成看似可信却完全错误的信息。一旦有人根据这些误导性内容中止治疗或调整用药,将面临极高的健康风险。
意大利隐私监管局还重申2023年针对医疗系统使用AI发布的操作指引,即在AI系统的开发、训练与应用各阶段必须有“具备专业资质的人类监督”介入。这一原则也被纳入了《欧洲人工智能法案》与国家高等卫生委员会的相关规范中。
在AI迅猛发展的当下,隐私安全与生命健康同样不容忽视。专业的医疗判断永远无法被AI所替代。 |