在一个晴朗的夏日午后,31岁的艾米莉亚(Amelia)坐在她的办公室里,手指轻点着键盘,突然感到一阵心悸。她放下手中的工作,打开手机上的健康应用,输入了她的症状。不一会儿,屏幕上跳出一条消息:“根据你的症状,建议你立即联系医生。”这条消息来自于一款名为Thrive的AI健康教练,由OpenAI CEO萨姆·阿尔特曼和行为改变技术公司Thrive Global的创始人阿里安娜·赫芬顿共同创办。
Thrive的诞生
上周,萨姆·阿尔特曼宣布创办AI医疗健康公司Thrive AI Health(简称Thrive),引起了广泛关注。这家初创公司旨在通过AI健康教练改变患者的行为习惯,从而解决困扰美国1.27亿人口的慢性病危机。Thrive还获得了美国女首富的投资,进一步增加了其曝光度。
阿尔特曼和赫芬顿在接受《大西洋月刊》采访时透露,Thrive将专注于提供健康建议,而避开AI目前尚不擅长的医疗诊断工作。未来,Thrive可能会将健康信息融入到工作场景之中,让员工在忙碌的工作中也能关注自己的健康。
AI医疗的争议
尽管AI在医疗健康领域的应用已经屡见不鲜,但Thrive的出现仍然引发了不少争议。首先,AI健康教练需要收集用户大量的个人信息,包括睡眠、饮食、运动、压力和社交等方面的数据。这些数据是极为私密且具有重大经济价值的。保险公司可以根据这些信息调整特定保单的价格,或者决定是否报销某款药物。
然而,正如《大西洋月刊》记者所指出的那样,医疗信息一旦泄露,可能会严重损害用户的个人权益。尽管阿尔特曼在采访中呼吁社会给予他们“信任”,但OpenAI在数据保护方面的履历并不完美。2023年初,OpenAI的内部系统曾遭到网络攻击,公司员工关于先进AI系统的讨论聊天记录也遭到泄露。
高度个性化的健康教练
Thrive的最大卖点是“高度个性化的AI健康教练”。通过收集用户的各类健康数据,并结合医疗记录和行为改变领域的专业知识,Thrive可以为用户提供个性化的即时健康建议。这一技术被阿尔特曼和赫芬顿与罗斯福新政比肩,称其为“更为高效的医疗基础设施中的一环”,能够在日常生活中持续支持人们的健康。
然而,AI在医疗健康行业中的应用并不是什么新鲜事。AI已经在CT重建、药物开发、辅助诊断等领域发挥了重要作用。大部分患者不具备足够的医疗知识,因此很可能无法对AI提出的健康建议或医疗诊断做出有效的判断,而AI产品也很难确保自己不会出错。
用户隐私的挑战
阿尔特曼在接受采访时表示,已经有不少人在使用ChatGPT诊断医疗问题,并相信ChatGPT的建议进行相关测试和治疗。他认为用户其实很愿意给LLM分享一些十分详细和私密的信息。然而,医疗信息一旦泄露,可能会严重损害用户的个人权益。阿尔特曼对此的回应态度并不坚决,认为这一议题应交由社会处理。
在医疗这样性命攸关的领域上,我们真正需要的或许不是信任博弈,而是可验证、可解释的技术。
AI健康愿景的实现
在《时代周刊》的合著文章中,阿尔特曼和赫芬顿描绘了如下的场景:“AI健康教练将为每个人提供非常精确的建议:将下午第三杯苏打水换成水和柠檬;下午3:15接孩子放学后,与孩子一起散步10分钟;晚上10点开始你的放松程序。”这位AI健康教练最终将改变人们一些顽固的不良习惯,最终改善人类整体健康,延长人类寿命。
然而,人们在生活中的种种“不健康”行为,究竟是个人习惯问题,还是更大范围的社会问题?我们究竟是应该将慢性病危机甩给个人和AI解决,还是通过政府和医疗机构的研究与干预进行系统性的预防?这些问题或许都是在这一所谓的AI医疗基础设施成为现实之前,人们所需要考虑的问题。
结语:将健康交给AI或许为时尚早
在采访中,阿尔特曼谈及AI健康愿景的实现一定程度上需要人们的信念,但在AI这样影响深远的技术和医疗这样性命攸关的领域上,我们真正需要的或许不是这样的信念博弈,而是可验证、可解释的技术。
总的来说,Thrive的出现为AI在医疗健康领域的应用提供了一个新的方向,但在这一过程中,如何保障用户的隐私和数据安全,如何确保AI提供的健康建议是准确且可靠的,都是需要进一步探讨和解决的问题。我们期待看到Thrive在未来的发展,同时也希望能够看到更多关于AI健康教练的实际效果和用户反馈。