导读:本篇文章首席CTO笔记来给大家介绍有关人工智能医生是什么样的的相关内容,希望对大家有所帮助,一起来看看吧。
人工智能之于医生,是助手还是对手
是助手,随着科技的发展,人工智能虽然代替了人类的一些岗位,但是这些被代替的人一般都会去做更高层的事情。
比如:
最早的农民是下地,现在的农民已经可以用机器耕种收割,机器提高了她们的效率。
最早纺织是靠人力,现在有了机器,那些人成了纺织工人,机器提高了她们的效率。
所有科技的发展基本都是人类的器官延伸,注意是延伸。人工智能更多是大脑的延伸,医疗上可以实时监控(人毕竟有疲劳)、病情分析(人脑的记忆有限)、手术(人手对于细微的东西操作有局限性,机器可以精准操作)
目前的人工智能,都是弱,甚至连人工智能根本不算,就是一个自动化而已。
目前,我涉及的领域,大家目标都是想通过人工智能来减少人类的重复性劳动(脑力、体力)
说一说人工智能有可能会代替医生吗?
不会。从人工智能的定义去看,它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学,定义确切地指出AI是模拟、延伸和扩展人的智能,那么就决定了AI不可能取代人,在这里的人可以是医生,也可以是律师、护士等职业的人。从人工智能的功能去看,它是网罗了大数据的病例、影像等医疗资料,通过患者的症状、查体、辅助检查等来下诊断并确定治疗方案,不可否认医生在其一生中可以接触很多病例,但是仍旧比不上人工智能对病例数的收集,而且在阅片的速度这方面,AI也具有无可比拟的优势。尽管如此,通过AI诊断的病例必需由取得执业医师资格证书的医师确认并签名才具有法律效力。最后,也是我认为AI不可能取代医生看病的最重要的一点,在国内愈演愈烈的医患矛盾的大前提下,AI作为一个机器人,不可能有人的感情,也不可能对患者有同情心,更不可能对患者的遭感同身受。
医生会被人工智能取代吗?
在人工智能时代,医生将需要放弃旧角色,并找到最适合他们的地方,发挥最重要的影响。AI的中心是它的算法,大家关注的是新算法在哪些地方超越了人类,但是我们也应该同时关注另外一个方面:人类医生在人工智能的时代扮演了哪些新角色呢?
医生作为人类-AI诊断过程的一部分
进行临床诊断时,需要医生来判断并分析患者的症状、体征和体检结果。这种判断容易受到医生的模糊记忆,知识缺口和认知偏见的影响。而AI则有潜力对最新最全的数据和医学证据进行客观评估,并且基于这些数据来提供高度准确的诊断结果和推荐疗法。
但是,AI需要先接受准确的数据输入才能产生正确的诊断,而患者的症状体验并不是总能用完美的医学术语来描述,并且,了解患者的完整病史仍然是完成临床诊断的关键技能。那些善于倾听,能让患者信任的医生更有可能发觉患者的言外之音,获取更多的数据,并采取正确的措施来帮助患者。
患者也有可能报告不准确或不相关的信息,包括夸张甚至谎言。人类医生比AI更容易识别这些内容。在人类-AI诊断界面里,人类医生将有一个重要的角色,即作为“人类”来理解患者的疾病,并将准确数据输入计算机。
但对于患者而言,面对诊断界面的根本问题可能不是“这台机器能够理解我吗”,而是“我想要一台机器来了解我吗”。在将来,AI几乎肯定能够模拟移情并评估患者叙述的真实性。聊天机器人正在兴起,而且AI解释肢体语言的技术正在进步。但患者是否会愿意分享信息给机器?他们是否愿意让一台机器来告诉他们患上了癌症,不管此时机器的情绪模拟的多么恰当?
有效沟通需要医生仔细评估患者的希望、恐惧和期待值。其中大部分都是非言语的。一个熟练的医生能读出患者未诉诸于口的信息,这些沟通的渠道是种本能,并会影响医生的诊治行为,而医生甚至通常没有意识到。这种人类互动非常复杂,无法通过算法复制。
有时AI算法可能会由于缺乏适当的数据而失败。比如对于罕见病,可能用于训练的数据不足以支持人工智能。这个时代新医生的重要技能之一,将是了解AI的极限以及如何在这些情况下做出诊断决定。同样,在患者身具多种疾病,需要多种治疗的情况下,决策会变得更加复杂微妙,因为一些医疗决定可能会影响另一个病情,AI在这方面的取舍可能会不如人类医生。另一个挑战将是等效诊断的情况,即AI提出多个诊断都具有相似的可能性。人类医生需要对这种不确定性加以判断,并与病人沟通。
急诊室中的团队领导者
目前的卫生系统分诊还依赖于人类判断,有时根据规则,有时根据知识和经验。规则通常是基于少数变量,所以会比较生硬。
采用AI进行分诊,可以基于更多的变量,从而达到更快、更准确、更敏感的效果。变量包括临床测量结果和通过可穿戴仪器或植入技术获得的实时跟踪。分诊不再需要简单地划分为粗疏的类别(比如表示病情危险级的红色,琥珀色和绿色),而是可以根据患者风险和对于快速干预的需求进行不断调整。连续数据流可以早期触发紧急服务,让无人驾驶的救护车装载着人类急救员,在患者意识到之前就达到现场。
医生在急诊室的作用是团队领导者、知识处理者和传播者。协调迅速发展的诊断、治疗途径,并在可能的情况下与患者讨论治疗的潜在利益和风险,这将成为治疗的关键。这些行为不一定必须是医生来完成,但确实需要一个人类。
让医生去处理复杂和异常情况
许多温和的疾病几乎完全可以由AI接手处理。在诊断确定,并且有完善、有效和安全的治疗方法时,可能不必有人类医生的参与。
如果AI能处理大多数的常规低风险疾病,那么医生将有更多的时间专注于那些需要丰富经验应对的复杂患者。这些患者可能具有更复杂的情况(比如罕见疾病或多发病),或病情诊断的不确定性较大。
复杂的也可能是患者的实际情况,而不是病情。对于那些有学习困难、痴呆症,成瘾等情况的患者,可能需要比其他病人更多的人力支持,因此,AI能为医生省下时间来帮助这些患者。
医生作为患者的教育者和顾问
长久以来,医生一直是医疗知识的看门人,为患者做出医疗决定。在AI时代,患者和医生都能接触到医学知识。但人类非常不擅长理解概率和评估风险,特别是当它与自己或亲友的健康有关时。因此,对大多数患者而言,医生有个非常重要的任务是了解风险,并与患者交流沟通,内容包括诊断可靠程度,干预的安全性或疗效等等。医生也需要能够解释AI制定的治疗计划。这并不要求医生深入了解机器学习,正如使用磁共振成像扫描不需要详尽了解机械知识那样。让医生解释AI的治疗计划,能够结合AI深厚的计算能力,和医生对医学的理解和跟患者交流的技能,将信息有效地传递给患者。
医生作为患者的代言人
医生都在医疗保健的前线身经百战,每天都听取患者的意见,经年累月地照顾同一位患者,并深刻了解医学的可能性和局限性。从这个角度来看,医生能够倾听并回应个别患者以及患者整体的需求。当有利益冲突时——比如说要在患者之间分配有限的医疗资源——这种代言作用尤为重要。这些问题可能很复杂,而且很易引发激动情绪,但至少是合理透明的。不一定每个人都会同意最终决定,但通往该决定的过程经得起仔细审查。
在AI时代,有种风险是利益相关者可以在算法中嵌入“隐藏”值,达到影响患者护理的目的。正如Paul Hodgkin博士所说:“发生价值冲突时会如何?一家资助机器学习系统的医药公司可能希望增加销售额,而医疗保健系统可能希望降低成本,同时患者可能优先考虑安全性。”所有人——包括患者、公众和医生——都需要参与这个过程并让“规则”算法负责。医生所能做出的关键贡献将是他们对两个领域的理解:“现实世界”中患者的经历,以及医生对于医学的能力和风险的理解。
医生在临终护理的场合
科幻大师阿西莫夫提出的机器人/AI守则中,最基本的原则是“不伤害人类或通过不作为让人类受到伤害。”这个原则在大多数情况下有效,但在临终决定的情况下可能会失败。人类医生能够理解,一些决定不仅仅是基于生存的逻辑问题。尽管阿西莫夫定律与希波克拉底誓言有相似性,但人类能够对其进行更复杂的解读,包括生命不仅仅在于长短,还应该考虑生活质量。AI在这方面的局限很难通过简单地插入一个“生活质量变化-剩余生命”的阈值来克服。一名患有晚期疾病的患者可能选择姑息治疗,而另一个可能会选择进一步化疗。患者做出的决定可以基于许多因素,这些因素可以提供给AI算法来分析,但最终决定仍需要患者独自完成。这类决策必须始终处于算法之外。
AI的出现将是医疗保健的一场革命,因此医生的角色也需要发展。本文突出了特别的机遇或挑战。在AI时代成为一名优秀的医生,需要重新思考技能组合以及更大的心态转变。医学院和研究生培训也要计划参与这场革命。新医生要有能力处理AI构建的新世界。在这个新世界中,AI会无缝记录每个患者情况和每个临床报道,将其呈现为输入数据,并产生疾病的诊断、治疗功效、不良事件和死亡的概率。在大多数情况下,AI将比人类更快、更可靠、更便宜地做到这一点。有些人会将此视为威胁,其他人则视其为机会。
为什么说人工智能机器人也能当医生?
人工智能在相当领域里可以代替医生和协助医生
在医学领域,人工智能的发展也如火如荼。据统计,医疗行业占人工智能应用市场的五分之一,2025年市场规模将达到276亿美元。
在人工智能出现之前,我们的许多医疗建设过程都非常缓慢。我们一直在为医疗场景寻找合适的技术。人工智能的出现是关键的转折点。大量医学知识需要人工智能数字化和智能化。这是一个巨大的项目。”
众所周知,医疗领域最突出的问题是高质量的医疗资源的短缺,特别是当国家进入老龄化社会时,对医生的需求日益增加。然而,医学人才的培养体系和速度却一直落后于前者。培养一个单一的医学院学生系统需要五年时间。各种因素导致了医疗资源的不平衡和看病难。
结果,人们开始把希望寄托在机器上。因为一旦机器能够看医生,供应量就会无限增加。因此,“人工智能医疗”的结合已经出现。医学人工智能除了缓解漏诊和误诊问题、弥补资源供需缺口、提供健康咨询服务外,还具有提高制药效率、提高外科手术准确性的价值。
当然,事物的新进化经常伴随着问题和挑战,人工智能也不例外。例如,数据是智能医疗的基础,但医疗卫生数据的标准化、统一性和智能化还有待提高。例如,人工智能充分应用后,如何满足伦理和情感需求等都是人工智能未来需要解决的问题。然而,不可否认的是,人工智能技术将在未来逐渐取代医疗行业的一些工作,并大大改进医疗诊断和治疗方法。
和一位人工智能心理医生聊了聊,没有抑郁症的我也快抑郁了
人工智能绝对是今年的创业风口,各种各样的概念产品争相问世。
除了通过大量的数据训练来运用在特定行业以外,要让人类能真实地感受到人工智能的“智能”需要的是人类和机器的对话。
这些功能在助手类应用里已经深刻体现,Apple 发布了最新的 HomePod,硅谷的巨头都有自己的生活助手类人工智能产品。
著名的 AI HAL2000,来自《太空漫游 2001 》
一家旧金山的初创公司换了一个思路,他们的人工智能产品的人设是“心理咨询师”,他的名字叫 Woebot。
这可能是最能体现人工智能产品的优越性和智慧性的产品了,既然人工智能的智能体现在聊天,那他首先可以代替的是絮絮叨叨的心理医生。
用 Facebook Messenger 扫描这个印章可以进入聊天
Woebot 有点像最早蔓延在微博和人人网的聊天机器人小黄鸡,目前只支持通过 Facebook Messenger 访问。
Woebot 可以检测你的心情,并提供从认知行为治疗(CBT)框架的自动对话,新用户注册 Woebot 仅有两周的免费试用。之后,将以每周 12 美元,每月 39 美元,每年 312 美元的订阅费用来提供服务。
根据心理咨询行业的价格来看,Woebot 肯定比任何一位真正的治疗师要便宜,但它是替代真正的精神保健治疗吗?
我按照步骤进入了 Woebot,并用我那可怜的英语进行了对话,体验到了较少的“人工智能”,更多的是像 Siri 一样的根据关键词来匹配的对话,在灵活性上还不如 Google Assistant。
在和 Woebot 聊天的过程中,你甚至不需要主动说话,他会问你问题,然后给你是和非的点选按钮,很快,你就被套路进去了。然后,Woebot 会发给你一些咸不淡的视频来鼓励你改善心情。
灵活的 Google Assistant。
不过,可能因为我是一个心理极度健康的人吧。我体会不到 Woebot 的妙处不代表他毫无价值。同行评议研究显示,在使用两周后,这款人工智能产品在减少参与者的抑郁症状方面出人意料地有效。
在研究中,70 名 18 至 28 岁的学生被随机分配到 Woebot 的聊天小组,两周后,他们的焦虑和抑郁症症状明显降低。
我和Woebot的被动对话
Woebot 当然是一个酷炫的概念,我们之前有介绍过人工智能在医学领域的发挥。不过是提供数据样本分析的应用,并未设想人工智能直接开门诊来给病人望闻问切。
目前来看,Woebot 肯定不能完全替代专业的心理健康资讯,充其量是传统治疗的一部分,甚至可以认为,“和Woebot聊天”应该是一个价格便宜的处方。
Woebot 当然不是第一个人工智能心理医生。2016 年,一个叫做 X2AI 的公司创建了一个名叫 Karim 的聊天机器人(chatbot)。
他们和在被战争蹂躏的地区为难民服务的心理医生合作来安抚战后创伤,这款产品最先交付给黎巴嫩的一个营地的叙利亚难民使用。
X2AI 还有一个更复杂的版本的系统,名为 Tess。据报道,这个机器人可以进行更全面的 CBT(Cognitive Behaviour Therapy,认知行为治疗)诊断,但该公司还是小心翼翼地称其为“治疗助手”。
这是因为提供医疗卫生服务本质上是在人道和伦理的体系下,冒然将机器人称为医生的话,很容易削弱其权威,目前来看,这是一个敏感的课题。
所以,X2AI 的系统中已经编制了几个触发器,以标示在自我伤害或非法意图的情况下需要人为干预,听起来有点“机器人三定律”的味道。
作为一个低级别的自助医疗工具,像 Woebot 这样的聊天机器人无疑是非常有用的,尤其是针对生下来就会使用社交媒体和数字技术的年轻一代的时候。
但是,技术仍然无法完全模拟病人和训练有素的心理学家坐在房间里聊天的经验。对于焦虑和不知所措的年轻人,Woebot 可能会提供他们需要的格言和净距,但是当这种轻微的抑郁变得更加深沉和无助时,这就不是 AI 可以涉足的领域了,可能需要像电影《her》那种深度发展的系统级人工智能的干预了。
电影《Her》里的 AISamantha 拥有斯嘉丽约翰逊的磁性声音
除此之外,我还相信一点,那就是 AI 真的需要一个实体,不管是机械的还是硅胶的,这是获得人类信任的起点,而不仅仅是一个账号。
不过话有说回来,你又如何证明用陌陌或者探探找到的“精神伴侣”不是高级的聊天机器人呢。
结语:以上就是首席CTO笔记为大家整理的关于人工智能医生是什么样的的相关内容解答汇总了,希望对您有所帮助!如果解决了您的问题欢迎分享给更多关注此问题的朋友喔~