99精品伊人亚洲|最近国产中文炮友|九草在线视频支援|AV网站大全最新|美女黄片免费观看|国产精品资源视频|精彩无码视频一区|91大神在线后入|伊人终合在线播放|久草综合久久中文

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評(píng)論與回復(fù)
登錄后你可以
  • 下載海量資料
  • 學(xué)習(xí)在線課程
  • 觀看技術(shù)視頻
  • 寫(xiě)文章/發(fā)帖/加入社區(qū)
會(huì)員中心
創(chuàng)作中心

完善資料讓更多小伙伴認(rèn)識(shí)你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

機(jī)器學(xué)習(xí)模型成功記錄并繪制了醫(yī)患對(duì)話中的疾病癥狀

倩倩 ? 來(lái)源:新經(jīng)網(wǎng) ? 2020-04-23 09:59 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

根據(jù)3月25日發(fā)表在《JAMA Internal Medicine》上的研究,由Google的科學(xué)家開(kāi)發(fā)的機(jī)器學(xué)習(xí)模型在早期測(cè)試中成功記錄并繪制了醫(yī)患對(duì)話中的疾病癥狀,但該技術(shù)還有很長(zhǎng)的路要走。

Google資深研究科學(xué)家,加州大學(xué)助理教授Alvin Rajkomar醫(yī)學(xué)博士是第一作者,醫(yī)學(xué)博士Alvin Rajkomar博士說(shuō):“通過(guò)在患者訪視期間通過(guò)語(yǔ)音識(shí)別使醫(yī)療記錄的文書(shū)工作自動(dòng)化,可以使醫(yī)生直接花更多的時(shí)間與患者在一起。 ,舊金山等。在日記中寫(xiě)道?!拔覀兛紤]了使用機(jī)器學(xué)習(xí)自動(dòng)填充系統(tǒng)(ROS)中遇到的所有癥狀的評(píng)論的可行性?!?/p>

團(tuán)隊(duì)先前開(kāi)發(fā)的遞歸神經(jīng)網(wǎng)絡(luò)是提供更多動(dòng)手護(hù)理并關(guān)注患者的又一機(jī)會(huì),能夠區(qū)分與患者病情相關(guān)的相關(guān)癥狀和無(wú)關(guān)癥狀。研究人員從90,000個(gè)先前手動(dòng)轉(zhuǎn)錄的相遇池中隨機(jī)選擇了2,547個(gè)醫(yī)學(xué)相遇記錄本,其中2,091個(gè)用于訓(xùn)練模型,其中456個(gè)用于測(cè)試模型。其余的成績(jī)單用于無(wú)監(jiān)督的培訓(xùn)。

抄寫(xiě)員用185種癥狀標(biāo)記了2500多個(gè)轉(zhuǎn)錄本,并為每種癥狀指定了與ROS的相關(guān)性,因?yàn)樗c患者的經(jīng)歷有關(guān)。機(jī)器學(xué)習(xí)模型的輸入是一個(gè)包含五個(gè)會(huì)話輪次或摘要的滑動(dòng)窗口,輸出分別提到了每種癥狀,與患者的相關(guān)性以及患者是否經(jīng)歷過(guò)該癥狀。

在2091個(gè)測(cè)試集中,研究小組報(bào)告了5970個(gè)癥狀提及,其中79.3%與ROS有關(guān),其中74.2%是患者經(jīng)歷的。在整個(gè)測(cè)試集中,模型的靈敏度為67.7%,陽(yáng)性癥狀的陽(yáng)性預(yù)測(cè)值為80.6%。

作者進(jìn)一步說(shuō),該模型對(duì)不清楚癥狀的敏感性為67.8%,對(duì)于明確提及癥狀的敏感性為92.2%。如果兩個(gè)隨機(jī)選擇的抄寫(xiě)員都獨(dú)立地將ROS中包括任何給定癥狀的可能性評(píng)估為“極有可能”,則認(rèn)為該癥狀被“明確提及”。

Rajkomar及其同事寫(xiě)道:“該模型將準(zhǔn)確記錄-意味著正確識(shí)別癥狀,正確分類(lèi)與筆記的相關(guān)性以及是否分配經(jīng)驗(yàn)豐富的人-明確提到的癥狀占87.9%,不清楚的癥狀占60%,” “通過(guò)經(jīng)歷使這種技術(shù)適應(yīng)簡(jiǎn)單的ROS自動(dòng)繪制任務(wù)的過(guò)程,我們報(bào)告了以前未曾考慮過(guò)的關(guān)鍵挑戰(zhàn):模糊地提到了很大一部分癥狀,因此,甚至人類(lèi)抄寫(xiě)員也不同意如何記錄它們?!?/p>

作者說(shuō),該模型在明顯提及的癥狀上表現(xiàn)良好,這令人鼓舞,但遠(yuǎn)非完美。

他們寫(xiě)道:“解決這個(gè)問(wèn)題將需要精確的溝通,盡管不是繁瑣的術(shù)語(yǔ)?!?“將需要進(jìn)一步的研究來(lái)幫助臨床醫(yī)生完成更有意義的任務(wù),例如記錄當(dāng)前的病史。”

聲明:本文內(nèi)容及配圖由入駐作者撰寫(xiě)或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點(diǎn)僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場(chǎng)。文章及其配圖僅供工程師學(xué)習(xí)之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問(wèn)題,請(qǐng)聯(lián)系本站處理。 舉報(bào)投訴
  • Google
    +關(guān)注

    關(guān)注

    5

    文章

    1789

    瀏覽量

    59058
  • 語(yǔ)音識(shí)別
    +關(guān)注

    關(guān)注

    39

    文章

    1782

    瀏覽量

    114250
  • 機(jī)器學(xué)習(xí)

    關(guān)注

    66

    文章

    8503

    瀏覽量

    134643
收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評(píng)論

    相關(guān)推薦
    熱點(diǎn)推薦

    FPGA在機(jī)器學(xué)習(xí)的具體應(yīng)用

    隨著機(jī)器學(xué)習(xí)和人工智能技術(shù)的迅猛發(fā)展,傳統(tǒng)的中央處理單元(CPU)和圖形處理單元(GPU)已經(jīng)無(wú)法滿足高效處理大規(guī)模數(shù)據(jù)和復(fù)雜模型的需求。FPGA(現(xiàn)場(chǎng)可編程門(mén)陣列)作為一種靈活且高效的硬件加速平臺(tái)
    的頭像 發(fā)表于 07-16 15:34 ?481次閱讀

    邊緣計(jì)算機(jī)器學(xué)習(xí):基于 Linux 系統(tǒng)的實(shí)時(shí)推理模型部署與工業(yè)集成!

    你好,旅行者!歡迎來(lái)到Medium的這一角落。在本文中,我們將把一個(gè)機(jī)器學(xué)習(xí)模型(神經(jīng)網(wǎng)絡(luò))部署到邊緣設(shè)備上,利用從ModbusTCP寄存器獲取的實(shí)時(shí)數(shù)據(jù)來(lái)預(yù)測(cè)一臺(tái)復(fù)古音頻放大器的當(dāng)前健康狀況。你將
    的頭像 發(fā)表于 06-11 17:22 ?350次閱讀
    邊緣計(jì)算<b class='flag-5'>中</b>的<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>:基于 Linux 系統(tǒng)的實(shí)時(shí)推理<b class='flag-5'>模型</b>部署與工業(yè)集成!

    機(jī)器學(xué)習(xí)模型市場(chǎng)前景如何

    當(dāng)今,隨著算法的不斷優(yōu)化、數(shù)據(jù)量的爆炸式增長(zhǎng)以及計(jì)算能力的飛速提升,機(jī)器學(xué)習(xí)模型的市場(chǎng)前景愈發(fā)廣闊。下面,AI部落小編將探討機(jī)器學(xué)習(xí)
    的頭像 發(fā)表于 02-13 09:39 ?365次閱讀

    【「具身智能機(jī)器人系統(tǒng)」閱讀體驗(yàn)】2.具身智能機(jī)器人大模型

    的設(shè)計(jì)不僅提高了機(jī)器人對(duì)環(huán)境的理解能力,還使其能夠更精準(zhǔn)地執(zhí)行復(fù)雜任務(wù)。 擴(kuò)散模型的新思路 除了大模型,擴(kuò)散模型的引入為機(jī)器人控制開(kāi)辟
    發(fā)表于 12-29 23:04

    《具身智能機(jī)器人系統(tǒng)》第7-9章閱讀心得之具身智能機(jī)器人與大模型

    醫(yī)療領(lǐng)域,手術(shù)輔助機(jī)器人需要毫米級(jí)的精確控制,書(shū)中有介紹基于視覺(jué)伺服的實(shí)時(shí)控制算法,以及如何利用大模型優(yōu)化手術(shù)路徑規(guī)劃。工業(yè)場(chǎng)景,協(xié)作機(jī)器人面臨的主要挑戰(zhàn)是快速適應(yīng)新工藝流程。具身智
    發(fā)表于 12-24 15:03

    cmp在機(jī)器學(xué)習(xí)的作用 如何使用cmp進(jìn)行數(shù)據(jù)對(duì)比

    機(jī)器學(xué)習(xí)領(lǐng)域,"cmp"這個(gè)術(shù)語(yǔ)可能并不是一個(gè)常見(jiàn)的術(shù)語(yǔ),它可能是指"比較"(comparison)的縮寫(xiě)。 比較在機(jī)器學(xué)習(xí)的作用
    的頭像 發(fā)表于 12-17 09:35 ?884次閱讀

    Arm成功將Arm KleidiAI軟件庫(kù)集成到騰訊自研的Angel 機(jī)器學(xué)習(xí)框架

    Arm 與騰訊攜手合作,成功將 Arm KleidiAI 軟件庫(kù)集成到騰訊自研的 Angel 機(jī)器學(xué)習(xí)框架。 ? 借助 KleidiAI 解鎖卓越性能、能效和可移植性,騰訊混元大模型
    的頭像 發(fā)表于 11-24 15:33 ?1296次閱讀

    eda在機(jī)器學(xué)習(xí)的應(yīng)用

    機(jī)器學(xué)習(xí)項(xiàng)目中,數(shù)據(jù)預(yù)處理和理解是成功構(gòu)建模型的關(guān)鍵。探索性數(shù)據(jù)分析(EDA)是這一過(guò)程不可或缺的一部分。 1. 數(shù)據(jù)清洗 數(shù)據(jù)清洗 是
    的頭像 發(fā)表于 11-13 10:42 ?911次閱讀

    AI大模型與深度學(xué)習(xí)的關(guān)系

    AI大模型與深度學(xué)習(xí)之間存在著密不可分的關(guān)系,它們互為促進(jìn),相輔相成。以下是對(duì)兩者關(guān)系的介紹: 一、深度學(xué)習(xí)是AI大模型的基礎(chǔ) 技術(shù)支撐 :深度學(xué)習(xí)
    的頭像 發(fā)表于 10-23 15:25 ?2900次閱讀

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)的區(qū)別

    AI大模型與傳統(tǒng)機(jī)器學(xué)習(xí)在多個(gè)方面存在顯著的區(qū)別。以下是對(duì)這些區(qū)別的介紹: 一、模型規(guī)模與復(fù)雜度 AI大模型 :通常包含數(shù)十億甚至數(shù)萬(wàn)億的參
    的頭像 發(fā)表于 10-23 15:01 ?2596次閱讀

    構(gòu)建語(yǔ)音控制機(jī)器人 - 線性模型機(jī)器學(xué)習(xí)

    2024-07-31 |Annabel Ng 在該項(xiàng)目的[上一篇博客文章],我介紹運(yùn)行機(jī)器人電機(jī)、處理音頻信號(hào)和調(diào)節(jié)電壓所需的電路的基礎(chǔ)知識(shí)。然而,機(jī)器人還沒(méi)有完全完成!盡管
    的頭像 發(fā)表于 10-02 16:31 ?581次閱讀
    構(gòu)建語(yǔ)音控制<b class='flag-5'>機(jī)器</b>人 - 線性<b class='flag-5'>模型</b>和<b class='flag-5'>機(jī)器</b><b class='flag-5'>學(xué)習(xí)</b>

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】+ 簡(jiǎn)單建議

    這本書(shū)以其系統(tǒng)性的框架和深入淺出的講解,為讀者繪制一幅時(shí)間序列分析與機(jī)器學(xué)習(xí)融合應(yīng)用的宏偉藍(lán)圖。作者不僅扎實(shí)地構(gòu)建了時(shí)間序列分析的基礎(chǔ)知識(shí),更巧妙地展示
    發(fā)表于 08-12 11:21

    【「時(shí)間序列與機(jī)器學(xué)習(xí)」閱讀體驗(yàn)】全書(shū)概覽與時(shí)間序列概述

    時(shí)間序列的自相關(guān)性。 時(shí)間序列有基于線性場(chǎng)景,也有一些非線性性質(zhì)周期性和不對(duì)稱(chēng)性、波動(dòng)的聚集性、波動(dòng)中出現(xiàn)的跳躍現(xiàn)象,以及時(shí)間的不可逆性。機(jī)器學(xué)習(xí)已經(jīng)是目前非線性時(shí)序分析的主攻方向之一。 時(shí)間序列
    發(fā)表于 08-07 23:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)知識(shí)學(xué)習(xí)

    捕捉長(zhǎng)距離依賴(lài)關(guān)系的神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)。Transformer通過(guò)編碼器(Encoder)和解碼器(Decoder)兩部分實(shí)現(xiàn)語(yǔ)言的編碼和解碼。 注意力機(jī)制:Transformer的注意力機(jī)制使得模型
    發(fā)表于 08-02 11:03

    【《大語(yǔ)言模型應(yīng)用指南》閱讀體驗(yàn)】+ 基礎(chǔ)篇

    的內(nèi)容,閱讀雖慢,但在這一學(xué)習(xí)過(guò)程也掌握許多新知識(shí),為后續(xù)章節(jié)的閱讀打下基礎(chǔ),這是一個(gè)快樂(lè)的學(xué)習(xí)過(guò)程。 基礎(chǔ)篇從人工智能的起源講起,提出了機(jī)器
    發(fā)表于 07-25 14:33