聊天機器人會帶來哪些改變
文章來源:健康報發(fā)布日期:2023-02-08瀏覽次數(shù):54 聊天機器人ChatGPT火了。作為一種新形式的人工智能工具,它不僅能夠較為流暢地與人類對話,甚至還能吟詩作對、撰寫論文和報告、編寫代碼等。“這個工具太省事了?!薄八鼤粫〈业墓ぷ??”……一時間,有的人對此技術感到既興奮又驚慌。而就醫(yī)療健康行業(yè)來說,這樣的人工智能技術會帶來哪些益處,又有哪些風險?撰寫講稿,完成文字工作的“研究助手”
ChatGPT是美國一家名為OpenAI的人工智能公司在2022年11月發(fā)布的大型語言模型(LLM)。它可以從數(shù)據(jù)中自主學習,經(jīng)過大量數(shù)據(jù)集訓練之后,可以產(chǎn)生復雜且看似智能的“寫作能力”。 “這有可能影響對學生語言和邏輯思維能力的培養(yǎng)。”這是來自國際教育界的擔憂。為此,有大學將“使用AI”列入作弊手段。而美國斯坦福大學更是開發(fā)了算法技術對抗,研究人員推出了DetectGPT技術,可以檢測出通過人工智能生成的文本。 2月3日,發(fā)表在期刊《自然》上的一篇題為《ChatGPT為研究帶來的五個機會》的文章指出:人們目前已使用ChatGPT和其他大型語言模型來撰寫論文和演講、總結文獻、編寫計算機代碼、統(tǒng)計分析等,“它可能會加速創(chuàng)新過程,縮短出版時間,并通過幫助人們流利地寫作,使科學更加公平,并增加科學觀點的多樣性。然而,它也會帶來擔憂,如可能降低研究的質(zhì)量和透明度,可能會歪曲科學事實并傳播錯誤信息等。” 對此,多數(shù)研究者認為,ChatGPT是現(xiàn)有教學科研工作的一種補充,但是由于其潛在的不良影響,需要在實際使用中格外審慎?!皩茖W研究領域來說,現(xiàn)在不是拒絕使用的問題,而是如何避免錯誤使用的問題?!钡诙娽t(yī)大學海軍醫(yī)學系退休教授、上海交通大學兼職教授孫學軍表示,“由于這種系統(tǒng)不夠成熟,目前使用時要堅持對信息進行人工確認,將來也可以利用多種技術來解決?!?/span>
孫學軍分析了使用這一系統(tǒng)的3點益處:首先,有利于科學問題的提出。通過先和人工智能進行對話和討論,至少能快速從文獻中獲得相關信息,以增加科研思路的科學性。其次,論文發(fā)表可能會逐漸失去意義。學術論文是科學家交流思想的載體,但如果能利用人工智能技術和網(wǎng)絡存儲潛力,學術論文可能會被更有效且具有一定個性化的學術資料庫取代,甚至可能逐漸發(fā)展出更多新的思想交流模式。大量偽學術研究逐漸失去市場。如果人工智能具有客觀評價學術的能力,那許多垃圾論文將會無法立足。這對于凈化學術空氣,減少無效學術信息,是非常有價值的。
診斷疾病,改善就醫(yī)體驗的“加速器”
醫(yī)療和人工智能的結合是很有前途的話題,ChatGPT在醫(yī)學領域的用途還在不斷探索和研究中。
不久前,德雷克塞爾大學研究團隊將GPT- 3與神經(jīng)學診斷聯(lián)系起來。他們從既往研究中得知,阿爾茨海默病患者早期說話方式會發(fā)生微妙變化,如停頓、發(fā)聲質(zhì)量等。如果能通過人工智能技術捕捉到這些變化,就可以幫助快捷地篩查出早期患者,及早進行干預和治療?;谶@一思路,研究人員使用阿爾茨海默病患者和正常人的語音記錄數(shù)據(jù)集,重新訓練了GPT-3。
經(jīng)過努力,研究人員實現(xiàn)了這樣一個場景:只需要提供一段音頻,這個算法能從人群中地檢測出阿爾茨海默病患者語言上的細微差別,并給出受檢測者的認知測試得分,而且整個過程不需要知道其他個人信息。
那么,ChatGPT在醫(yī)學領域能發(fā)揮哪些作用?智慧醫(yī)療行業(yè)的人士張迅杰分析了幾大方向:第一,提供個性化健康支持。它可以通過從大量醫(yī)學數(shù)據(jù)中學習,并生成詳盡、準確的醫(yī)學報告,幫助人們更好地了解自己的健康狀況和風險。第二,改善就醫(yī)體驗。比如,快速回答患者問題、減少等待時間等。第三,簡化臨床工作流程,如安排預約和管理醫(yī)療記錄,為醫(yī)務人員節(jié)省時間。第四,分析健康數(shù)據(jù),可以為醫(yī)務人員和研究人員提供更好的決策支持,并為醫(yī)療機構提供有關患者治療結果等方面的見解,還可以輔助遠程醫(yī)療。
雖然前景廣闊,但ChatGPT技術要想在醫(yī)療保健領域廣泛采用還面臨著一些挑戰(zhàn)?!捌湟?,用于訓練算法的信息僅持續(xù)到2021年,這限制了它對2021年后任何事物的實用性。第二,用戶還需要幫助以確保算法提供的答案準確無誤?!睆堁附苤赋觥?/span>
有不確定性,擁抱未來要明確邊界
人工智能作為具代表性的顛覆性技術,在給人類社會帶來潛在巨大益處的同時,因其不確定性可能帶來許多挑戰(zhàn)。數(shù)據(jù)安全、算法偏見等問題,是醫(yī)療和人工智能結合的熱點議題。
“ChatGPT是一個機器學習模型,仍屬于弱人工智能,它不具備個人意識,其應用價值巨大,但同時也引發(fā)一系列倫理、法律和社會問題,必須引起注意,盡快著手研究和治理?!睆氖律鼈惱韺W研究的張迪副教授從社會分工、教育行業(yè)、知識產(chǎn)權和公平公正4個方面進行分析。
第一,當下和未來,哪些人類活動能夠被此類技術取代?張迪舉例說:“信息的搜集與整理,文本編輯與翻譯等,可以幫助人類節(jié)省更多時間,提升生產(chǎn)效率。但這并不意味著人類就沒有必要去做這些事情。人類只有在親自行動的過程中,才能真正體驗到生命的意義和生活的幸福感?!?/span>
第二,該技術促使人類反思當下的教育,如教育的目的、內(nèi)容和形式。“人工智能技術如何更好地服務于教育,能否有助于促進教育的公平性?”張迪指出,“要為人工智能的使用劃清邊界。如學生作業(yè)的哪些部分允許使用ChatGPT,哪些不允許,如何識別和防止使用AI作弊等。”
第三,關于知識產(chǎn)權,目前一些研究者在研究過程中也使用此類語言模型,甚至將其列為作者。這樣署名合適嗎?通過語言模型開展研究能否體現(xiàn)對前人研究功績的尊重?張迪認為,關于署名,研究者和期刊應遵循當前的署名規(guī)則,如果語言模型僅僅完成了以往翻譯者或文字編輯的工作,顯然不應將其列為作者。但如果其提出了研究創(chuàng)意或研究方案,則需要反思現(xiàn)有的署名規(guī)則是否還適用。
第四,公平公正是重點議題。“首先要注意的是,歧視和污名化問題。”張迪解釋,由于語言模型涉及海量的訓練數(shù)據(jù)集,其中不乏一些帶有歧視和偏見類的數(shù)據(jù),導致其輸出的結果存在或加深歧視。這里還有可能涉及數(shù)據(jù)安全問題,不排除有人可能會惡意制造大量歧視信息,訓練語言模型或誘使其捕捉這些數(shù)據(jù),以有意加深歧視。“此外,ChatGPT背后有大量資本投入,其未來的使用必然涉及為資本服務,這會引發(fā)社會公正問題?!睆埖现毖?,目前中國并不在ChatGPT可使用的國家之中,即使未來在中國上線,也并非所有人都可以獲得。“語言模型技術的可及、可負擔的問題也很值得討論。比如,國家是否應當投入資源研發(fā)此類技術以促進公平可及,企業(yè)是否應當為貧困人群提供可負擔的技術服務?!?/span>
數(shù)據(jù)所屬權及個人隱私也需要關注?!澳壳?,從互聯(lián)網(wǎng)搜集個人信息和數(shù)據(jù)可使用爬蟲程序或人工檢索,但隨著語言模型的出現(xiàn)和迭代,很有可能會使已經(jīng)去標識的信息或數(shù)據(jù)再次變成可識別信息。所以,如果沒有相應的隱私保護規(guī)則內(nèi)嵌于語言模型之中,必將導致大量個人信息和數(shù)據(jù)的泄露,破壞個人隱私?!睆埖险f。