僅僅一年時(shí)間,ChatGPT 已經(jīng)深入科學(xué)研究的各個(gè)領(lǐng)域。七位科學(xué)家分享了他們關(guān)于這個(gè)聊天機(jī)器人正確與錯(cuò)誤用法的認(rèn)識(shí)與體會(huì)。 本文經(jīng)授權(quán)轉(zhuǎn)載自寶玉 的個(gè)人博客
責(zé)編 | 夏萌 出處 | baoyu.io 2022 年 11 月 30 日,OpenAI 這家科技公司發(fā)布了 ChatGPT —— 一個(gè)能夠以類似人類的方式回應(yīng)指令的聊天機(jī)器人。它迅速成為科學(xué)界和大眾關(guān)注的焦點(diǎn),在上線首五天就吸引了一百萬用戶;目前用戶數(shù)量已超過 1.8 億。七位研究者向《自然》雜志透露了 ChatGPT 如何改變了他們的研究方式。 MARZYEH GHASSEMI:在醫(yī)療保健中應(yīng)修正而非擴(kuò)大偏見
人工智能(AI)領(lǐng)域的生成式語言和圖像模型技術(shù)成就令人矚目。在我的實(shí)踐中,我主要利用 ChatGPT 以不同風(fēng)格重寫內(nèi)容,比如將科學(xué)摘要改寫得更適合大眾閱讀,或者簡明扼要地向財(cái)務(wù)官員介紹我的研究成果。我也使用它來起草文章、電子郵件或論文的開頭部分。 生成式 AI 或許能徹底改變醫(yī)療保健——但前提是不能讓大型科技公司掌握主導(dǎo)權(quán) 我對(duì)這些生成式 AI 工具被用于創(chuàng)作內(nèi)容感到憂慮,不論是學(xué)生、學(xué)術(shù)人員、公司還是公眾都是如此。這些工具經(jīng)常被發(fā)現(xiàn)會(huì)產(chǎn)生“幻覺”效果(即提供不準(zhǔn)確或虛構(gòu)的信息)。 更令人擔(dān)憂的是,文本和圖像生成容易受社會(huì)偏見的影響,而這些偏見并非易于修正。在醫(yī)療領(lǐng)域的一個(gè)例子是 Tessa,這是一個(gè)美國非營利組織運(yùn)行的幫助飲食失調(diào)患者的基于規(guī)則的聊天機(jī)器人。在加入生成式 AI 之后,這個(gè)現(xiàn)已暫停使用的機(jī)器人提供了有害的建議。在一些美國醫(yī)院,生成模型用于處理和生成電子病歷的部分內(nèi)容。然而,這些系統(tǒng)背后的大語言模型(LLMs)并不提供醫(yī)療建議,因此不需要美國食品藥品監(jiān)督管理局的認(rèn)證。這意味著確保 LLM 的使用準(zhǔn)確性和公平性實(shí)際上取決于醫(yī)院,這是一個(gè)嚴(yán)重的問題。 總的來說,無論是在普通場景還是醫(yī)療環(huán)境中,使用生成式 AI 工具都需要進(jìn)行更多以社會(huì)責(zé)任為導(dǎo)向的研究,而不僅僅是追求效率或利潤。這些工具雖然靈活強(qiáng)大,能夠加速賬單處理和信息傳遞,但如果部署不當(dāng),就會(huì)加劇現(xiàn)有的公平性問題。例如,研究發(fā)現(xiàn),聊天機(jī)器人會(huì)根據(jù)患者的性別、種族、民族背景和社會(huì)經(jīng)濟(jì)地位推薦不同的治療方案(參見 J. Kim et al. JAMA Netw. Open 6, e2338050; 2023)。 我們必須明白,生成式 AI (Generative AI) 模型反映并擴(kuò)大了其訓(xùn)練數(shù)據(jù)的內(nèi)容。鑒于人類極易被仿真逼真的 AI 生成文本所說服,利用這種 AI 促進(jìn)健康公平至關(guān)重要。例如,通過同情心訓(xùn)練或提出減少偏見的編輯建議,而不是簡單地加速現(xiàn)有的醫(yī)療體系,這樣做可能會(huì)加劇不平等并產(chǎn)生誤導(dǎo)性的幻覺。AI 應(yīng)該致力于促進(jìn)醫(yī)療保健系統(tǒng)的改進(jìn)和轉(zhuǎn)型。 ABEBA BIRHANE: 思考是否真的需要使用
大語言模型(LLM)現(xiàn)已廣泛應(yīng)用,許多學(xué)者為了不落伍,紛紛加入這一潮流。他們可能還沒弄清楚如何具體運(yùn)用這項(xiàng) AI 技術(shù),但似乎都覺得這種先進(jìn)技術(shù)肯定有其用武之地——就好比手里有錘子,到處尋找釘子一樣。雖然人們普遍認(rèn)為生成式 AI 會(huì)大幅改變社會(huì),但這項(xiàng)技術(shù)的確切用途和無爭議的優(yōu)勢仍然模糊不清。 無論是在學(xué)術(shù)研究、新聞報(bào)道還是政策報(bào)告中,生成式 AI 的潛在益處常常被過度夸大,而其失敗、局限和缺陷則往往被忽略或只是一帶而過。關(guān)于這一技術(shù)的批評(píng)性討論也相對(duì)有限,僅集中在準(zhǔn)確性、可靠性、性能等方面,以及模型訓(xùn)練依賴的數(shù)據(jù)和模型權(quán)重是否為開源或封閉源。盡管這些問題重要,但一個(gè)基本的問題卻鮮少被提出:我們是否真的需要使用這項(xiàng)技術(shù)——尤其是在解決像醫(yī)療保健這樣復(fù)雜多面的問題時(shí)? 以醫(yī)療保健為例,雖然有提議在低收入和中等收入國家采用基于 LLM 的方案,但眾所周知,AI 系統(tǒng)往往加劇了社會(huì)偏見(參見 J. Shaffer et al. BMJ Glob. Health 8, e013874; 2023)。要真正理解并解決全球健康不平等問題,我們需要觸及到社會(huì)現(xiàn)實(shí)的深層次原因,比如直面殖民主義和奴隸制的歷史遺留問題,以及全球南北之間權(quán)力和財(cái)富的不均等分配——這意味著某些人群的健康問題被視為比其他人群更為重要。 提出一個(gè)簡單的“技術(shù)解決方案”——以行動(dòng)的名義——遠(yuǎn)比正視這些深層次挑戰(zhàn)來得容易。我們真正需要的,是政治意志和權(quán)力資源的公正分配,而非僅僅依賴大語言模型。 MUSHTAQ BILAL: 把 ChatGPT 作為構(gòu)架思路的工具,而非內(nèi)容創(chuàng)造者 ChatGPT 面世之初,我正忙于從巴基斯坦遷往丹麥,開始我的博士后生涯,沒能即時(shí)關(guān)注這一技術(shù)。但我始終密切關(guān)注著社交媒體上的相關(guān)討論。 今年一月,我的朋友 Rob Lennon 分享了他如何使用 ChatGPT 于商業(yè)領(lǐng)域的經(jīng)驗(yàn),這在 X(原 Twitter;詳情見 go.nature.com/3teexb1)上引起了廣泛關(guān)注。我借鑒了他的方法,在學(xué)術(shù)寫作中嘗試應(yīng)用 ChatGPT,并在社交媒體上分享了我的經(jīng)驗(yàn)(詳情見 go.nature.com/3swrztn),引發(fā)了熱烈反響。從那以后,我探索并分享了更多將 ChatGPT 應(yīng)用于學(xué)術(shù)領(lǐng)域的方法,這些分享發(fā)生在 X 和專注于職業(yè)發(fā)展的 LinkedIn 平臺(tái)上。 我最重要的一個(gè)觀點(diǎn)是,生成式 AI 擅長搭建框架,而不是填充內(nèi)容。大語言模型(LLMs)的訓(xùn)練目的是預(yù)測下一個(gè)詞匯,這導(dǎo)致由聊天機(jī)器人生成的內(nèi)容往往較為常規(guī),而真正的原創(chuàng)研究則遠(yuǎn)不止于此。 換個(gè)角度,ChatGPT 可以成為你的頭腦風(fēng)暴伙伴。它或許不能提供突破性的創(chuàng)意,但通過恰當(dāng)?shù)囊龑?dǎo),確實(shí)能幫你朝正確的思路發(fā)展。它還能幫助你勾勒出研究論文的大綱,為你的研究提供一個(gè)良好的開端。 OpenAI 最近推出了幾款為特定用途定制的 ChatGPT 版本,涵蓋了教學(xué)和研究等領(lǐng)域。例如,可以為特定課程定制 ChatGPT,使其在回答問題時(shí)始終依據(jù)課程資料,這有助于避免機(jī)器人產(chǎn)生錯(cuò)誤的“幻覺”,為學(xué)生提供了一個(gè)可靠的學(xué)習(xí)資源。 SIDDHARTH KANKARIA: 定制化教學(xué)的新工具Siddharth Kankaria 發(fā)現(xiàn),生成式 AI(Generative AI)在教學(xué)科學(xué)交流方面展現(xiàn)了巨大潛力。 最初,ChatGPT 在科學(xué)傳播方面的潛力讓我充滿期待。它看起來能夠清晰、簡練且通俗地總結(jié)科學(xué)論文,幫助深?yuàn)W的術(shù)語變得淺顯易懂。但很快,我意識(shí)到這些看似美好的應(yīng)用實(shí)際上需要謹(jǐn)慎對(duì)待和反復(fù)校對(duì)。我發(fā)現(xiàn),明智的做法是有目的地使用 ChatGPT,并全面考慮其優(yōu)缺點(diǎn)。 今年早些時(shí)候,我在教授中學(xué)生科學(xué)交流和公共參與時(shí),就抓住了這樣一個(gè)機(jī)會(huì)。在這個(gè)領(lǐng)域,創(chuàng)造力和批判性思維是非常關(guān)鍵的。作為“實(shí)踐中學(xué)習(xí)”的堅(jiān)定擁護(hù)者,我設(shè)計(jì)的課程既參與性強(qiáng)又富有互動(dòng)性。我通過即興游戲、表演、辯論和討論等方式,讓學(xué)生們接觸到科學(xué)交流的各種概念,比如講故事、觀眾定位、以及倫理和社會(huì)正義等方面。 我利用 ChatGPT 來為課堂活動(dòng)構(gòu)思靈感、問題和內(nèi)容。例如,它迅速整理出 50 個(gè)科學(xué)隱喻,如將 DNA 比作“生命的藍(lán)圖”和把重力描述為“床單上的球體”。 我意識(shí)到許多學(xué)生可能會(huì)在這些活動(dòng)和小組項(xiàng)目中使用 ChatGPT。我沒有限制他們使用這個(gè)工具——當(dāng)我自己也在依賴這個(gè)聊天機(jī)器人時(shí),限制他們使用它似乎有些虛偽——相反,我鼓勵(lì)他們自由地使用 AI 工具,同時(shí)也要思考這些工具的局限性。在一次關(guān)于科學(xué)寫作的課上,我們一起評(píng)估了由學(xué)生和 ChatGPT 編寫的研究論文摘要,這些摘要是匿名的。這次活動(dòng)引發(fā)了關(guān)于什么是好的開場白、AI 工具的局限以及如何提升個(gè)人寫作技巧的精彩討論。 至少在教授和傳播科學(xué)的背景下,我認(rèn)為,逐步接受新技術(shù),同時(shí)嚴(yán)格審視其偏見和潛在缺陷,是一種非常明智的做法。 CLAIRE MALONE:不??孔V,但總能帶來歡樂科學(xué)記者 Claire Malone 表示,要想有效使用 ChatGPT,關(guān)鍵在于懂得如何提問以避免無關(guān)的答案。Credit: Claire Malone 一年前,我對(duì) ChatGPT 在我的科學(xué)傳播工作中的實(shí)用性持懷疑態(tài)度。我的工作核心是把復(fù)雜的科學(xué)概念變得通俗易懂。事實(shí)證明,我的一些顧慮是有道理的。比如,當(dāng)我讓這個(gè)聊天機(jī)器人把我的博士論文摘要簡化表達(dá)時(shí),結(jié)果并不盡如人意。它保留了過多專業(yè)術(shù)語,沒有把關(guān)鍵概念講得淺顯易懂。 但 ChatGPT 確實(shí)有其優(yōu)點(diǎn)。首先得知道怎樣提問才能避免無關(guān)緊要的答案。我發(fā)現(xiàn) ChatGPT 是快速了解一個(gè)主題概況的有效工具,之后我還可以進(jìn)一步深入探究。隨著 ChatGPT 功能和精確度的日益增強(qiáng),未來幾年里,每個(gè)用戶的體驗(yàn)將越來越個(gè)性化。 我認(rèn)為,它在激發(fā)人們對(duì)廣泛話題的好奇心方面發(fā)揮著重要作用。它是一個(gè)即時(shí)的、互動(dòng)式的信息來源——盡管并非總是準(zhǔn)確無誤。它的作用與記者不同,記者不僅要核實(shí)事實(shí),還會(huì)考慮更廣泛的影響,并經(jīng)常聚焦于讀者可能不曾想到探討的話題。 ETHAN MOLLICK: 在教育中擁抱人工智能 我在教學(xué)中不避諱使用人工智能,而是將其整合到每項(xiàng)作業(yè)和課程中?;谶@種實(shí)驗(yàn)和對(duì)生成式 AI 工具的早期研究,我對(duì)未來的看法如下。 AI 作弊將難以檢測且普遍存在。AI 檢測工具經(jīng)常會(huì)產(chǎn)生大量誤判和漏判,尤其是對(duì)于那些英語非母語的學(xué)生(詳見 go.nature.com/47am62d)。因此,教師需要探索除了傳統(tǒng)家庭作業(yè)之外的學(xué)生評(píng)估方法。 AI 技術(shù)將無處不在。目前,ChatGPT-3.5 是免費(fèi)的,微軟的 Bing 和谷歌的 Bard 也是如此。所有這些由大語言模型(LLM)驅(qū)動(dòng)的系統(tǒng)為每個(gè)人提供了前所未有的寫作和分析能力。即便技術(shù)不再進(jìn)步(但實(shí)際上它還會(huì)),我認(rèn)為它的普及程度會(huì)增加,且成本將保持在合理范圍內(nèi)。 AI 將徹底改變教學(xué)方式。學(xué)生已經(jīng)在使用大語言模型作為輔導(dǎo)工具和學(xué)習(xí)參考。就像一個(gè)學(xué)生說的那樣:“如果你可以向 ChatGPT 提問,為什么還要在課堂上舉手?”我們需要深入思考如何將這些工具及其優(yōu)缺點(diǎn)融入課堂。我們可以找到既利于教師,又利于學(xué)生和整體教育的方法。隨著模型變得更加精準(zhǔn)和強(qiáng)大,它們可能會(huì)直接承擔(dān)教學(xué)角色。但是,直接教學(xué)只是教師角色的一小部分。課堂提供了更多,例如練習(xí)學(xué)習(xí)技能、協(xié)作解決問題、從教師那里獲得支持以及社交活動(dòng)。 即使有了優(yōu)秀的 AI 輔導(dǎo),學(xué)習(xí)環(huán)境仍然會(huì)提供額外價(jià)值,但這需要采納像主動(dòng)學(xué)習(xí)和翻轉(zhuǎn)課堂這樣的教學(xué)方法(在翻轉(zhuǎn)課堂中,學(xué)生在上課前就已獲取課程資料,上課時(shí)教師主要促進(jìn)小組討論)。這些方法已被證明非常有效,但由于教師面臨的限制,實(shí)施起來一直頗具挑戰(zhàn)。AI 有可能成為這種變革的催化劑。 我們以前也經(jīng)歷過類似的變革。比如,20 世紀(jì) 70 年代計(jì)算器的引入,徹底改變了數(shù)學(xué)教學(xué)的方式。現(xiàn)在,教育面臨著一個(gè)更大的挑戰(zhàn),但同時(shí)也帶來了機(jī)遇和風(fēng)險(xiǎn)。以道德和恰當(dāng)?shù)姆绞綄?shí)驗(yàn) AI,可以幫助我們探索如何運(yùn)用教學(xué)原則來提升學(xué)生學(xué)習(xí)效果的最佳方法。 FRANCISCO TUSTUMI:迫切需要透明度Francisco Tustumi 認(rèn)為,由大語言模型(LLM)驅(qū)動(dòng)的聊天機(jī)器人需要對(duì)批判性審查更加開放。 隨著 ChatGPT 和其他生成式 AI 系統(tǒng)展現(xiàn)出的強(qiáng)大能力,有人開始認(rèn)為這些工具可能最終會(huì)替代人類在科學(xué)文章審查和寫作方面的工作。確實(shí),這些系統(tǒng)在稿件準(zhǔn)備和審查中,包括數(shù)據(jù)搜索方面,可能會(huì)發(fā)揮作用。但它們也有局限性。 首先,ChatGPT 并非搜索引擎 — 研究已顯示它會(huì)給出錯(cuò)誤的答案(S. Fergus et al. J. Chem. Educ. 100, 1672–1675; 2023)。此外,它在構(gòu)建文本的過程中缺乏透明度。科學(xué)論文必須擁有明確且可復(fù)制的研究方法。文章應(yīng)詳細(xì)介紹信息來源、搜索、選擇、數(shù)據(jù)提取和報(bào)告策略,讓讀者能夠全面評(píng)估文章中的數(shù)據(jù)和文本。 希望將來的 AI 程序能更適合進(jìn)行這樣的批判性評(píng)估。在那之前,它們還不能可靠地用于學(xué)術(shù)論文的撰寫和審查。 |
19款電子扎帶
電路板識(shí)別電子標(biāo)簽