原始文章

這篇研究比較人類和ChatGPT在財經、醫療建議文本中動詞-論元構式(VACs)的使用。結果發現,雙方在VACs的類型和頻率很接近,但ChatGPT較依賴常見語法結構,且用的動詞和表達意思還是有差異。新版GPT在動詞-VAC的表現更像人類,但整體文本長度等特徵還是不同。VACs可用來分析AI語言變化。 PubMed DOI


站上相關主題文章列表

這篇評論探討了OpenAI的ChatGPT在醫療溝通中的潛力,特別是在醫學、教育和研究領域的應用。雖然AI工具能協助研究和數據分析,提升醫學寫作,但在準確性、偏見、安全性和倫理等方面仍有顧慮。對這些工具的誤解也可能影響其使用。若正確運用,ChatGPT能增進醫學寫作者的知識與效率,讓他們專注於更複雜的任務。評論旨在提醒醫生和研究人員了解使用ChatGPT的優缺點,並建議未來的研究方向。 PubMed DOI

這項研究探討了ChatGPT在醫學教育質性研究中進行主題分析的應用。由於質性分析複雜且耗時,研究評估了ChatGPT的有效性並與人類分析師比較。結果顯示,ChatGPT在大多數領域表現良好,但在可轉移性和分析深度上有所不同。六個關鍵主題包括:與人類結果的相似性、正面印象、數據連結清晰、提示影響、缺乏背景描述及理論基礎。雖然ChatGPT能有效識別關鍵數據,但深入分析仍需人類參與以增強深度。 PubMed DOI

這項研究探討了ChatGPT在提供醫療資訊時,如何根據疾病類型(醫療性 vs. 心理性)和使用者的溝通風格(中立 vs. 表達關心)來調整其回應。研究發現,當面對心理問題或使用者表達關心時,ChatGPT會使用更具同理心的語言;而在中立查詢中則偏向分析性語言。此外,健康相關的語言在心理討論中較常見,疾病相關的語言則多出現在身體狀況的對話中。這顯示ChatGPT的回應會受到疾病類型和使用者情感的影響,能透過調整溝通方式來提升病人的參與感。 PubMed DOI

這項研究探討人們對人工智慧,特別是像ChatGPT這類大型語言模型在約會和人際關係建議上的看法。雖然大家偏好人類的建議,但研究發現ChatGPT的建議品質通常更高。不過,當使用者知道建議來自AI時,會對其產生偏見。此外,研究也指出,先自己生成建議會提升對AI建議的評價,但若先使用AI建議,則可能降低自我真實感。總之,這顯示出在個人建議中對AI的偏見,以及使用這些工具可能引發的社會比較。 PubMed DOI

這項研究分析了2022年11月至2023年3月期間,88,058條推文中對ChatGPT的認知。結果顯示,87%的推文將ChatGPT視為主動的社會行為者,強調其在內容創作和信息傳播中的角色,但也反映出用戶對其能力的疑慮。相對地,13%的推文則將其描繪為被動,顯示人們對其信息的依賴。這種雙重形象引發了對AI生成內容信任及責任歸屬的討論,對AI開發者和政策制定者具有重要意義。 PubMed DOI

這項研究分析了ChatGPT發布後,Twitter上對大型語言模型(LLMs)的討論,特別是ChatGPT和GPT-3。透過超過59,000條推文的主題建模和情感分析,發現普通人和技術專業人士的態度存在差異。研究指出,關於ChatGPT的討論多集中在商業應用,且常帶有負面情緒;而GPT-3的討論則較為正面,涵蓋倫理等多元主題。這顯示出進一步研究的必要性,以了解LLMs的影響與風險,並為政策制定者提供參考。 PubMed DOI

這項研究發現,ChatGPT-4在分析日文質性訪談時,對於簡單、描述性的主題表現跟人類差不多,但遇到有文化或情感層面的議題就明顯不如人類。AI適合協助基礎主題辨識,但要深入解讀還是得靠專家。研究也提醒,AI在非英文環境還有進步空間,使用時要注意倫理和法律問題。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

這項研究發現,近年約有16.7%的骨科期刊論文含有明顯AI生成內容,且不同期刊間比例不一。研究強調,隨著AI工具普及,科學出版界急需訂定明確規範和道德標準,以確保論文品質與誠信。 PubMed DOI

這項研究發現,ChatGPT能有效分析醫學生訪談逐字稿,評估其對醫病關係的隱性態度,評分結果和專家高度一致,分類準確度也不錯(約0.8-0.85)。不過,ChatGPT抓到的重點片段較少,未來還需要用更多元的樣本來驗證。 PubMed DOI