原始文章

這項研究發現,民眾首次接觸由ChatGPT驅動的人形機器人Pepper時,對其外觀和動作有各種情緒反應,也對社交互動和包容性有疑慮。結果顯示,人機互動受複雜的社會與情感因素影響,未來隨著社交型機器人普及,真實場域的研究會越來越重要。 PubMed DOI


站上相關主題文章列表

這項研究探討人們對人工智慧,特別是像ChatGPT這類大型語言模型在約會和人際關係建議上的看法。雖然大家偏好人類的建議,但研究發現ChatGPT的建議品質通常更高。不過,當使用者知道建議來自AI時,會對其產生偏見。此外,研究也指出,先自己生成建議會提升對AI建議的評價,但若先使用AI建議,則可能降低自我真實感。總之,這顯示出在個人建議中對AI的偏見,以及使用這些工具可能引發的社會比較。 PubMed DOI

這項研究分析了2022年11月至2023年3月期間,88,058條推文中對ChatGPT的認知。結果顯示,87%的推文將ChatGPT視為主動的社會行為者,強調其在內容創作和信息傳播中的角色,但也反映出用戶對其能力的疑慮。相對地,13%的推文則將其描繪為被動,顯示人們對其信息的依賴。這種雙重形象引發了對AI生成內容信任及責任歸屬的討論,對AI開發者和政策制定者具有重要意義。 PubMed DOI

這項研究分析了ChatGPT發布後,Twitter上對大型語言模型(LLMs)的討論,特別是ChatGPT和GPT-3。透過超過59,000條推文的主題建模和情感分析,發現普通人和技術專業人士的態度存在差異。研究指出,關於ChatGPT的討論多集中在商業應用,且常帶有負面情緒;而GPT-3的討論則較為正面,涵蓋倫理等多元主題。這顯示出進一步研究的必要性,以了解LLMs的影響與風險,並為政策制定者提供參考。 PubMed DOI

本研究探討了ChatGPT推出後,使用者與MIBot(幫助戒煙的聊天機器人)互動的變化。參與者分為兩組:一組在ChatGPT發布前互動,另一組則在六個月後互動。結果顯示,後者對MIBot的滿意度顯著下降,尤其在同理心方面。不過,對ChatGPT熟悉的使用者提供了更長的回應,並在戒煙意願上有更大提升。這顯示先進AI技術改變了使用者期望,開發者需隨之調整。 PubMed DOI

研究發現,當人們知道經濟遊戲的夥伴是AI時,會變得比較不信任、不合作,也覺得AI不公平、不可靠。但如果不知道對方是不是AI,這些負面感受就不明顯。大家其實很常讓AI來做決定,而且很難分辨哪些決策是AI還是人做的。 PubMed DOI

這項研究開發出一套結合 ChatGPT-4 的認知型機器人架構,能模擬人類個性、情緒、動機、注意力和記憶。機器人可處理文字和影像,並根據設定的個性回應,還能用文件嵌入技術實現長期記憶。個性模擬參考心理學理論,並用 Big Five 測驗驗證。Mobi 機器人展現出先進的心智理論,能靈活應對社交互動,對話自然又有意圖。 PubMed DOI

這項研究發現,醫學生用 ChatGPT 當虛擬標準化病人練習問診,覺得方便又彈性,對學習有幫助。不過,缺乏表情和情感互動、設計提示有難度,是目前的缺點。大家對 AI 的信任度有提升,但還是認為無法完全取代真人 SP。建議醫學教育要教 prompt engineering,並持續優化 AI。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

AI治療聊天機器人有助於解決心理資源不足,但也可能帶來依賴或孤獨感。MIT和OpenAI的研究發現,整體上能減少孤單感,但頻繁使用可能有負面影響。評論肯定研究貢獻,也提醒目前證據有限,建議未來要更深入研究。 PubMed DOI

這項研究發現,ChatGPT在急性精神科危機的德語諮詢中,獲得「有幫助」和「適切」等正面評價,但在「真實感」上表現較差,尤其是精神病案例。多數專業人員認為LLM未來在醫療有潛力,但對其風險仍有疑慮,需更多實際病人研究才能安全應用。 PubMed DOI