原始文章

這項研究探討新加坡新聞媒體如何報導溝通型人工智慧(AI),並反映公眾的態度。透過分析336篇來自三個主要新聞網站的文章,發現媒體主要強調AI的好處,將其視為工具而非社會行為者。不過,隨著ChatGPT的出現,報導焦點開始轉向風險、監管、責任及潛在衝突,顯示AI敘事隨技術發展和社會關注而變化。 PubMed DOI


站上相關主題文章列表

學者對於AI在學術寫作中的影響看法不一,尤其在報告AI使用時存在爭議。倫理、學術角色和語言背景都影響了他們的立場。強調了在準備手稿時要求報告AI使用的挑戰,因為尚無共識,且檢測工具難以辨識微妙的情況。 PubMed DOI

人工智慧(AI)在健康溝通系統中的應用,顯著改變了公共衛生管理,尤其在緊急情況下,能透過數位渠道有效接觸大眾。本文探討通用對話式人工智慧(CAI)的角色,強調其在健康訊息傳遞中的潛力,特別是透過AI驅動的訊息平台提供個性化的健康介入。針對COVID-19疫情的案例研究顯示CAI在健康信息傳播上的有效性。我們建議公共衛生機構與AI技術合作,同時解決偏見、錯誤信息及隱私等挑戰,展望未來CAI將提升健康溝通的可靠性。 PubMed DOI

這項研究調查了像 ChatGPT 這類大型語言模型在科學詢問中的使用情況及人們的看法,基於2023年7、8月來自七國的4,320名受訪者的數據。儘管這些技術較新,許多使用者仍表示會利用 ChatGPT 獲取科學資訊。研究比較了使用者對 ChatGPT 和傳統資訊來源(如 Google 搜尋)的看法,以及他們對生成式人工智慧的知識和信任程度,並與不使用者及不同目的的使用者進行比較,提供了對 GenAI 早期採用及其對公眾理解科學議題影響的見解。 PubMed DOI

這項研究分析了2022年11月至2023年3月期間,88,058條推文中對ChatGPT的認知。結果顯示,87%的推文將ChatGPT視為主動的社會行為者,強調其在內容創作和信息傳播中的角色,但也反映出用戶對其能力的疑慮。相對地,13%的推文則將其描繪為被動,顯示人們對其信息的依賴。這種雙重形象引發了對AI生成內容信任及責任歸屬的討論,對AI開發者和政策制定者具有重要意義。 PubMed DOI

這項研究探討了AI生成與人類生成的道路安全訊息在阿聯酋廣告牌宣傳中的有效性,特別針對阿拉伯語使用者。研究使用GPT-4創造15條AI訊息,並由三位專家製作另外15條人類訊息。經過186名參與者的評分,結果顯示AI訊息情感更正面,且可讀性無顯著差異。雖然兩者評價都高,但人類訊息在清晰度上稍勝一籌。這項研究強調了AI在公共傳播中的潛力,並指出理解受眾對AI內容反應的重要性。 PubMed DOI

這項研究分析了ChatGPT發布後,Twitter上對大型語言模型(LLMs)的討論,特別是ChatGPT和GPT-3。透過超過59,000條推文的主題建模和情感分析,發現普通人和技術專業人士的態度存在差異。研究指出,關於ChatGPT的討論多集中在商業應用,且常帶有負面情緒;而GPT-3的討論則較為正面,涵蓋倫理等多元主題。這顯示出進一步研究的必要性,以了解LLMs的影響與風險,並為政策制定者提供參考。 PubMed DOI

健康溝通與推廣在網路上的變化受到科技進步,特別是生成式人工智慧(GenAI)的影響。雖然這些技術為公眾和健康專業人士帶來新機會,但也可能加劇健康差距。文章探討了GenAI在健康推廣中的應用及其挑戰,強調以往網路溝通的局限性,如缺乏即時回應和個性化建議。研究呼籲進一步探討GenAI在公共健康推廣中的實證研究,並強調提升數位素養和社會弱勢群體的科技存取,以減少健康不平等。 PubMed DOI

在2023年中,有一項研究針對40名藥理學畢業專題的學生,評估他們對新型協作多媒體評估的體驗,該評估使用了人工智慧(AI)。研究發現,學生最初將AI視為個人導師,並將其角色分為仲裁者、神諭者和量化者。然而,實際上AI的使用主要集中在創意生成和數據分析,並未有小組利用AI生成最終的書面內容。這顯示學生對AI在評估中的角色存在疑慮,強調了教育者和學生需要更清晰的指導,以有效整合AI於學習和評估中,維持評估的完整性。 PubMed DOI

這項研究發現,ChatGPT在心理諮詢上的專業度、同理心和人性化表現,跟人類諮商師差不多。不過,AI還是能被辨識出來,主要差異在語境、句子結構和情感表達。研究也提醒要注意透明度、隱私和倫理問題。總結來說,ChatGPT有潛力協助心理健康,但還有不少實務和倫理挑戰要解決。 PubMed DOI

這份研究發現,菲律賓護理科學家認為ChatGPT有助於提升醫療照護,但強調使用時要顧及文化敏感度、語言和資料取得等在地需求,同時也需要新的技能和倫理規範,確保AI應用既安全又包容。 PubMed DOI