原始文章

這篇論文介紹「Visualizationary」系統,結合 ChatGPT 與視覺化設計指引,能針對使用者的圖表給予個人化、具體的改進建議,且不需寫程式。13 位參與者的研究顯示,透過 LLM 以自然語言指導,能有效提升不同經驗者的視覺化設計能力。補充資料可在 https://osf.io/v7hu8 查詢。 PubMed DOI


站上相關主題文章列表

您的研究探討了使用ChatGPT學習先進駕駛輔助系統(ADAS)的效果,與傳統紙本學習相比。透過多選題問卷和NASA任務負荷指數,評估參與者的理解能力和認知負荷。結果顯示,使用ChatGPT的參與者正確率平均高出11%,且報告的認知和身體需求較低,顯示學習體驗更有效且壓力較小。研究強調ChatGPT能滿足不同學習偏好,增強對複雜主題的理解,並建議在教育中整合大型語言模型(LLM)工具,並需進一步研究其在不同族群和學習領域的影響。 PubMed DOI

這段文字探討金融敘事視覺化中自動化圖形疊加的挑戰,強調理解圖形疊加與敘事結構的關聯性。為了解決這個問題,作者調查了1,752個分層圖表及其敘事,找出常見的疊加及其正確用法。他們推出了FinFlier,一個利用大型語言模型的兩階段系統,能自動創建圖形疊加。系統包含文本數據綁定模組和圖形疊加模組,根據敘事順序生成有效的疊加。作者展示了FinFlier的能力,並提供性能評估,證明其有效性及生成圖表的質量。 PubMed DOI

大型語言模型(LLMs)因為能用簡單的提示處理各種自然語言任務而受到廣泛歡迎,讓非專家也能輕鬆使用。不過,撰寫有效的提示卻不容易,因為需要特定知識。為了幫助用戶改善提示,我們開發了PROMPTAID,這是一個互動式的視覺分析系統,能讓用戶創建、精煉和測試提示。PROMPTAID透過協調視覺化,促進關鍵字擾動、意義重述和選擇最佳範例,並經過專家意見和用戶研究驗證,讓用戶能輕鬆迭代提示,生成多樣選項,並有效分析提示表現。 PubMed DOI

這篇論文評估了兩個大型語言模型(LLMs)的視覺素養,分別是 OpenAI 的 GPT 和 Google 的 Gemini。研究目的是建立它們在視覺化能力上的基準。雖然這些模型在生成描述和圖表設計上有潛力,但它們的視覺化評估能力仍未被充分檢視。透過修改過的 53 項視覺素養評估測試(VLAT),結果顯示這些 LLMs 的視覺素養水平低於普通公眾,且在回答問題時多依賴先前知識,而非視覺化呈現的信息。 PubMed DOI

大型語言模型(LLMs)如GPT-4與擴增實境(XR)技術結合,能創造沉浸式環境,並透過自然語言與使用者互動。不過,XR環境的複雜性使得提取上下文數據變得困難,導致成本上升和錯誤產生。為了解決這些問題,我們推出了LLMER框架,利用LLMs生成的JSON數據來構建互動式XR世界。LLMER能有效減少應用崩潰和延遲,初步研究顯示其令牌消耗減少超過80%,任務完成時間減少約60%。使用者反饋也指出了優化的空間。 PubMed DOI

這項研究發現,ChatGPT-4o在讀取青光眼視野檢查報告的數值和文字資料時表現很準確,能正確判斷檢查可靠度和整體診斷,但在分辨視野缺損的類型和位置時容易搞混,尤其是上下方。整體來說,AI分析文字和數據比影像更強,但還有進步空間。 PubMed DOI

這篇論文提出 InsightLens 系統,專為解決用大型語言模型分析資料時,洞見難以管理和追蹤的問題。InsightLens 能自動記錄、整理並視覺化對話中的資料洞見,讓分析師更方便管理和查找。研究結果顯示,這系統能減少手動整理的麻煩,降低認知負擔,提升分析效率。 PubMed DOI

這篇研究回顧了LLM在自動化科學文獻回顧的應用,分析了172篇論文。多數專案用ChatGPT或GPT系列,特別在文獻搜尋和資料擷取上表現比BERT好。不過,實際上很少有論文註明用LLM協助。雖然LLM處理數值資料還有些限制,但未來很可能會大幅改變文獻回顧的流程。 PubMed DOI

VOICE 是一套結合大型語言模型和互動視覺化的科學溝通工具,能用語音指令即時操作 3D 模型並獲得解說。它採雙層代理架構、微調和提示工程,並以分子視覺化為例,經用戶研究證實能有效滿足需求。更多資訊可見 https://osf.io/g7fbr。 PubMed DOI

大型語言模型在視覺化任務中,特別有專家指引時,能模擬人類評分與推理,且在專家信心高時表現與人類相近。不過,LLMs在穩定性和偏誤上仍有限,適合用來快速原型評估,但還是無法完全取代傳統使用者研究。 PubMed DOI