原始文章

這項研究分析了1,500則亞馬遜上關於熱門真空勃起裝置(VEDs)的評論,了解消費者的看法。使用GPT-4進行質性分析後,發現效果和使用者體驗是主要主題。安全問題在27%的評論中被提及,明確警告則出現於6.8%。電動VED因易用性和設計特徵受到青睞。高評價產品通常缺陷和故障報告較少。整體來看,對VED的情感偏正面,但強調病人教育以確保安全使用。 PubMed DOI


站上相關主題文章列表

這項研究評估了ChatGPT對勃起功能障礙(ED)相關問題的回答,包括準確性、易讀性和可重複性。ChatGPT在疾病流行病學和治療風險以及諮詢方面提供了準確的回答,但對治療選項的理解不完整。回答通常易讀,但有時對一般患者來說過於專業。在不同問題領域中,可重複性有所不同。 PubMed DOI

研究發現,ChatGPT 3.5和ChatGPT 4在處理勃起功能障礙相關問題時比BARD更準確。建議加強人工智慧醫學資訊的品質,以提供可靠的勃起功能障礙資訊。 PubMed DOI

人工智慧聊天機器人如ChatGPT對醫療資訊分享有顯著影響,尤其在泌尿學領域,像IPP手術。研究發現,ChatGPT在回答IPP手術問題時,有70%的回答優秀,20%令人滿意,只需少量澄清,但也有10%需要大量澄清。總體而言,ChatGPT在提供基於證據的資訊給患者方面有潛力,但仍有改進的空間。 PubMed DOI

這項研究評估了ChatGPT在男性學主題上的資訊準確性,針對患者和醫學生進行測試。研究人員提出120個與男性生殖健康相關的問題,並由兩位專家泌尿科醫生評分。結果顯示,50%的回答獲得1分,4.0版本稍好,達55.4%。常見問題的整體準確率為85.2%,而指導方針問題為81.5%。雖然ChatGPT的回答令人滿意,但仍有不完整之處,建議在泌尿科醫生指導下使用,以增進對男性學問題的理解。 PubMed DOI

這項研究評估了GPT-4在分析成人獲得性埋藏陰莖(AABP)患者訪談的有效性,並與人類研究者進行比較。研究發現,人類在95%的訪談中識別出「尿路問題」,而GPT-4為75%。在人類提到的「性問題」中,95%被提及,GPT-4則為80%。雖然兩者都強調「心理健康問題」,但人類更常提到「憂鬱」。人類與GPT-4的編碼一致性為中等,顯示AI在質性研究中有輔助潛力,未來可探索提升AI分析能力的方法。 PubMed DOI

越來越多患者在網上尋找健康資訊,尤其是像佩羅尼氏病這種敏感疾病。大型語言模型(LLM)聊天機器人展現了提供資訊的潛力,但對於PD的準確性和可讀性仍不明朗。研究評估了四個LLM在回答PD查詢時的資訊質量,結果顯示在有提示的情況下,資訊質量提升至高水平,但平均閱讀水平為12.9年級,超過大多數患者的理解能力。雖然LLM在患者教育上有潛力,但仍需臨床背景和人類提示來提升效果,並需教育患者與醫生如何有效互動。 PubMed DOI

這項研究探討使用ChatGPT進行輸精管結紮前諮詢的效果,目的是提升諮詢效率與病人滿意度。研究在單一機構進行,參與者為有意接受手術的成年病人,最終納入18位病人。結果顯示,使用ChatGPT的病人對於理解的評價較高,諮詢時間也縮短。此外,ChatGPT提供的資訊質量和整體體驗均獲得正面評價。總體來看,ChatGPT能有效提升輸精管結紮前的諮詢效率。 PubMed DOI

本研究探討人工智慧,特別是自然語言處理模型如ChatGPT,對於男性根治性前列腺切除術後勃起功能障礙(ED)患者的教育與知情同意的潛力。結果顯示,雖然ChatGPT能提供有關陰莖假體植入手術的資訊,但其質量和可理解性仍不足以幫助患者做出知情決策。評估結果顯示資訊的清晰度高,但複雜主題的理解度較低,顯示出改進AI生成內容的必要性。 PubMed DOI

勃起功能障礙(ED)是影響男性性健康的常見問題。本研究評估了兩個AI聊天機器人,ChatGPT和Gemini,對ED相關問題的回答質量。研究發現,ChatGPT成功回答所有15個問題,而Gemini則未能回答兩個。質量評估顯示,Gemini的低質量回答較多,且兩位泌尿科醫生對ChatGPT的評分一致性為92%,Gemini則為95%。雖然這些AI能快速回應,但仍無法取代醫療專業人員的護理,需進一步改進。 PubMed DOI

這項研究評估了三款AI聊天機器人—ChatGPT、Gemini和Llama—對早洩問題的回應,分析了它們對25個常見問題的回答。可讀性透過FRES和FKGL分數評估,質量則用修改版DISCERN (mDISCERN)和EQIP分數來衡量。結果顯示,三者的可讀性相似,但在質量上,Llama得分最高(72.2),Gemini次之(67.6),ChatGPT最低(63.1),差異顯著。mDISCERN方面,ChatGPT中位數為2,Gemini和Llama均為3,顯示資訊質量的明顯差異。總體來看,Llama在質量上表現最佳。 PubMed DOI