為什麼現在的 UX 設計師,必須開始思考 AI 設計?
在過去,UX 設計師的核心工作多集中在網站與 App 的流程優化與使用者體驗。但進入生成式 AI 時代後,AI 已經不只是幕後技術,而是直接與使用者互動的產品主角。
從智能客服、AI 助理、內容生成工具,到協作平台中的 AI 建議,使用者與 AI 的互動越來越頻繁,也越來越直覺。
這代表:
如果你是 UX 設計師,卻忽略了 AI 的角色,那你的設計就少了最關鍵的一塊拼圖。
隨著生成式 AI 工具 (如 ChatGPT、Gemini、Claude) 越來越普及,設計「值得信任的 AI 互動體驗」,成為每位 UX 專業人員無法忽視的挑戰。
當我們在規劃 AI 介面設計或使用者研究時,常會遇到一個選擇題:
是否讓 AI 更像人?是否該用頭像、有情緒的回應、甚至自稱「我」?
這樣真的能拉近距離及增加信任嗎?
近期Nielsen Norman Group的網站分享了由心理學家 Clara Colombatto 等人發表的研究《The influence of mental state attributions on trust in large language models》提供了反直覺但重要的洞察:
人們傾向信任「聰明的 AI」,但會懷疑「有情緒的 AI」。
這篇文章整理Nielsen Norman Group文章的精華,並想討論這項研究的重點跟 UX 實務應用的案例,讓你在設計 AI 相關體驗時,更懂得如何建立信任、提升使用者接受度。
延伸閱讀:Sunwall, Evan (September 19, 2025)。《Prioritize Smarts over Sentience to Increase Trust with AI》。Nielsen Norman Group。From:https://www.nngroup.com/articles/prioritize-smarts-over-sentience/
研究發現:聰明具體的AI 建立信任,有情緒的 AI 反而讓人質疑
研究找來 410 位使用者測試 ChatGPT,透過問卷與實驗兩種方式交叉驗證:
- 一方面問他們覺得 ChatGPT 聰不聰明、是否有情緒?
- 另一方面給他們常識小測驗,觀察他們是否會接受 ChatGPT 的建議並更改答案。
結果發現:
- ✅ 覺得 ChatGPT「有智能」的人,更傾向接受建議。
- ❌ 覺得 ChatGPT「有情緒」的人,反而較不信任它的建議。
換句話說:
AI擬人化,並不等於更值得信任。
AI 若表現出太多擬人特質 (如悲傷、生氣、關心你),使用者反而容易質疑它是否過於主觀、有偏見、不夠穩定。尤其在需要精準、理性判斷的工作情境中,這種設計反而會損害 AI 的專業形象。

🔍UX 設計師的思考重點:建立 AI 信任感的 3 大設計原則
針對這項研究,UX 設計師在設計 AI 產品或研究 AI 體驗時,可以掌握以下三個重點原則:
1. 專業定位,不裝熟
- ❌ 避免使用人名或擬人化頭像 (例:取名為「小明」還配一張笑臉)
- ✅ 清楚標示這是 AI 工具,協助你完成任務,而不是你的朋友或助理
2. 提升可解釋性,而非情感表達
- ❌ 不需要讓 AI 說「聽到你今天不開心,我感到很抱歉」
- ✅ 可以讓 AI 說「根據你提供的資料,這是我找出的分析結果」
3. 調整語氣親切但不濫情
- ❌ 過度熱情、像在哄你:「別擔心,你做得很好喔!」
- ✅ 專業但友善:「這是你的輸入資料分析結果,希望對你有幫助。」
那 UX 設計師實際該怎麼做?
理解了研究的核心發現後,接下來最關鍵的問題是:
這些洞察要怎麼落實在實際的 UX 設計與使用者研究中?

隨著 AI 技術越來越多地被應用在客服、內容建議、數據分析等互動場景,UX 設計師必須在流程設計與語意引導中,為 AI 的表現與可信度負責。
以下透過兩個真實常見的設計情境,說明你該如何根據這篇研究調整你的 AI UX 設計策略,建立更穩定、更值得信賴的使用體驗。
💼 實務案例 1:聊天型客服設計(AI UX介面設計)
情境: 你正在設計一個 AI 客服,協助使用者處理訂單問題。
常見設計陷阱:
很多團隊會想把 AI 聲音設計得「很有人情味」,甚至模仿真人客服的語氣。
但根據前面的研究顯示,讓 AI 顯得「情緒化」會讓使用者對其判斷力失去信心。
更好的做法:
- 使用清楚、專業的語氣說明問題解法
- 可以加入一些人性化的語氣修飾 (例如:您好、請問、謝謝你的等待)
- 回應中避免使用「我感到很抱歉」「我也很難過」,改為「造成您的困擾我們深感抱歉」這種中性組織語氣
🧪 實務案例 2:使用 AI 使用者研究工具時,提升受試者的信任感與真實回饋。
現在越來越多 UX 團隊導入 AI UX 研究工具(如 Maze、Lyssna、UXtweak、Useberry、Dovetail AI 等)來進行使用者測試、無主持訪談、自動摘要回饋等研究任務。
這些使用者經驗訪的談可以大幅降低研究負擔,但也帶來一個設計挑戰:受試者知道自己不是在和人互動時,會不會因此不夠認真、敷衍回答,甚至說出「他覺得 AI 想聽的話」?
這類現象其實非常常見,尤其在以下兩種場景中更明顯:
- 無真人主持式測試或問卷:缺乏人際連結,降低投入度
- AI 訪談工具:使用者知道是機器提問,信任感下降

UX 設計師或研究員該怎麼做?
更好的做法:
1. 在研究開場中清楚說明 AI 的角色與用途
使用者往往因為不知道「這是什麼」而感到不安。
建議在測試開始前加入簡單說明語句:
「這次測試過程會由 AI 工具來協助紀錄與統整,您的回答完全保密,也不會被機器評分或篩選,請放心用自己的方式作答。」
✅ 這樣能降低使用者的表現壓力,提高真實性。
2. 避免過度擬人化的 AI 問句或介面設計
許多 AI 研究工具提供自動提問功能,常預設使用「我想知道…」「你可不可以告訴我…」等擬人句式。
這種說法雖然看起來親切,但反而可能讓受試者錯估目的,以為這是聊天,而非嚴謹的研究過程。
建議調整為中性、目標導向的引導:
❌「我很好奇你是怎麼使用這個功能的~」
✅「請說明你在這個步驟中的操作方式,以及是否遇到困難?」
3. 善用中性 AI 視覺與語氣設計,避免使用者過度防備或討好心態
在無真人主持測試介面中,使用 AI 人像、聊天泡泡或太過卡通化的風格,可能引發使用者「應對式行為」,例如故意講得很完整,或試著「猜對答案」。
建議介面設計風格採用:
- 清楚的測試進度與提示語
- 客觀敘述、少用主觀形容詞(如「很棒!」、「太可惜了~」)
- 結束語中提醒使用者「沒有標準答案」,鼓勵自然作答
以上調整就有助於直接影響 UX 研究的有效性與資料真實性。
結語:真正建立 AI 使用者信任的關鍵不是模仿人,而是展現專業
AI 越來越融入我們的數位產品與服務,對話式AI客服機器人更是常見的運用,但把 AI 設計得越像人,未必代表就越值得信任。
作為數位 UX 專業人員,我們應該:
- 聚焦在 AI 的邏輯性、分析力與透明度
- 避免過度情緒表現與擬人化
- 用對的研究方法掌握使用者心智模型
打造值得信賴的 AI UX 體驗,需要更多理性設計與真實測試,而不是表面上的親切感。
延伸閱讀與引用來源:
- Colombatto, C., Birch, J., & Fleming, S. M. (2025). The influence of mental state attributions on trust in large language models. Communications Psychology
- Ibrahim, L., Hafner, F. S., & Rocher, L. (2025). Training Language Models to Be Warm and Empathetic Makes Them Less Reliable and More Sycophantic. arXiv

0 comments on “【UX設計必看】研究發現:擬人化AI反而降低使用者信任感!設計師該怎麼做?”