3. Claude 3.5 Sonnet 自動使用了 Sara 的女性角色;我刪除對話、重新提出需求,這次給了 Psychotherapist 一個名字叫 Yao Chu;AI 這次先詢問我是否要提供更多內容、抑或由 AI 來杜撰;指示繼續杜撰之後, AI 這次設定對象為男性;我詢問為何使用 he/his,AI 道歉後說明可以使用 they/their 作為中性/去性別指稱。
我以前在那家 AI 公司的時候,主要的工作是要協助設計一套介面給 marketers 使用,讓他們可以輸入很多市場操作的條件(例如說,為了顧客分群要設定好多層的正向或負向的交集與聯集的條件),讓 AI 系統能篩選輸出適合的名單。當時合作的 AI 工程師們,都是絕頂聰明的工程天才,但他們大多都缺乏了能夠同理吾輩平凡人智商運作的能力,更對 marketers 的思考模式與使用情境完全不熟悉,以致於他們輕易就把所有可設定條件都一口氣丟給 marketers,預設使用者都能清楚知道自己到底幹了些什麼。但是我經過幾場簡單的測試,就發現超過三四層以上的交集聯集正負邏輯關係,就已經很難被正常人充分理解並操作了。如果沒有為使用者的認知能力與使用情境設計適當的 UX,再強的 AI Re-Marketing System,也無法發揮戰力。
而這兩年來,生成式 AI 的普及,又是另一種的問題。原本這一代生成式 AI 很努力地嘗試採用自然語言溝通,希望能夠達成普世易用性;但是隨著功能越來越強大,人們希望能夠操控更複雜更精準的運算,卻發現自然語言很難做精準的控制,所以人們反過來去學 prompt engineering,把自然語言修改成不自然語言,來與 AI 做溝通。我就是想不通,要到什麼時候這群神經病天才工程師們才會放棄那種 command prompt 的傲慢,把可以做到的功能,開發出正常人可以精準使用的操控介面?
先別說 AI 什麼時候即將或已經超越人類的智能;就算我們再怎麼辯論說有哪些哪些能力 AI 還趕不上人類,以人類極其有限的注意力與短期記憶,就已經限制了運算的頻寬 / 瓶頸。我們就是需要一套能夠符合人類注意力 / 短期記憶限制的操作介面及流程,才有辦法去操作後面帶有幾乎無限大容量的 AI 系統。
所以 AI 需要好的 UX 設計,只是一句廢話。目前還沒有完整好用的使用經驗設計,只是因為市場性還沒有打開,應用層面還沒有確認,還只有少數菁英們真正在(自以為優秀地)使用。這點上也許可以好好期待生成式情色 AI 網站的進展,他們應該會是最早開發出符合正常人使用能力的服務提供者。
但是這裡需要再釐清一下:其實並不是「AI 需要好 UX」,而是我們普通人需要 UX 才比較能去使用更多 AI 的功能。AI 本身的運算能力,一直都在那裡,有足夠知識技能的人不需要囉唆的 UX 也能充分發揮戰力。而有更多重要而廣泛的 AI 應用,因為並不是為了讓普通人類來使用,所以並不需要 UX。硬是要想辦法把 UX design 套上去,只會阻礙或扭曲 AI 的功能發展。
所以階段結論是: AI 並不需要 UX;需要 UX 的是我們。
但是 User-Centered 是另外一回事。(在這裡我把 user 擴大解釋為我們的科技所服務的人類)
這幾年關於「AI 是否將毀滅人類」、「AI 即將取代工作」的集體焦慮,後面待解的問題不是 AI 的能力,不是人類的操作,也不是 AI 的 UX;而是人類對於 AI 強大的能力的疑懼,擔心 AI 是否能夠真正發揮在為人類造福、而非危害或阻礙。重點在於當有越來越多工作、任務、甚至決策,是由 AI 自動化執行的,我們不確定自己能在這些進程與改變中,扮演什麼角色;卻又不信任 AI 在執行的時候,是否永遠能把人類的福祉擺在最重要的優先考量。
(說來奇怪了,為什麼人類選擇信任川普、國民黨和柯文哲,卻懷疑 AI 會毀滅人類?)
換句話說,我們希望、期待、要求在 AI 系統之中要把 user-centered 擺在最核心的基本要求。科幻小說家如艾西莫夫早在現代 AI 出現之前,就已經規劃了三條四條基本原則,在描述這樣的 user-centered 理念。但是正常人類都知道,其他正常人類永遠會為了瘋狂卻正常的理由,打破這些原則。
所以 AI 真的需要更明確的 user-centered/ human-centered 的原則宣告及落實。不僅僅是為了排除人類對 AI 的疑慮,也是為了能夠排除其他人類愚蠢瘋狂的介入。
你問我能不能信任 AI ?我問你能不能信任人類?
分類:未分類|標籤:AI, UX|在〈User-centered vs. User experience, in the era of AI 〉中留言功能已關閉