AI 的訓練資料來自于人類的語言,所以當然會帶有偏見,一點也不意外。
但是這位貼文作者所呈現或「證明」的,與其說是「AI果然有偏見」,不如說是因為這個實驗本身的設計,導致這樣的結果。
因為人類心理認知運作的原理,如果要用最快最省力的方式去瞭解或描述一個人、或一個族群的時候,我們會選取一個最簡單省力的方法、一個刻意放大語言文化中局部印象的敘述,而忽略時空脈絡與個體差異。這個就是我們常聽到的所謂刻板印象與族群偏見。
當你下了指令要求 AI 只能用一句簡單的話語去描述一個族群的時候,當然 AI 就會直接引用它學過的「刻板印象」描述。
所以這個實驗證明的不是「AI有偏見」,而是「如何用指令去操作AI呈現人類語言之中的偏見」。
這同時我們可以學到的是,未來如何避免 AI 像人類一樣容易被刻板印象與偏見所操弄:要清楚指示 AI 在操作運算這些針對不同族群的語言描述時,一定要把時空脈絡與個體差異納入考慮,而不應該隨便引用通用語言之中的刻板印象描述。