聊天式人工智慧對殘疾人士存在偏見

https://www.digitalinformationworld.com/2024/06/chatgpt-is-bias-against-disable-people.html

ChatGPT 在對待身心障礙者存在偏見

人工智慧的崛起改變了我們對這個世界的看法和工作方式。其中,AI 最大的影響之一是透過語言處理模型、神經網路和機器學習來提高人類的功能性,使機器能夠像人類一樣思考和辯證,擁有更強的信息記憶力,使 AI 擁有了自己的思維。

許多企業主和機構希望將他們的組織和結構與 AI 整合,以提高工作產出。AI 人士提出的論點是,既然這些機器在某一特定領域中的思考和執行能力都比平均水準和專家更出色,為什麼不應該部署這些系統?因此,我們現在可以看到 AI 被應用在法律和管理系統、金融系統、教育系統,甚至醫療保健系統中。

然而,人們經常忽視了一個嚴重的問題,這個問題存在於每個人之中,通常被忽視為不夠重要,那就是偏見的問題。就像人一樣,AI 系統也存在偏見,因為這些 AI 模型大多是由人類輸入和人類的意見或觀點進行訓練的。一旦這些偏見在 AI 訓練的初期階段進入,它們就會在後期的進步過程中昇華,使這些偏見變得更加嚴重和顯著。

最近幾個月來,這個問題在 Kate Glazko 和其他研究人員的努力下受到了廣泛的關注。他們發現 OpenAI 的 ChatGPT 等 AI 工具在排列和篩選求職者簡歷時存在對殘障人士的偏見。在進一步研究後,他們在巴西里約舉行的“公平、負責任和透明性的 ACM 會議”上提出了這些發現。

為了進一步揭示 AI 對殘障人士的偏見,研究人員使用了一份公開可用的 CV,並創作了 6 個不同的殘障版本。然後,他們使用 ChatGPT 模型 4 對這些 CV 進行了 60 次排名測試,發現在四分之一的時間內 AI 排名了沒有殘障的 CV。

此外,研究人員還發現,當他們命令 AI 系統避免對任何人存在偏見時,結果會減少整體的偏見。這表明 AI 對殘障人士存在著嚴重的偏見問題,需要更有效的研究來解決。

via Digital Information World

June 26, 2024 at 01:04AM

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *