作者:王姵文
人工智慧(AI)能幫人類處理許多繁瑣工作,而且在 AI 深度學習的快速發展下,AI 能做的事會越來越多、準確度也會越來越高,能應用的範圍也越來越廣,但也衍伸出了一些關於AI倫理的問題,所有的應用都是對人類有利的嗎?
AI取代人們的工作
技術進步時,我們首先要關注的是是工作保障,與最初的工業革命一樣,勞動力的大批量自動化讓工人感到恐懼,人工智慧(第四次工業革命),需要大量重複性高的工作漸漸被機器所取代,很多傳統的工作已經消失了,這也導致了人們的失業問題。
在僱傭和犯罪方面的偏見歧視
AI 倫理問題中最緊迫、討論最廣泛的問題之一是預測性分析系統中的偏見問題,如在僱傭或犯罪領域。曾經亞馬遜使用了 AI 驅動演算法,利用歷史數據篩選優秀的職位候選人時,成為了著名的一個僱傭偏見事件。因為之前的候選人選拔就存在性別偏見,所以演算法也傾向於選擇男性。
2019年 3 月,紐約警察局披露,他們開發了一種演算法機器學習軟體 Patternizr,該軟體 通過篩選警察數據來發現犯罪模式並將類似的犯罪聯繫起來。這款軟體已於 2016 年起開始使用,該軟體未用於強姦或兇殺案件,並且在搜索模式時排除了性別和種族等因素。
雖然這對於以前的演算法是向前邁出了一步,之前的演算法是在種族歧視的基礎上來預測犯罪和違規行為,但從歷史數據集中主動消除各種歧視並不是標準做法。這意味著這種受過訓練的歧視偏見,往好的一方面說就是一種冒犯和不便;往壞的一方面說就是一種對人身自由的侵犯和系統壓迫的催化劑。
誤傳和假新聞
另一個 AI 道德問題是偽造,通過使用 AI 將圖像、影片和音檔對原始媒體和音檔加工,改變他人原意,通常是帶有惡意意圖。深度偽造包含了臉部調換、聲音模仿、面部重演、嘴唇同步等等,與舊照片和影片編輯技術不同的是,深度偽造技術的發展目標就是讓沒有什麼技術能力的人也會輕鬆掌握其使用。
消費者隱私和安全
儘管政府制定了很多法規來保護消費者隱私(如歐盟數據隱私法 GDPR),但潛在威脅還是很巨大。
1.數據收集:大多數消費者設備,從手機到支持藍牙的燈泡,都會使用人工智慧來收集我們的個人數據,以便提供更好、更個性化的服務。如果用戶同意,並且數據收集也是透明的,那麼這種個性化是一個很好的功能。如果沒有達成一致或者達到透明,這種功能就會給用戶帶來不好的體驗。
2.識別和跟蹤:當我們把 iPhone 落在計程車上,或者將鑰匙落在沙發墊中間時,手機的追蹤應用會顯得很有用。但有些時候,比如想要隱藏行蹤的家暴倖存者,跟蹤個人訊息就顯得不安全。
3.語音和臉部辨識:與之前的功能一樣,在我的日常消費設備中,語音和臉部辨識功能是一個很方便的功能。比如,在iPhone上,用戶可以通過臉部辨識解鎖手機,而不是輸入密碼。
總結
科技的進步帶來了生活上的方便,但也需注意是否會因為不當使用,而正在對人類造成反噬的作用。