我們在一片對18歲照片的花樣贊美中,迎來了又一個新年。
按說新年應該是開心的時候,但是剛剛跨年結束,抬頭一看居然要上班了!不由得悲從心來……所以今天我們打算說點不那么開心的事。
最近幾天,各種對2018年的科技預測層出不窮,其中對AI的暢想占了大頭,內容差不多是一片喜慶祥和。
但事有兩來,當我們開始從AI中收獲價值的時候,技術升級后帶來的潛在風險也在升溫。這就像汽車當然好過牛車,但汽車也會帶來各種各樣的交通事故。我們當然不能因此禁止汽車上路,但是也不能對交通問題視而不見。
今天我們來預測幾個,很可能在2018年進入我們眼簾的“人工智能負能量”。
畢竟做好準備,是解決問題的前提條件。
一、人工智能倫理問題開始出現個案
2017年1月,在加利福尼亞州阿西洛馬舉行的Beneficial Al會議上,近千名人工智能相關領域的專家,聯合簽署了著名的《阿西洛馬人工智能23條原則》。
隨后,各種關于人工智能倫理道德的討論、會議,以及相關協會和科技組織開始出現在公眾視野里。
《23條原則》的主要內容,就是呼吁人工智能不能損害人類的利益和安全,同時人工智能必須可以被人類控制,同時人類要盡量尊重人工智能和機器人的安全。
聽起來頗有點科幻的味道,但是在各行各業開始部署AI,尤其開始利用AI進行自動化決策的時候,人工智能的倫理與道德問題或許真的會浮出水面。
比如說,自動駕駛車輛在馬上要發生事故時,臺灣主機 臺灣伺服器,是優先保護路人還是乘客?假如AI診斷系統,給出的建議是安樂死,那么它算是殺人嗎?為了避免更大損失,AI系統是否能打破規則,自行其是?
這其中最著名的,大概就是去年谷歌批評上海交大某團隊進行的“看臉定罪犯”研究。引發了媒體對于AI價值觀的大量討論。
在各個產業場景開始使用AI技術時,隨之而來的邊界問題、責權問題、道德選擇問題這些在實驗室中不會出現的矛盾將很可能被引發。
人類還從未真正討論過這些。假如2018年人工智能的落地化足夠快,倫理問題的苗頭或許會臨近。
二、難以根治的的算法歧視
記得2016年,微軟推出過聊天機器人Tay,卻因為用戶教給它大量種族歧視和臟話,一天內就被暫時下線。這引出了一個極具爭議的話題:機器學習會吸收人類的知識和信息來塑造自己,那么假如它吸收的信息含有大量“不那么純良”的東西呢?
2017年,算法歧視問題非但沒有被解決,各種各樣新的問題還應運而生。比如谷歌大腦會給女性圖片打上很多關于家庭、弱勢的標簽,顯然有悖于女權主義精神;而把黑人識別為大猩猩,則點燃了AI種族歧視的話題關注度。
所謂的算法歧視,對于普通消費者來說,最有可能在內容推薦和電商推薦兩個地方感覺到。
比如說消費者剛看過寬大的衣服,電商就推薦減肥藥,很可能讓消費者聯想到算法在歧視自己胖;再比如打開今日頭條這類軟件的時候,大家可能都出現過這種情況:偶爾點了一個推薦來的獵奇或者偽色情內容,然后再一刷新。
好嘛,香港服務器 香港服務器租用,蜂擁而至的類似內容啊,你本來想看的興趣內容和專業內容瞬時間化為烏有。甚至你怎么點我不關心不喜歡,平臺還是給你推薦。這就是因為算法的歸類方式給你貼上了標簽。這種歧視感也蠻嚴重的,好像背后有個人奸笑著對你說:“承認吧,你就是這么低俗……”
這類問題的根源,是機器學習技術進行個性推薦,今天還必須建立在兩個邏輯的基礎上:以過去算將來,以群體算個體。算法會吸收以前有過的經驗來給你特定的某些東西,但很有可能歧視信息就包含在機器吸收的經驗里。
在個性推薦系統越來越多場景應用可能的今天,我們恐怕短期內還難以根治算法的歧視。
三、私人數據與機器學習的矛盾日益凸顯
人工智能和個人隱私,似乎從來都是一對天敵。
因為人工智能技術假如想要提供個性化、完全符合個人習慣的服務,那么就必然要學習和理解用戶本身。而這其中,就涉及對用戶私人數據的學習。
但出于隱私的考慮,以及對網絡安全的不信任,大部分用戶顯然是不希望透露自己數據給機器的。
從而“雞生蛋蛋生雞”的矛盾就產生了。