這個問題已經在世界各地的會議和社交聊天的討論表中浮出水面了-“機器可以打開人類嗎?”這個問題經常伴隨著《終結者》等電影的場景和視覺效果,但是我們所知道的和所看到的在大數據中使用AI的原因在于,在設計具有更復雜環境的更大規模的系統時,必須考慮某些不確定性和偏差。
機器“感覺”是什么?是什么使他們的行為方式不同于插入大型機的代碼?如今,艾薩克·阿西莫夫(Isaac Asimov)的三項法律在定義機器在復雜環境中的行為標準時是否仍然立于不敗之地?這些問題的答案在于我們選擇定義游戲規則以及機器如何應對突然變化的方式。
在人工智能研究中,道德偏見是不確定性的一個特殊區域,涉及小裝飾品和杠桿,這些小裝飾品和杠桿會拉動機器以有時看起來有些奇怪甚至有害的方式運行。隨著無人駕駛汽車的興起和AI驅動的生產方法逐漸占領世界,一個懸而未決的問題再次需要答案。我們如何處理這些機器?
您可能還會喜歡: AI可以自我警戒并減少偏見嗎?
偏向簡介
從數據角度來看,偏差和方差與測量值與實際值的接近程度有關。在這種情況下,方差是測量值彼此之間相差多少的度量,偏差是指測量值與實際值相差多少。在具有高精度的模型的高度特定的情況下,方差和偏差都將很小。
但是,這可能反映出該模型對新數據的執行效果有多差。然而,很難實現低偏差和方差,這是各地數據分析師的禍根。對于涉及簡單決策而用簡單的二進制計算還不夠的用例,偏差尤其難以處理。
您可能會想問偏見如何進入系統。而且,如果一臺機器無法在不低于人類的臨界點上做出決定,那么為什么要首先使用它們呢?要回答這些問題,您需要查看在大數據領域中如何構建模型的一般方法。
首先從執行器和傳感器中收集并清除數據,這些數據可為分析人員提供原始數據。這些值然后經過預處理步驟,在此將它們標準化,標準化或轉換為除去尺寸和單位的形式。一旦將數據轉換為合適的表格或逗號分隔格式,就將其插入到層或功能方程式網絡中。如果模型使用一系列隱藏層,請放心,它們將具有激活函數,該函數將在每個步驟中引入偏差。
但是,偏差也可以通過許多收集方法的陷阱進入系統。也許數據沒有針對某一組或某類輸出進行平衡,也許數據不完整/錯誤,或者可能沒有任何數據開始。
隨著數據集變得越來越多且記錄不完整,系統肯定有可能用一些預定義的值填補這些空白。這導致另一種假設偏見。
黑匣子難題
許多學者還認為,沒有適當的上下文,數字可能不會意味著同一件事。例如,在有爭議的《鐘形曲線》一書中,作者關于種族群體間智商差異的說法受到了環境約束和差異概念的挑戰。但是,如果一個人能夠達成這樣的解決方案,directadmin漢化,那么一臺機器要花多長時間才能消除這種邏輯上的判斷失誤?
機會很小。如果機器被送入錯誤或錯誤的數據,它將輸出錯誤的值。問題是由AI模型的構建模棱兩可引起的。這些通常是黑盒模型,作為數據接收器和數據源存在,而沒有解釋內部內容。對于用戶而言,不能質疑或質疑這種黑匣子模型如何得出結果。此外,結果差異還需要解決其他問題。
由于缺乏對黑匣子運作方式的了解,即使使用相同的輸入,分析師也可能得出不同的結果。對于精度不是關鍵因素的值,這種變化可能不會產生太大的影響,但是數據領域卻很少那么慷慨。
例如,如果AI系統無法預測高度特定的參數(例如pH值,溫度或大氣壓),則工業制造商將蒙受損失。但是,當目標是解決諸如貸款兼容性,犯罪再犯甚至適用于大學錄取等問題的答案時,AI缺乏清晰的價值將處于不利地位。但是,AI愛好者有責任從另一個角度解決這個問題。
必須解決層之間干擾的方法和規則,以解釋每一行代碼和系數所代表的含義。因此必須將黑匣子連根拔起并解剖,以了解是什么使機器滴答作響,這說起來容易做起來難。即使看一下最簡單的神經網絡AI,也足以表明此類系統的原始性。節點和層全部堆疊在一起,各個權重與其他層的權重相互作用。
對于訓練有素的人來說,這看起來像是一筆宏偉的交易,但是對于理解機器卻幾乎沒有解釋。難道僅僅是由于人類和機器語言水平的差異?是否可以采用一種外行可以理解的格式來分解機器語言的邏輯?
偏見的類型