這兩份報告(一份來自歐洲聯(lián)盟,另一份來自國際領(lǐng)先的專業(yè)工程機構(gòu)之一)產(chǎn)生的影響極大。工程師負責最終以滿足倫理原則和人類價值觀的方式實施人工智能,但只有決策者、監(jiān)管機構(gòu)和整個社會才能設定和實現(xiàn)這一目標。
基于公共磋商的結(jié)果,歐盟導則提出了實現(xiàn)可信任AI的七個必要條件(但還不夠),以及實現(xiàn)這些條件的方法和檢查這些條件的評估列表。
這些要求包括:
·人力機構(gòu)和監(jiān)督
·技術(shù)穩(wěn)健性和安全性
·隱私和數(shù)據(jù)治理
·透明度
·多樣化、非歧視和公平
·社會和環(huán)境福祉
·問責制
IEEE-EAD報告是國際范圍內(nèi)自下而上做出的真正努力,得益于全球各地數(shù)百名專家的合作。
它不僅提供了需求和原則列表,還提供了許多不同主題的深入背景。
IEEE-EAD在努力定義道德智能和自主技術(shù)的未來標準,確保人類福祉的優(yōu)先次序。
歐盟將在未來幾個月通過公開召集感興趣的人士試行其評估清單。
正如數(shù)學家和哲學家Norbert?Wiener在1960年所寫的:“我們最好確信,采用機器的目的是我們真正渴望的目的?!贝送?,我們需要確保制定保障,確保算法及其環(huán)境發(fā)展時目標保持不變。
確保道德目標一致,不僅意味著人們可以信任系統(tǒng)的設計結(jié)果,還涉及我們的設計方式、設計目的以及參與設計的人。這是幾代人的作品。這是一項不斷進取的工作。
顯然,錯誤不可避免,災難將會發(fā)生。我們需要從錯誤中吸取教訓,為了更好的結(jié)果不斷嘗試。
忽視我們的責任不是一種選擇。AI系統(tǒng)是由我們決定、設計、實現(xiàn)和使用的人工制品。我們對此負責。
當我們失敗時,我們有責任再次嘗試;當我們看到偏差時,我們有責任觀察和譴責;我們有責任被告知和告知,有責任重建和改善。
歐盟和IEEE提出的原則是政府、民間組織、私營企業(yè)、智庫和研究團體需遵循的多種原則中的最新一套原則。然而,關(guān)鍵并不在于檢查一個系統(tǒng)是否符合你最喜歡的原則清單。
這些原則不是勾選一次就忘記的清單或方框。這些原則是行動的方向。對AI智能系統(tǒng)來說,它們是行為準則,但最重要的是,對我們來說也是行為準則。
我們需要公平、非歧視、負責任、確保自己和他人的隱私并以社會和環(huán)境福祉為目標。道德準則是為我們制定的。人工智能系統(tǒng)必須遵守。
未來任重道遠。我們可以做到,也必須做到,我們負有責任。