清研智庫:AI的創新迫切需要法律的規范

近年來,科技公司在推進人工智能(AI)方面取得了長足進步。根據經合組織的數據,60個國家的300多項政策和戰略舉措都在關注AI對社會、企業、政府和地球的影響。為了對這些實體進行監管,并幫助更好地制定規則,需要新的法律框架。

從廣義上講,AI分為兩類–廣義AI(旨在模仿人類智能)和狹義AI(應用于特定領域、定義的任務,如醫療診斷或汽車導航)。目前,大多數AI的發展都集中在狹義AI范疇。許多應用可能會匯聚成廣義AI,但現在技術上還不可行。比爾·蓋茨、埃隆·馬斯克和物理學家霍金等多位知名人士都對廣義AI的發展表示擔憂,因為廣義AI有可能超越人類,構成生存威脅。因此,AI的發展往往集中在狹義AI上。

狹義AI包括各種研究子集,如機器學習、自然語言處理、自動化、神經網絡和社交智能,幫助虛擬助手與用戶對話。然而,這些系統都是在無人監督的情況下通過代碼來執行和做出決策的。因此,描述這類程序更準確的術語是自動化或無監督決策系統。

AI算法和系統所做的決定是不可知的,是源于黑匣子中單獨的客觀智能。它可以幫助這些無監督的決策承擔更大的責任。但在使用這個定義時,還需要了解這些系統的無監督程度,并對它們進行分類。電商網站用于展示廣告的網絡決策與工廠車間管理自動化算法的復雜程度是不一樣的。自動化決策對二者的影響是截然不同的,對用戶的風險也不同。

隨著我們的進步,政府將在無監督決策系統中遇到更多棘手的道德問題。例如,在美國已經發生了幾起與自動駕駛汽車相關的事故和死亡事件。由于不是人而是算法在管理和駕駛這些汽車,因此出現了問責和責任問題。在車禍中,算法能否像人類一樣為自己的行為負責?在Uber的案例中,測試自動駕駛功能的操作者要對橫穿馬路行人的死亡負責,而不是作為公司的Uber。對算法的懲罰性行動會是怎樣的?現有的法律框架能否對其進行規范?

關于如何監管AI并追究其責任的辯論有很多。機器倫理學領域關注的是為AI添加道德行為,以確保它以人為本。機器倫理學還質疑可以賦予AI什么樣的權利,以及如何實現它。規范AI可能需要借鑒過去工業革命的經驗教訓,建立新的法律框架。如果目標是在AI中編碼人類的道德和價值觀,并最終賦予機器一些人權,那么或許值得深入研究公司法,為新框架尋找靈感。

在18世紀和20世紀,公司獲得了法人地位,現在被認為是法人,與個人享有同樣的權利和責任。與人類一樣,公司被允許擁有財產、舉債、起訴和被起訴、行使人權并對侵犯這些權利的行為負責,并被指控犯有欺詐和過失殺人等罪行。

公司的成立,是指一群人或公司為了一個目的而作為一個單一的實體行事。公司的人格與成立公司的個人是分開的。同樣,AI的發展也涉及到各種參與者,無論是資金還是其他方面??梢哉f,AI的人格是復合的,是獨立于個人出資者的,因此有理由賦予其法人資格。

借鑒公司法對新框架也有好處,因為它提供了注冊各種形式的無監督和自主決策系統的結構,如成立公司。這將有助于監測和評估這些系統的風險,以便更好地進行監管。

然而,鑒于該技術給人類帶來的潛在危險,構成公司的一個關鍵特征有限責任的概念,不應適用于新的AI框架。有限責任制鼓勵企業家精神,以幫助將大量資金用于實現經濟利益的目的,并保護股東免受外部風險。但批評者認為,它也促進了企業的不負責任和以進一步提高股東利潤的名義誤入歧途。多年來研究公司行為的法學教授Joel Bakan將公司的個性比作精神病患者,經常在促進自身利益(利潤)的同時,通過助長對環境的破壞和無視合法行為的社會規范來危害員工、客戶和廣大公眾。

AI框架應該比公司享有的有限責任有更高的標準。根據AI應用所承擔的風險,嚴格責任或絕對責任的原則,一個人對不可預見的活動的后果負有法律責任,即使沒有過錯或犯罪意圖,應適用于新框架。這種責任學說的應用有助于確保無監督決策系統的開發者采取負責任的行為,并在部署這些系統并與人類交互之前盡可能多地考慮到外部因素。

許多開發AI的科技公司已經大膽地公開呼吁負責任地使用AI,以維護人類的權利和價值。企業表示,他們正在聘請倫理學家設計道德準則,并建立審查委員會、審計跟蹤和培訓。然而,企業追求利潤最大化的目標迫使Palantir和Clearview AI等公司將其AI產品賣給國家和執法機構,踐踏了所有用戶的權利,忽視了對潛在濫用的深層擔憂。在這樣的環境下,迫切需要建立一個法律框架,迫使公司思考其開發的AI產品的后果,并就企業責任展開更廣泛的辯論。

作者SHASHIDHAR KJ,清研智庫李梓涵編譯

相關文章

聯系我們

010-57230548

郵件:info@tsingyanresearch.com

工作時間:周一至周五,9:00-18:00,節假日休息

QR code
日本av在线一区二区三区_日本av免费一区二区三区播放_日本aⅴ精品中文字幕