找回密碼
 註冊
查看: 3907|回覆: 11

轉載:AI 23 條

[複製鏈接]
簽到
265
發表於 2017-2-5 20:47:21 | 顯示全部樓層 |閱讀模式

登入後,內容更豐富

您需要 登錄 才可以下載或查看,沒有賬號?註冊

×
AI即人工智慧能,當機器正逐年變得更加智慧,研究人員相信他們在未來幾十年內可以擁有人類智慧水平。 一旦他們達到這個程度,他們就可以開始改善自己,並創造其他智慧,甚至更強大的 AI變成超級智慧。

專家們警告說,人工智慧有可能「比核武器更危險」,而霍金在 2014 年 12 月說,人工智慧可能會終結人類。 但它也是雙刃劍。 AI 也可以幫助治癒癌症及減緩全球暖化。

剛剛在加州阿西羅瑪的 Beneficial AI 會議上全球 2000 多人,包括 844 名人工智慧和機器人領域的專家聯合簽署了 23 條 AI 發展原則,呼籲全世界的人工智慧領域在發展 AI 的同時嚴格遵守這些原則,共同保障人類未來的利益和安全。
AI23b.jpg

AI23a.jpg


這系列原則目前共 23 項,分為三大類:

1、科研問題

AI 研究的目標應該是「有益的智慧」。 它應該防止 AI 系統被駭客入侵。 它還應該解決「維護人類的資源和理想」。法律應該「跟上 AI 的步伐」,應該考慮人工智慧「價值觀」的問題。 此外,應該努力使研究人員和法律/政策制定者合作,並且應該「在 AI 的研究人員和開發人員之間培養整體的信任和尊重文化」。

2、倫理和價值觀

應根據原則以一種安全和透明的方式開發 AI。 自主系統應必須可以解釋它的行為。 創建 AI 系統的人必須對這些系統的使用方式承擔責任。 自主系統的設計應反映人類的價值觀。 人們應該有機會控制這些系統共享和使用數據的方式。AI 應該盡可能使更多多的人受益,並應該為人類做出貢獻,而不是僅僅得益於某些組織或個人。有的國家在競爭建立智慧的自主武器 ,這是很大的潛在危害,應該主動積極避免。

3、長期問題

我們不知道 AI 會有什麼能力,應該針對「災難或風險」提前規劃。

「人工智慧已經為世界各地的人們提供了日常使用的有益工具,」生命未來 (Future of Life) 網站上聲明,「它的持續發展,須以後文原則為指導,在未來幾十年甚至幾個世紀,為幫助人類更加強大。」



 樓主| 發表於 2017-2-5 20:55:54 | 顯示全部樓層
阿西羅瑪人工智慧 23 原則原文

科研問題

1. 研究目標:人工智慧研究的目標不是為了創造不受指揮的智慧,而是有益的智慧。

2. 研究經費:對人工智慧進行投資的同時,要保證有經費用於研究如何有益地使用人工智慧,研究包括電腦科學、經濟學、法律、倫理以及社會研究中的棘手問題,例如:

*如何使未來的人工智慧系統變得高度穩健,即系統會執行我們所想的而不會發生故障或被入侵?
*如何通過自動化提升人類繁榮程度,並同時確保大眾的資源和意志?
*如何升級我們的法制體系使其更公平高效,能夠跟得上人工智慧的發展速度,並且能控制人工智慧帶來的風險?
*人工智慧該與什麼樣的價值體系保持一致?它該有怎樣的法律和倫理地位?

3. 科學與政策的連結:在人工智慧研究員和政策制定者之間應該要有富有建設性的和健康的交流。

4. 科研文化:在人工智慧研究員和開發者中應該要培養起一種以合作、信任與透明為基礎的文化。

5. 避免不必要的競爭:人工智慧開發團隊之間應該積極合作,避免有人鑽空檔導致安全標準降低。
(由於這協議冇約束力,暗示開發員可能避開這23條規範,即係律師走ge法律罅 )
回覆 讚好 不讚 使用道具

舉報

 樓主| 發表於 2017-2-5 21:06:28 | 顯示全部樓層
倫理和價值

6. 安全性:人工智慧系統在它們整個的運轉週期內應該是安全可靠的,並且能在可應用的和可行的地方被驗證。

7. 失敗透明性:如果一個人工智慧系統造成了損害,那麼造成損害的原因要能被確定。

8. 審判透明性:任何自動系統參與的司法決策都應提供令人滿意的解釋,可被有能力的人類監管機構審核。

9. 負責:高級人工智慧系統的設計者和建造者,在道德影響上,是人工智慧使用、誤用和動作的利益相關者,並有責任和機會去塑造那些影響。

10. 價值觀一致:高度自主的人工智慧系統應該被設計,確保它們的目標和行為在整個運行過程與人類的價值觀一致。

11. 人類價值觀:人工智慧系統應該被設計和操作,以使其和人類尊嚴、權力、自由和文化多樣性的理想一致。

12. 個人隱私:人們應該擁有權力去瀏覽、管理和控制他們產生的數據,考慮到人工智慧系統有分析和使用那些數據的能力。

13. 自由和隱私:人工智慧在個人數據上的應用,必須不能不當剝奪人們真實或主觀的自由。

14. 分享利益:人工智慧科技應該惠及並賦權最大可能的多數人。

15. 共同繁榮:由人工智慧創造的經濟繁榮應該被廣泛地分享,惠及全人類。

16. 人類控制:人類應該來選擇如何委派人工智慧系統去完成人類選擇的目標。

17. 非顛覆:高級人工智慧被授予的權力應該尊重和改進健康的社會所依賴的社會和公民秩序,而不是顛覆。
(如果係真,刀幾難受控 )

18. 人工智慧裝備競賽:致命的自動化武器的裝備競賽應該被禁止。
(美軍已研製戰機可携數百隻小型人工智慧飛機 ,況且國家層面ge事又点會so你)
回覆 讚好 不讚 使用道具

舉報

 樓主| 發表於 2017-2-5 21:08:39 | 顯示全部樓層
更長期的問題

19. 能力警惕:我們應該避免關於未來人工智慧能力上限的假設,但這一點還沒有共識。

20. 重要性:高級人工智慧能夠代表地球生命歷史的一個重大變化,我們應該用相稱的警覺心和資源來管理。

21. 風險:人工智慧系統造成的風險,特別是災難性的或有關人類存亡的風險,必須能用相應的努力所管理和減輕。

22. 遞迴的自我提升:人工智慧系統被設計成能夠以一種可以快速提升品質和數量的方式進行自我升級或自我替代,但這種方式必須受制於嚴格的安全和控制標準。

23. 公共利益:超級智慧的開發是為了服務廣泛認可的倫理理想,並且是為了全人類的利益而不是一個國家和組織的利益。
回覆 讚好 不讚 使用道具

舉報

發表於 2017-2-6 06:15:54 | 顯示全部樓層
靠自律, 難了
回覆 讚好 不讚 使用道具

舉報

發表於 2017-2-8 23:07:29 | 顯示全部樓層
立例只能防君子, 不防小人。

總有別有用心的 設計者超越底線
回覆 讚好 不讚 使用道具

舉報

發表於 2017-2-25 15:09:25 | 顯示全部樓層
就算有2萬條rules都冇用protocol同FIREWALL rules一樣可以隨時改得⋯日後一個電腦病毒就改變晒所有AI既行為⋯人類就收左皮。
回覆 讚好 不讚 使用道具

舉報

發表於 2017-2-27 11:25:07 | 顯示全部樓層

這是很多人沒想到或沒想過的point.
AI 有如生物的gene, 會 mutate, 才能持續發展。
一個小小病毒, 就能trigger變異。
回覆 讚好 不讚 使用道具

舉報

發表於 2017-3-9 23:14:30 | 顯示全部樓層
其實係咪真係D人講到咁恐佈 定係睇電影睇上腦咋
回覆 讚好 不讚 使用道具

舉報

發表於 2017-3-10 17:29:13 | 顯示全部樓層
hon2468 發表於 2017-3-9 23:14
其實係咪真係D人講到咁恐佈 定係睇電影睇上腦咋

從電腦捉棋的發展看,
由輸俾人類到必勝人類,
人工智能確是隱患
回覆 讚好 不讚 使用道具

舉報

發表於 2017-3-12 10:14:16 | 顯示全部樓層
之前已經有 AI 贏 poker,鋤大D。
最近已經發展到 AI 抄股了
回覆 讚好 不讚 使用道具

舉報

發表於 2017-4-13 16:53:21 | 顯示全部樓層
AI发展还没有那么快。目前比较流行的AI算法都还是在穷举 和 运用模拟神经元的方式进行判别。 机器和人脑的神经有本质上的区别。 曾经有人说,人脑的神经元擅长储存和预测,而机器擅长计算。想让机器发展出人类的思维还有很长一截路要走。。
回覆 讚好 不讚 使用道具

舉報

您需要登錄後才可以回帖 登錄 | 註冊

本版積分規則

Archiver|聯絡我們|141華人社區

GMT+8, 2024-3-28 21:44

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回覆 返回頂部 返回列表