<input id="yqigw"><tt id="yqigw"></tt></input>
<nav id="yqigw"></nav>
  • 人工智能治理需用好“人工”

    2020-11-30 13:08:55 來源: 科技日報 作者: 王爍

    王 爍

    近日,人臉識別成為售樓處標配的新聞上了熱搜,將個人信息安全問題推上輿論的風口浪尖,乃至有人戲言要戴頭盔看房。隨著人工智能與生活深度融合,引導其有益于人類社會不僅要發展智能,更要用好“人工”。處理好人機關系,才能更好地享受人工智能的紅利。

    人工智能需要基于大數據學習,而數據庫建設難免涉及個人敏感信息;人工智能顛覆了網絡監管模式,但新的監管模式尚未形成;人工智能沖擊了感情倫理,但調適人工智能與人關系的倫理體系正待建立……凡此種種,使得公眾對人工智能態度復雜亦在情理之中。

    然而自動導航、智能制造、智慧城市等新形態正不斷滿足著人民對美好生活的向往,治理人工智能發展帶來的隱憂,不能靠因噎廢食式的“反科技”來達到目的,管理好應用好人工智能,又何嘗不是“人工”的另一層含義。

    治理人工智能需要與時俱進的法律。回顧歷史不難發現,適應時代的法律總是與科技進步相伴而生。伴隨著工業革命興起,英國頒布了世界上第一部專利法《壟斷法規》,被譽為“發明人權利的大憲章”。今天,適應我國人工智能領域發展新形式,《民法典》《網絡安全法》明文規定保護公民信息安全,《個人信息保護法(草案)》使保障公民個人信息有法可依,以及針對人工智能參與創作作品的法律實踐,正在給人工智能設定邊界,為實現人工智能健康有序發展提供保障。

    治理人工智能需要健全的倫理體系。正如曾經改變了世界的蒸汽機、發電機一樣,人工智能正在展現出顛覆性力量,只有處理好人機關系,才能更好享受人工智能紅利。作為人類智能的產物,人工智能需要以人的道德價值為行為依據。如果說阿西莫夫《基地三部曲》里提出的“機器人三原則”是從限制機器角度為人類發展撐起保護傘,我國出臺的《新一代人工智能治理原則——發展負責人的人工智能》則從人的角度指出了人工智能責任主體的共同性,這意味著技術研發者、管理者和使用者即需要共同遵守相關倫理,避免因人類自身的技術理性崇拜,將人工智能引向可能傷害人類的通用型超人工智能。

    或許不僅僅是人工智能,在未來的歷史進程中,科技越智慧,就越需要人治理的智慧。

    加載更多>>
    責任編輯:冷媚
    成年AV免费免播放器