人人妻人人澡人人爽人人精品97,色狠狠色狠狠综合天天,国产一区二区三区在线播放,久久久久久AV无码免费网站

十年技術深耕細作

為您提供各行業互聯網私人定制開發解決方案

免費咨詢熱線15890197308
新聞資訊
把握先機贏得挑戰與世界同步
首頁 新聞中心 科技前沿

馬斯克聯名2000多AI專家誓言禁絕殺人機器人

來源:創世紀 發布時間:2018-07-19瀏覽:2470次

馬斯克聯名2000多AI專家誓言禁絕殺人機器人  文/新智元  AI與人類的命運,再一次因為自主武器而被推上了輿論風口。  周三,來自數百家公司的2000多名科學家,其中許多是機器人和人工智能領域的著名的研究人員和工程師,聯名簽署宣言,誓言絕不將他們的技能用于開發自主殺人機器。  這場宣誓行動由總部位于波士頓的非盈利組織未來生命研究所(FutureofLifeInstitute)發起,來自36個國家的多達160個人工智能相關的公司、覆蓋90個國家的2400名個人簽署了宣言,他們承諾:在世界上的任何一個國家,自主武器...

馬斯克聯名2000多AI專家誓言禁絕殺人機器人

  文/新智元

  AI與人類的命運,再一次因為自主武器而被推上了輿論風口。

  周三,來自數百家公司的2000多名科學家,其中許多是機器人和人工智能領域的著名的研究人員和工程師,聯名簽署宣言,誓言絕不將他們的技能用于開發自主殺人機器。

  這場宣誓行動由總部位于波士頓的非盈利組織未來生命研究所(Future of Life Institute)發起,來自36個國家的多達160個人工智能相關的公司、覆蓋90個國家的2400名個人簽署了宣言,他們承諾:

在世界上的任何一個國家,自主武器都對公民構成了“明顯而現實的危險”,他們“絕不參與自主武器的開發”。

  簽署者包括谷歌的頂級人工智能研究團隊DeepMind;歐洲人工智能協會;ClearPath Robotics/OTTO Motors;瑞典人工智能協會XPRIZE基金會;以及倫敦大學學院。

  簽署之一承諾的著名人士還包括頂尖的人工智能研究人員Demis Hassabis、Stuart Russell、Yoshua Bengio、Anca Dragan、Toby Walsh以及特斯拉和SpaceX的創始人伊隆·馬斯克。

  馬斯克、哈薩比斯等2000多人簽署宣言:決不允許殺人機器人出現!

  “人工智能(AI)將在軍事系統中扮演越來越重要的角色,公民、政策制定者和領導人都迫切需要區分AI可接受的用途和不可接受用途。”

  昨天的瑞典斯德哥爾摩,2000多名AI學者共同簽署《致命性自主武器宣言》成為會議國際人工智能聯合會議(IJCAI)上的一項重要議題,這也是學界史上最大規模針對“自主武器”的聯合簽名宣言。

  組織這次行動的生命未來研究所的聯合創始人、MIT教授邁克思·泰格馬克(Max Tegmark)7月18日在會上宣布了這項宣言。

泰格馬克教授

泰格馬克教授

  泰格馬克說:“我很高興看到人工智能的領軍人物從對話轉向行動,實施一項政治家們迄今未能實施的政策。人工智能有巨大的幫助世界的潛力——如果我們不能容忍其濫用,并致力于防止其濫用。自主殺人的AI武器就像生化武器一樣令人厭惡和不安,我們應該以對待生化武器的方式來處理自主武器。

  悉尼新南威爾士大學人工智能科學教授Walsh說:“我們不能把誰生和誰死的決定權交給機器。”因為致命性自主武器系統(lethal autonomous weapon systems),簡稱“LAWS”,“不具備這樣做的道德”。

  在IJCAI會議上,包括馬斯克、DeepMind三位創始人都簽署了《致命性自主武器宣言》,宣誓不參與致命性自主武器系統(LAWS)的開發、研制工作。

  而就在一年前,116名全球人工智能和機器人領域的專家(包括馬斯克和谷歌AI專家Mustafa Suleyman)發表聯名公開信,呼吁聯合國采取行動禁止“自主殺人機器”,稱其為“恐怖武器”。“留給我們做準備的時間不多了,”專家們警告說:“一旦這個潘多拉的盒子被打開,就很難再次關上。”

  美國政府在全球范圍內使用升級的軍用無人機后,工程師和科學家們警告說,自主機器很容易受到黑客的攻擊,它們可能被劫持,進而攻擊無辜的人群;并且,它們不可避免地很容易就會被惡意攻擊者獲得,或者惡意攻擊者能夠自己制造這類武器。

  為了演示在自主殺人無人機的威脅下的生活,生命未來研究所協助制作了一個名為“Slaughterbots”(《屠殺機器人》)的影片,視頻中的一個片段描繪了數千名大學生被殺人機器人屠殺的景象。這些學生在社交媒體上分享了一段揭露腐敗的視頻后,被不知名的“黑影人”盯上,機器通過面部識別系統識別學生的身份,進而實施屠殺。

  該視頻是由“制止殺人機器人運動”(Campaign to Stop Killer Robots)組織制作的,該組織是一個致力于禁止自主武器的國際聯盟,生命未來研究所是其中一員。

  以下是《致命性自主武器宣言》全文:

人工智能(AI)有望在軍事系統中發揮越來越大的作用。 公民、政策制定者和領導者有必要區分人工智能可接受和不可接受的適用范圍。

 

從這個角度來看,我們簽署者達成一致意見:永遠不應將人類生命的決定權委托給機器。“道德”是這個立場的一部分,我們不應該讓機器為那些應當受處罰的人做出生死決定。另一個強有力的觀點是:致命的自主武器,在沒有人為干預的情況下選擇和參與目標,將危及每個國家和個人的穩定。

 

眾多人工智能研究人員一致認為,若是通過致命的自主武器消除人類生命的風險或困難,它們可能成為一種暴力和壓迫的有力工具(尤其是在監視和數據系統相關聯時)。此外,致命的自主武器具有與核武器,化學武器和生物武器截然不同的特點,并且單一團體的單方面行動很容易因國際社會缺乏技術工具和全球治理體系而引發軍備競賽。防止發生這種軍備競賽應成為國家和全球安全的優先考慮事項。

 

我們聯名簽署人,呼吁各國政府和政府領導人共建一個擁有強大的國際規范、法規和反對致命自主武器法律的未來。 這些法律目前是沒有的,我們選擇保持高標準:我們既不參與也不支持致命自主武器的開發,制造,貿易往來或使用。 我們要求技術公司和組織以及領導者,政策制定者和其他個人加入我們的承諾。

  《致命性自主武器宣言》的簽署者將進一步敦促將于8月份就自主武器問題舉行會議的聯合國在各國之間達成一致承諾,促使各國禁止自主武器。

  未來生命研究所受到霍金、馬斯克支持,AI WORLD關注機器智能與人類未來

  發起這次宣言行動的未來生命研究所“身世顯赫”。

  2015年,研究所剛創立僅1年就收到了來自馬斯克1千萬美元的捐贈,并且得到了很多社會精英和著名組織的支持,包括偉大的物理學家霍金以及亞馬遜、谷歌、Facebook、微軟、IBM等企業,以及研發了AlphaGo的Deepmind公司。

  目前,該機構已經募集資金超過1億美元,匯聚了8000多位全世界頂級的人工智能專家,成功地讓 “人工智能安全性”研究迅速在全世界成為了一場轟轟烈烈的運動。

  在未來生命研究所關注的同時,AI帶來的改變正在前所有未地改變人類生活:Uber自動駕駛車禍致命事件告訴人們技術安全的重要性;谷歌千人抗議與軍方合作的項目讓人們思考AI應用的邊界;美國制裁中興事件讓國人意識到“缺芯”的現實和掌握自主技術的迫切,國與國之間在AI領域的競爭比任何時候都要激烈。

  凡此種種,都將對世界和中國的AI產業造成巨大而深遠的影響,在這個過程中間,我們的自研核心技術、基礎科研和原創理論將如何支撐產業健康發展?

  在這個時間點,我們迫切地期望聽到中國AI學術領袖和產業技術精英的聲音,同時,我們也需要發掘并鼓勵閃耀中國的AI創新。