【資料圖】

最新的消息是,當地時間3月29日,美國非營利組織未來生命研究所(Future of Life Institute)發布了一封名為“暫停巨型AI實驗”的公開信。上千名人工智能專家和行業高管在信中呼吁,所有人工智能實驗室應當暫停對更強大的人工智能系統的開發和訓練。至少,暫停半年。他們建議,如果不能迅速實施這種暫停,“政府應介入并實行暫停”。

人工智能對社會和人類的潛在風險,已經成為不少科技人士的共識,其中包括“人工智能教父”杰弗里·辛頓、特斯拉和推特CEO埃隆·馬斯克、圖靈獎得主約書亞·本希奧。為此,他們在這封公開信上簽下了自己的名字。

“只有當我們能夠確信,AI體系的有利因素都是積極的,且風險都可控,一個強大的AI體系才能成熟。”公開信中這樣寫道。

實際上,這不是未來生命研究所第一次公開呼吁對人工智能發展的警惕。2014年,這個組織在美國成立,成立的初衷一方面是促進對“未來樂觀圖景”的研究,一方面則是“降低人類面臨的現存風險”。而后者一直是其關注的重點。

2015年,物理學家斯蒂芬·霍金和埃隆·馬斯克等數位科學家、企業家,與人工智能領域有關的投資者,聯名發出了一封公開信,警告人們必須更多地注意人工智能的安全性及其社會效益。

那時,AI還沒有像今天這樣,呈現出令人不安的“智能”。但從那時候開始,馬斯克就已經表示,他堅信不受控制的人工智能“可能比核武器更危險”。

8年后,在愈來愈動蕩的經濟形勢中,新一封公開信的簽署者們提出疑問:“我們是否應該讓機器用宣傳和謊言充斥我們的信息渠道?我們是否應該自動化所有工作,包括令人滿意的工作?我們是否應該發展最終可能比我們更多、更聰明,淘汰并取代我們的非人類思維?我們應該冒險失去對我們文明的控制嗎?”

歐洲刑警組織3月27日也發出警告,ChatGPT等人工智能聊天機器人很可能被犯罪分子濫用:“大型語言模型檢測和重現語言模式的能力,不僅有助于網絡釣魚和在線欺詐,還可以用來冒充特定個人或群體的講話風格。”他們的創新實驗室已經組織了多次研討會,探討犯罪分子可能會怎么做,列出了潛在的有害使用方式。

這些簽署者希望,奔向危險的腳步能夠“暫停”,先共同開發出一套用于高級人工智能設計和開發的共享安全協議,并由獨立的外部專家進行嚴格審計和監督。AI開發人員也需要與政策制定者合作,開發強大的AI治理系統。

至少,建立專門負責AI的、有足夠準備和能力的監管機構。

中青報·中青網記者 張渺 來源:中國青年報

備案號:贛ICP備2022005379號
華網(http://www.b3q24.cn) 版權所有未經同意不得復制或鏡像

QQ:51985809郵箱:51985809@qq.com

主站蜘蛛池模板: 黄网页在线观看 | 99久久99久久 | 成人天堂视频在线观看软件 | 亚洲国产视频在线观看 | 免费精品久久久久久久一区二区 | 欧美区一| 精品国产91久久久久久久 | 福利三区| 宅男av| 四虎中文 | 久久久.com| 国产91在线观看 | 色天天综合 | 亚洲人成久久婷婷精品五码 | 福利免费视频 | 天天躁日日躁狠狠躁喷水软件 | 国产视频精品免费 | 一级黄色毛片子 | 狠狠撸在线| tai9国产一区二区 | 中文字幕在线看第二 | 在线视频区 | 国产孕妇孕交大片孕 | 国产精品视频在线免费观看 | 国产白拍 | 免费毛片电影 | 四虎成人精品永久免费av九九 | 欧美午夜精品久久久久久蜜 | 色网站在线 | 日韩在线成人 | 黄色毛片在线观看 | 一区二区三区在线看 | 夜夜春亚洲嫩草一区二区 | 欧美日韩一区二区精品 | 久色tv| 成人国产精品免费观看 | 特黄aaaaaaaaa毛片免 | 久草网av | 国产91在线高潮白浆在线观看 | 免费成人短视频 | 最新中文字幕一区 |