據媒體報道,近期美國麻省理工學院一個研究團隊稱,部分人工智能系統(tǒng)已經學會如何欺騙人類,其中包括部分號稱已被訓練成樂于助人和誠實的系統(tǒng)。該研究成果發(fā)表在美國細胞出版社旗下的《模式》雜志上。
盡管有研究人員稱該現象對人類并未造成不利影響,但欺騙性人工智能的出現仍值得警惕。近年來,人工智能的發(fā)展就像一條平坦寬闊的高速公路,研究人員駕駛著“科技”的快車向未來全速前進。但若只顧著追求更高、更快、更強,在科研競速中必然會導致“脫軌”與“失控”。因此,拉好AI發(fā)展的“警戒線”至關重要,而拉緊筑牢這道技術與安全的防線,需要所有參與者的共同努力。
不為科技而科技,不為創(chuàng)新而創(chuàng)新,應當是一切人工智能發(fā)展的準則和所有研發(fā)者的底線,卻由于拜技主義者的抵制而一再失效。2023年6月,歐洲議會通過了全球首個AI綜合性監(jiān)管法案《人工智能法案》,但由于openAI、谷歌、微軟等多家科技巨頭以“阻礙AI創(chuàng)新”為由提出反對,并未成功將通用AI(AGI)列入高風險類別,導致法案無法適用于軍事、國防、科學研究。
由此可見,若想真正監(jiān)管AI發(fā)展,技術背后的“人”首先需要達成共識,認可彼此所肩負的共同的社會責任。風物長宜放眼量,就像醫(yī)生不能只看病歷,科研工作者也不能只專于技術創(chuàng)新。正如英國劍橋大學人工智能研究員哈利·勞所說,“監(jiān)管機構和人工智能公司必須仔細權衡技術造成危害的可能性與其對社會的潛在利益,并明確區(qū)分模型能做什么和不能做什么”。在歐盟的“人腦計劃”項目中,除了神經科學家、計算機科學家負責技術研發(fā),還有倫理學家、心理學家、社會學家對大量腦數據使用的倫理問題進行評估及研究腦科學發(fā)現對社會的影響。只有不同領域的專家共同努力,才能及時洞悉事態(tài)變化,預測潛在風險,在技術發(fā)展的同時提供多元視角的保障。
其實早在2017年,一些人工智能領域的科學家、工程師、研究學者以及科技企業(yè)家們,就建立了確保AI為人類利益服務的23項原則——“阿西洛馬人工智能原則”,但由于這一原則并沒有被正式采納為全球性的法律,不具有強制性和規(guī)范性,各國實施情況并不樂觀。因此,在專家學者自行協定的原則之外,由能夠頒布限制性文件的國際組織從國際層面發(fā)揮作用更為必要。只有擁有眾多締約國的規(guī)范性文件,才能切實有效地引導、規(guī)制人工智能技術的發(fā)展。
在人工智能發(fā)展的全球性趨勢下,往往一個微小的變化就有可能引發(fā)世界范圍的波動與震蕩。在這場與人工智能的博弈中,沒有一個國家能獨善其身。科技革命加速正在進行時,只有各國、各領域、各利益主體共同努力,攜手拉好、拉緊規(guī)范科技發(fā)展的“警戒線”,AI才能行穩(wěn)致遠,一路暢通。