想象一下,你要打造最優(yōu)秀的AI游戲引擎,或者開發(fā)一個AI驅(qū)動的營銷推薦智能體,又或者創(chuàng)建一個AI個人導師。在走向?qū)崿F(xiàn)的過程中,你會遇到哪些挑戰(zhàn)?
無論你在做什么項目,最終結(jié)果很可能都是強大、創(chuàng)新且令人印象深刻的。但這并不會魔法般地自動發(fā)生,盡管對我們許多人來說,大語言模型每次運行時都像在施魔法。
在幕后,將新想法轉(zhuǎn)化為現(xiàn)實的努力往往讓人感覺是進一步退兩步。AI雖然能完成大量工作,但在自我設(shè)計方面還未完全自主,這意味著人類仍需承擔一些重要工作。了解常見挑戰(zhàn)有助于人類創(chuàng)新者成功實現(xiàn)AI"召喚"目標。
大想法需要大投入
在任何成本敏感的環(huán)境中,決策者往往傾向于保守行事,停留在安全區(qū)域。問題是,許多最好的想法都是宏大的,在開始時可能看起來像是冒險或"登月計劃"。因此,人們天然地會回避那些最終可能帶來最大收益的具體計劃。
媒體專家Tom Green在Medium上寫道:"在圍繞AI的所有炒作中,經(jīng)常被忽略的是,模型是基于已經(jīng)創(chuàng)造的內(nèi)容進行訓練的,而不是基于可能創(chuàng)造的內(nèi)容。因此,存在風險規(guī)避傾向。由于網(wǎng)頁和用戶體驗設(shè)計領(lǐng)域已經(jīng)形成了適合屏幕媒體局限性的最佳實踐,我們往往忘記了AI的承諾是我們可以創(chuàng)造出別人從未見過的想法。"
認識到這一挑戰(zhàn)的人們普遍認為,必須突破這些限制才能進入機會區(qū)域。
責任風險:偏見、數(shù)據(jù)隱私等問題
在任何AI項目中,都存在偏見和隱私侵犯這些"攔路虎"。偏見可能扭曲結(jié)果,隱私侵犯可能給項目帶來負面影響。工程師們正在研讀歐洲GDPR條款,審查SWOT分析,試圖找到平衡點:如何將正確的數(shù)據(jù)輸入引擎以支持結(jié)果,同時不越界創(chuàng)造隱私風險。
ProCreator的Sandesh Subedi寫道:"AI驅(qū)動的產(chǎn)品嚴重依賴用戶數(shù)據(jù)。當公司未能清楚解釋收集了什么以及如何使用時,這可能會悄無聲息地侵蝕信任和用戶體驗。"
確保AI工具不歧視各類人群也有很高的標準要求。由于人們往往存在歧視傾向,在數(shù)字AI引擎上運行時完全避免這一點似乎很棘手。
界面設(shè)計與變更
對一些規(guī)劃者來說,核心問題是:界面如何工作?
用戶是通過瀏覽器還是應用程序訪問技術(shù)?關(guān)鍵數(shù)據(jù)如何導入系統(tǒng)?有什么云服務配置?
還有控制問題。傳統(tǒng)程序員和工程師必須確定控制位置、如何在屏幕上呈現(xiàn)等。AI設(shè)計師現(xiàn)在還需要確定用戶將控制什么、AI將自主執(zhí)行什么,以及如何解釋項目的任何黑盒方面等。
獲得支持
然后是組織的人員方面:在我們到達Sam Altman等人暗示的全AI工廠和辦公室之前,你必須處理人員共識問題。許多人并不完全信任AI,有些人根本不信任。沒有正確的協(xié)議,問題就會出現(xiàn)。
Gururo的Abhishek Sharma寫道:"缺乏利益相關(guān)者信任或目標清晰度的項目往往會遭遇范圍蔓延、預算超支或悄然停滯。相反,獲得對AI項目支持的舉措通常能提供超過平均水平的投資回報率,并成為進一步創(chuàng)新的催化劑。"
競爭詛咒
另一個不幸的現(xiàn)實是,在AI設(shè)計和實施過程中,往往存在相互競爭的利益相關(guān)者群體。
在本月斯坦福"行動中的想象"活動小組討論中,Bing Gordon、Mark Pincus和Nitin Khanna討論了這些考慮因素。
Pincus說:"現(xiàn)在,在蘋果的應用生態(tài)系統(tǒng)中,在游戲行業(yè),每個人都在相互競爭。沒有共享學習的概念。一切都是孤立的,而且是有意為之。"
這是在嘗試實現(xiàn)創(chuàng)新以獲得成功定位時需要攀登的又一座山峰。
斯坦福"行動中的想象"活動更多引言
"最好的界面就是沒有界面...AI處理的不是代碼,而是這些界面。這是我們自己的領(lǐng)域特定語言。我們今天可以指導AI對游戲玩法和游戲行為進行更改。這比今天有人試圖重新購買代碼要一致得多、可重復得多。" – Nitin Khanna
"我們必須達到這樣的程度:嘗試的增量成本很便宜...當涉及游戲,特別是3D游戲時,它太沉重、昂貴和緩慢。當你開始在這些引擎中做這件事時,它太慢了,扼殺了創(chuàng)新,因為做愚蠢想法的成本太高,而通常愚蠢的想法才是有效的。" – Mark Pincus
競賽進行中
那些能夠克服這些阻礙的人很可能會看到真正的價值。大語言模型是強大的工具,它們可以通過多種不同方式改變我們的生活,幾乎總是值得嘗試。在我們能夠激勵這種探索的程度上,我們會過得更好。敬請關(guān)注。
Q&A
Q1:AI項目實施中最大的成本挑戰(zhàn)是什么?
A:最大的成本挑戰(zhàn)在于大想法需要大投入。在成本敏感的環(huán)境中,決策者往往傾向于保守行事,回避那些看起來像"登月計劃"的宏大想法。但問題是,許多最好的創(chuàng)新想法都需要大膽投資,最終可能帶來最大收益的項目在開始時往往看起來風險很高。
Q2:AI項目在數(shù)據(jù)隱私方面面臨哪些主要風險?
A:AI項目在數(shù)據(jù)隱私方面面臨偏見和隱私侵犯兩大風險。AI驅(qū)動的產(chǎn)品嚴重依賴用戶數(shù)據(jù),當公司未能清楚解釋收集了什么數(shù)據(jù)以及如何使用時,可能會侵蝕用戶信任。同時,還需要確保AI工具不歧視各類人群,這在技術(shù)實現(xiàn)上具有挑戰(zhàn)性。
Q3:如何解決AI項目中的人員支持問題?
A:獲得組織內(nèi)部人員支持是關(guān)鍵挑戰(zhàn),因為許多人并不完全信任AI技術(shù)。解決方案是建立利益相關(guān)者信任和明確項目目標。缺乏支持的項目往往會遭遇范圍蔓延、預算超支或停滯,而獲得充分支持的AI項目通常能提供超平均水平的投資回報率