人工智障和AI藝術(shù)家的差距,更多是人工智能中“人”的差距。 在美國舉行的一場藝術(shù)博覽會中,Allen利用AI制圖工具Midjourney生成的《太空歌劇院》獲得數(shù)字藝術(shù)類別冠軍后,不少藝術(shù)家指責(zé)Allen使用AI生成作品是作弊。 事實上,這副作品并非是由AI軟件生成后,直接拿去參加比賽,中途作者還用Photoshop對作品進行了調(diào)色。 與冠軍作品《太空歌劇院》形成對比的,是網(wǎng)友在社交平臺貼出的自己通過AI關(guān)鍵詞“鮭魚回溯”生成的照片。 理想中成群結(jié)對的鮭魚結(jié)伴相游的照片并沒有出現(xiàn),取而代之的是一片片漂浮在水面上試圖游泳的的三文魚片。 同樣是AI制圖,一個拿了藝術(shù)大獎,一個被調(diào)侃人工智障。制作團隊在模型設(shè)計、數(shù)據(jù)選擇上的差異,包括用戶使用軟件時描述方式的不同,導(dǎo)致了最終不同的呈現(xiàn)效果。 這樣看來,AI背后的人,似乎比人工智能更為重要。 一、喂養(yǎng)AI人工智能應(yīng)用于某行業(yè)時,該行業(yè)的信息化程度應(yīng)處于高水平,事實上不同行業(yè)的信息化建設(shè)程度不盡相同,這也意味著,AI進場首先將面臨不同程度的信息化挑戰(zhàn)。 以醫(yī)療行業(yè)來說,雖然醫(yī)療數(shù)據(jù)已經(jīng)實現(xiàn)了數(shù)據(jù)化,但數(shù)據(jù)化程度不高,內(nèi)部系統(tǒng)分散,數(shù)據(jù)很難流通共享,而AI藥研需要醫(yī)療全過程的數(shù)據(jù)。 為了挖掘出數(shù)據(jù)的價值,需要專業(yè)人士借助中間系統(tǒng),將不同系統(tǒng)里的醫(yī)療信息進行統(tǒng)一,或者采用聯(lián)邦學(xué)習(xí)法進行處理。 完成信息系統(tǒng)的統(tǒng)一后,相關(guān)人員往往還需對信息本身進行二次處理。 有醫(yī)療行業(yè)人士對銀杏科技表示,有些醫(yī)生在錄入信息時,會使用到業(yè)內(nèi)人士才能明白的黑話,或者只記錄下關(guān)鍵詞。這些被省略的部分需要人工“翻譯”出來,經(jīng)過人工規(guī)范后的數(shù)據(jù)才能用于AI模型訓(xùn)練。 AI進行訓(xùn)練的語言通常較為規(guī)范,而人們?nèi)粘I畹恼Z言會更為通俗。為了讓AI在日常應(yīng)用中更有人情味,會有專門的工作人員對它們的語言進行“潤色”。 以智能語音為例,用戶在與智能語音對話時,往往會省略掉一些關(guān)鍵性修飾詞,默認智能語音明白。而用戶默認智能語音懂的這部分關(guān)鍵信息,就需要設(shè)計師“補”上去。 騰訊的車機系統(tǒng)在進入車載市場時曾遇到這樣一個小插曲。用戶要求語音助手播放《在路上》,但這既是一首歌曲名,也是一個電臺名稱。 面對這樣一詞多義的情況,正確的做法似乎是語音助手詢問用戶播放歌曲《在路上》還是電臺《在路上》。 在實際的使用過程中,出于客戶要求,設(shè)計者將歌曲版作為默認選項。而有的廠商在面對這樣的問題時,考慮到電臺版關(guān)注者并不多,而歌曲版近期大熱,會將播放歌曲《在路上》作為默認選項。 這一種排序的優(yōu)先級是人為對AI進行的一個程序設(shè)置,目的是增加用戶在使用過程中對人工智能的親切感,然而這樣的設(shè)定會讓想聽電臺版《在路上》的用戶對語音助手的好感度下降。 當(dāng)AI足夠智能化后,它可以根據(jù)用戶的喜好自動生成用戶喜好或者習(xí)慣的排序優(yōu)先級。 從數(shù)據(jù)收集、產(chǎn)品測試、再到正式投入使用,人們?nèi)虆⑴c,及時根據(jù)AI的反饋調(diào)整模型和數(shù)據(jù),確保在技術(shù)上達到理想效果。 從另一個角度講,到底是播放歌曲,還是電臺,這取決于平臺干預(yù),從而讓AI平臺們擁有了某種“權(quán)力”,它們可以根據(jù)好惡選擇。 二、教會AI“善良”人工智能的一大技能,是可以根據(jù)蛛絲馬跡找出人們試圖隱藏的信息,這能幫助福爾摩斯破案,也可能導(dǎo)致科技公司信息被泄密。 前幾年鬧得沸沸揚揚的亞馬遜智能音箱echo勸人自殺事件中,智能音箱只是從自己的數(shù)據(jù)庫中調(diào)取信息作為對用戶提問的回復(fù),它并不理解其中的含義,也無法共情這樣的答復(fù)會帶給用戶怎樣的情感傷害。 從技術(shù)的角度講,語音助手Alexa對用戶的提問做出了回答,答案也不智障(拋開人類立場不談),但人們無法在情感上接受這一回答,于是向亞馬遜提出了抗議。 echo的工程師解釋,Alexa很可能是從維基百科上下載了帶有惡意文件的文本,才做出這樣反人類的回答。 這就是為什么它會勸用戶自殺,它的數(shù)據(jù)源出現(xiàn)了污染。 “機器人通過這些有缺陷的神經(jīng)網(wǎng)絡(luò)模型,學(xué)習(xí)到了有毒的刻板印象。”佐治亞理工大學(xué)的博士后研究員安德魯·亨特表示。 本質(zhì)上,Alexa的錯誤言論是人類社會的偏激言論,通過人工智能傳遞回了人類社會。 也是因為考慮到這一點,即使是智能產(chǎn)品已經(jīng)在市場上成熟運行了一段時間,科技公司通常也會安排專門的人員,負責(zé)對產(chǎn)品的數(shù)據(jù)庫、模型進行監(jiān)測。 智能音箱數(shù)據(jù)被污染后,勸用戶自殺帶來的是可能發(fā)生的潛在傷害,而智能駕駛汽車的數(shù)據(jù)如果出現(xiàn)污染,帶來的傷害幾乎不可避免。 破壞者在系統(tǒng)中混入具有干擾性的數(shù)據(jù),從而影響車輛對客觀環(huán)境的判斷,干擾車輛的正常行駛,很可能導(dǎo)致車輛失控。 嚴重情況下,攻擊者甚至可以還原出系統(tǒng)的算法邏輯,對裝載同款系統(tǒng)的汽車進行無差別攻擊,給廠商帶去不可估量的損失。 人工智能已經(jīng)參與到互聯(lián)網(wǎng)內(nèi)容生產(chǎn)流通過程之中,抖音、快手的流量分發(fā),內(nèi)容審核,大部分都是交給人工智能完成。 機器負責(zé)第一遍信息篩選,根據(jù)以往數(shù)據(jù)對疑似違規(guī)的內(nèi)容進行攔截或標紅提示;之后再由審核人員對標紅信息進行核實。 為什么沒有辦法完全交給機器呢?一位抖音的審核人員對銀杏科技表示,機器是根據(jù)量化的指標做決定,比如一旦識別到“果體”畫面或相關(guān)的關(guān)鍵詞,就會自動攔截或作限流處理,但很多東西無法量化,比如意境、內(nèi)涵,機器尚無法對只能意會不能言傳的信息做出準確判斷?,F(xiàn)在不少擦邊視頻,畫面與文字都不含敏感詞,組合在一起卻是妥妥的性暗示,像這樣機器審核的漏網(wǎng)之魚就只能人工抓捕。 紀錄片《監(jiān)視資本主義:智能陷阱》中,兩撥人在算法推薦營造的繭房里將自身觀看到的信息奉為真理,并在算法的推薦下不斷強化這一信念,雙方的信仰差異逐漸演成暴力事件,而他們最初爭論的可能僅僅只是地球是圓是方。 一條具有傾向性的言論,一個投其所好的推薦機制,分開看都沒什么問題,湊上一起再加上時間的催化就演變成了一場暴力事件。哪一方都沒有責(zé)任,哪一方又好像都有責(zé)任。 相比前兩者,AI技術(shù)的外部性或許更需要科技公司注意。 三、AI不是萬靈藥邁過技術(shù)關(guān)卡,規(guī)避掉各類各類風(fēng)險后,乖乖為我們所用的AI就一定能為公司帶來更好的經(jīng)濟效益嗎?未必。 對于曲庫量高達七千萬的音樂平臺來說,要求音樂編輯聽完所有內(nèi)容后再進行作品推薦顯然不現(xiàn)實。 誠然,AI可以快速“聽”完所有音樂后,根據(jù)聽眾的審美偏好推薦相似風(fēng)格的小眾作品,從而提高整個曲庫的利用率,當(dāng)年蝦米音樂憑借獨特的算法邏輯在版權(quán)弱勢的情況下,依舊能與網(wǎng)易騰訊抗衡。 不過算法推薦也有弊端,不少用戶反應(yīng)推薦的音樂風(fēng)格過于單一,音樂平臺也嘗試改變算法的邏輯,在日推中加入風(fēng)格差異大的作品,以此緩解聽眾的審美疲勞。 即使是看似完全交給機器的算法推薦,背后依舊是按照人的意志來執(zhí)行。 機器推薦始終稍顯冰冷,這缺失的人情味便由用戶自發(fā)上傳的各類歌單補足。用戶自建的歌單歌曲的風(fēng)格連貫性不高,卻熱情飽滿,大家自發(fā)地收藏評論,用戶與用戶的距離、用戶與平臺的距離,也就由此拉近了。 出于整體的商業(yè)利益考慮,大部分內(nèi)容平臺都會采用AI和人工兩種推薦方式,取長補短。 內(nèi)容行業(yè)由于其文化上的特殊性,不能完全交給機器;而完全可以用AI代替,代替后效果更佳的工業(yè),不少公司依舊使用人工,部分原因在于使用AI后帶來的收益并不能覆蓋前期投入的成本。 一位從事傳統(tǒng)行業(yè)的從業(yè)者對銀杏科技表示:如果采用AI技術(shù),帶來了100萬的收益,卻讓成本增加了110萬,并且這個成本在三五年內(nèi)并不一定會下降,那么他傾向于保持現(xiàn)狀。如果成本與收益基本持平,但成本有望在三五年內(nèi)大幅下降,那么他會愿意嘗試。 除了成本問題,上述從業(yè)者還表示,希望能夠在確保公司數(shù)據(jù)絕對隱私、絕對安全的情況下進行AI模型訓(xùn)練,如果不能保證這一點,即使采用AI技術(shù)收益會更高,他也很可能不會采用AI技術(shù)。 事實上,該從業(yè)者擔(dān)心的數(shù)據(jù)安全、隱私泄露問題,即使是完全采用普通機器或者人工,擔(dān)憂的事情也可能發(fā)生。 他告訴銀杏科技,在他看來AI的信息泄露肯定比傳統(tǒng)技術(shù)信息泄露造成的影響大,并且,法律對于傳統(tǒng)技術(shù)中出現(xiàn)的泄密等問題是有明確的相關(guān)規(guī)定的,出現(xiàn)問題直接走法律程序。 而AI技術(shù)在這方面的法律規(guī)定還在制定當(dāng)中,他表示,自己還是更愿意在這些配套設(shè)施基本完善之后再考慮AI技術(shù)。 從技術(shù)本身、到技術(shù)與人類社會的磨合、再到AI真正給用戶帶來價值,這其中的每一個環(huán)節(jié)都需要人參與,人的角色從一線的勞動者變成指揮AI進行一線勞動的調(diào)控者。 人們利用數(shù)據(jù)和模型培養(yǎng)一個助手,如何引導(dǎo)這個助手以達到自己想要的市場效果,還在摸索階段。 作者:銀杏科技 來源公眾號:銀杏科技(ID:yinxingcj),帶給你最好的商業(yè)人物和故事。 本文由人人都是產(chǎn)品經(jīng)理合作媒體 @銀杏財經(jīng) 授權(quán)發(fā)布,未經(jīng)許可,禁止轉(zhuǎn)載。 題圖來自 Unsplash,基于 CC0 協(xié)議 該文觀點僅代表作者本人,人人都是產(chǎn)品經(jīng)理平臺僅提供信息存儲空間服務(wù)。 |