1. 創(chuàng)業(yè)頭條
  2. 前沿領域
  3. 人工智能
  4. 正文

聲音鑒黃師飽受摧殘,AI聲音鑒黃師為何沒幫上忙?

 2018-09-26 14:11  來源:A5專欄  我來投稿 撤稿糾錯

  阿里云優(yōu)惠券 先領券再下單

文|雷宇

來源|智能相對論(aixdlun)

人民對性的態(tài)度向來很奇怪,父母和長輩期待子女能無師自通,教育者三緘其口,最后少男少女通過其他渠道實現(xiàn)了對性的初級摸索,當然這個摸索過程就很曲折了,文字,圖片,視頻和音頻遍地開花,“學習資料”越來越方便傳播。

食也性也,但傳播色情內容卻有極大的負外部效應,懵懂少男少女極易受其蠱惑,鑒黃師的重要性可想而知。在蘋果商店的社交App中,有超過1/10的應用主打聲音社交功能,由此催生出了一個新興職業(yè)——聲音鑒黃師。聲音鑒黃師是一個讓身心飽受摧殘的職業(yè),一位女性聲音鑒黃師稱,“一個人平均一天需要鑒定4000條信息,24小時輪班監(jiān)控,各種葷段子、曖昧語音,有時(聽到)惡心想吐。”

聲音鑒黃師是一份不足以為外人道也的工作

由于這份工作實在是太過于枯燥,很多男生都受不了,因此聲音鑒黃師多為女性且離職率高。一般枯燥且重復率高的工作都是AI的拿手好戲,那么AI有沒有辦法實現(xiàn)聲音鑒黃呢?

聲音鑒黃之殤,AI難以克服雞尾酒效應

視頻,圖片和語音是色情內容常見的三種形式,多數(shù)公司的鑒黃都是立足于視頻和圖片,比如阿里的阿里綠網、騰訊的萬象優(yōu)圖等等。有人可能會疑問,這幾年科大訊飛、百度、騰訊等公司先后對外公布語音識別準確率均達到“97%”,那為什么在AI語音鑒黃上那么難?

這是因為社交平臺的語音環(huán)境十分復雜,機器很難從龐大雜亂的語音中揪出涉黃涉暴人員,而這就不得不提雞尾酒效應了。所謂雞尾酒效應是指,在雞尾酒會嘈雜的人群中,盡管周圍噪聲很大,兩人可以順利交談,你們似乎聽不到談話內容以外的各種噪音。這是因為我們的大腦對聲音都進行了某種程度的預判,然后才決定聽或不聽。

用特瑞斯曼的注意衰減理論來解釋就是,當人的聽覺注意集中于某一事物時,意識將一些無關聲音刺激排除在外,而無意識卻監(jiān)察外界的刺激,一旦一些特殊的刺激與己有關,就能立即引起注意的現(xiàn)象。

但是機器卻不具備這樣意識和無意識,因此難以實現(xiàn)在嘈雜環(huán)境下的語音識別,這樣看來AI語音鑒黃貌似已經走進了死胡同。

實際上,已有公司在解決雞尾酒效應上做出了努力。今年4 月,Google曾在博客上發(fā)文稱,谷歌研究人員開發(fā)出了一種深度學習系統(tǒng),可識別和分離出嘈雜環(huán)境中的個體聲音。

研究人員從YouTube上10萬段“講座和談話”視頻中提取了近2000小時的視頻片段,然后混合音頻與人工背景噪聲,創(chuàng)造“雞尾酒派對”。訓練技術人員將混合音頻進行拆分,谷歌的系統(tǒng)能夠分辨出哪個音頻源在給定的時間內屬于哪張人臉,并為每個揚聲器創(chuàng)建單獨的語音軌跡。

但Google的技術集中在視頻處理上,主要是對數(shù)段聲音的分離,而人工聲音鑒黃僅僅依靠聲音,有所不同。前不久,阿里AI語音反垃圾服務上線公測,它可以通過聲紋識別技術,識別語音中存在的涉黃、廣告等違規(guī)信息,不管是中日英俄等語言,還是東北,四川,廣東的方言,甚至連無意義的呻吟聲都可以輕松判別。

具體辦法是,對那些有語義的內容,系統(tǒng)先將語音識別轉成文字,然后再將這些文字跟文本反垃圾模型或關鍵詞庫比對,判斷是否涉黃,對那些無語義的聲音,通過聲紋也能識別出來。但有一點值得注意的是,在語音識別的過程中,識別是哪種語言比內容更難,機器翻譯也存在這樣的問題,因此還需要大量數(shù)據(jù)來進行訓練學習。

做好嘈雜環(huán)境的語音識別,難點是如何將雜音與人聲分離。但對于聲音鑒黃而言,一開始并不知道哪一個音源涉黃,很難說誰是噪音,這需要機器具有全局觀。而上面提到的技術,聲音分離或者將語音識別轉成文字都只是基本,由于尚未在語音復雜的環(huán)境下試驗過,因此這個結果嘛……退一萬步講,社交黑話也并不是那么好破譯的。

社交黑話難解,語音識別障礙重重

時代要拋棄你,它只會讓你看不懂,而我們也不能指望人工智能聽懂。

就像你爹媽當初看不懂你的那句簽名:”ァ亊實證明,鱤綪桱淂起fеηɡ雨,卻桱囨起平啖;伖綪桱淂起平啖,卻桱囨起fеηɡ雨。ヤ”(沒亂碼),新一代社交黑話崛起一般人也很難看懂,比如XSWL(笑死我了,相當于一連串哈哈哈),NSS(暖說說,指幫點贊評論轉發(fā)說說,增進感情),CQY(處Q友的縮寫,想在QQ上找朋友的意思)。

當然這也還算好的,無非就是縮寫。除了縮寫,還有一些只能強記的詞語。比如養(yǎng)火(互發(fā)消息三天出現(xiàn)小火花,互發(fā)消息超過三十天出現(xiàn)大火花,養(yǎng)火就是經常聯(lián)系的意思),歐洲(想要什么就得到什么的人)……

估計研究人員在錄入數(shù)據(jù)時就陣亡了,畢竟這玩意看上去也不算有章可循。值得注意的是,當人們在說話的時候,如果省略一兩個字不說,懂得的人自然也懂,但機器不一定能識別人們甚至為了混淆視聽,會多語夾雜,這就給機器識別增添了難度。

這種輸入標準的不統(tǒng)一,是導致語音識別錯誤率高的首要原因。我們常用的鼠標和鍵盤雖然看似簡單,但它具備統(tǒng)一的輸入標準和精準的視覺反饋這兩點,而這正是語音識別技術不具備的,也是困擾現(xiàn)階段AI鑒黃的一大挑戰(zhàn)。

毫不意外,現(xiàn)階段的聲音鑒黃師依然是以人為主。早在互聯(lián)網發(fā)展早期,黃色內容主要是圖片和文字,靠人工就可以凈化網絡環(huán)境的目的,但是隨著互聯(lián)網帶來的數(shù)據(jù)爆炸,人工已經遠遠不能勝任。

雖然聲音鑒黃以人為本,但這并不意味著AI鑒黃師沒有價值。它能在特定的場景實現(xiàn)鑒定也無疑算是一種進步,而現(xiàn)階段它所呈現(xiàn)的問題,也無疑是技術發(fā)展過程中難以避免的陣痛。

全球經濟學家和咨詢公司的主流研究課題,總少不了人工智能會引發(fā)的失業(yè)規(guī)模,但是中國的互聯(lián)網已經跑出了一條獨特的路線,因此針對中國的研究少之又少。聲音鑒黃師作為互聯(lián)網發(fā)展過程中的獨特產物,顯然會存在相當長一段時間,而現(xiàn)行的人工智能鑒黃也多為輔助人。

一句正確但無用的話是,可以想見未來AI鑒黃會占據(jù)主流,但這個未來應該以哪個時間節(jié)點為基準,誰也無法預料。

智能相對論(微信id:aixdlun):深挖人工智能這口井,評出咸淡,講出黑白,道出vb深淺。重點關注領域:AI+醫(yī)療、機器人、智能駕駛、AI+硬件、物聯(lián)網、AI+金融、AI+安全、AR/VR、開發(fā)者以及背后的芯片、算法、人機交互等。

申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!

相關文章

  • Figma股價熱情僅存1天,AI焦慮成關鍵隱憂?

    文/道哥美國設計軟件公司Figma近期在紐約證券交易所掛牌上市,首日即上演“狂飆”行情——發(fā)行價定每股33美元,開盤報價85美元,較發(fā)行價翻倍。首日收報115.50美元,較發(fā)行價大漲約250%,市值飆升至近670億美元,創(chuàng)下近30年來同等規(guī)模美股IPO的最大單日漲幅紀錄。然而,隨著短線資金獲利了結,

    標簽:
    ai智能
  • 人類首屆機器人運動會:跑歪了+撞人了+打哆嗦,但我卻看到了中國智造的未來

    8月16日,盧松松非常榮幸的成為了一名《2025世界人形機器人運動會》的觀眾。這是一場超酷的機器人運動會,也是人類給機器人辦的第一屆奧運會,來自16個國家的280支隊伍會參加500多個比賽項目??戳艘惶斓谋荣?,晚上就回來寫文章,編輯短視頻。先說感悟:(1)這是人類首次給機器人辦的第一屆運動會,史無前

    標簽:
    智能機器人
  • AI「帶飛」騰訊業(yè)績

    文/一燈來源/節(jié)點財經在當前無人敢缺席的AI軍備競賽中,巨頭們一面為巨額的資本支出焦慮,一面又向市場勾勒著未來的宏偉藍圖。在各家動輒千億級投入的背景下,市場迫切需要一份關于AI回報價值的有力證明。而騰訊,率先給出了答卷。8月13日,騰訊控股發(fā)布2025年第二季度財報。盡管資本開支同比劇增119%,達

    標簽:
    ai智能
    騰訊
  • Meta用億元薪酬發(fā)起「人才狙擊」能否買來一個AI未來?

    文/二風來源/節(jié)點財經2025年的硅谷,一場沒有硝煙的戰(zhàn)爭正以前所未有的烈度上演。這場戰(zhàn)爭的核心武器不是代碼或芯片,而是人——那些全球僅有數(shù)千名、能夠構建未來人工智能基礎模型的頂尖大腦。在這場激烈的人才爭奪戰(zhàn)中,Meta及其首席執(zhí)行官馬克·扎克伯格(MarkZuckerberg)正扮演著最具侵略性的

    標簽:
    ai智能
  • 騰訊AI夢:克制的雄心

    關乎14億用戶的深刻變化

    標簽:
    ai智能
  • 阿里媽媽、巨量引擎、騰訊廣告,誰是當代“AI印鈔機”?

    阿里媽媽、巨量引擎、騰訊廣告,誰是當代“AI印鈔機”?

編輯推薦