久久天天躁狠狠躁夜夜AV,中文字幕不卡高清视频在线,欧洲一码在线观看,久久精品欧美一区二区三区麻豆

公司新聞 展會活動 熱門資訊
當前位置:首頁 > 新聞中心 > 熱門資訊

管控措施相繼發(fā)布,AI是否已經(jīng)觸及“邊界”

發(fā)布時間:2020-03-02
分享:


科技是把雙刃劍,當人工智能技術(shù)大規(guī)模應用于社會時,我們必須考慮它所帶來的負面效果。身處文明社會當中,大眾除了道德限制還有法律對自身行為進行約束,但開發(fā)者進行應用開發(fā)時,是否考慮到“喂”給機器的數(shù)據(jù)是否符合“法規(guī)”。特別是近年來人機交互的數(shù)量急劇增加,從而使得AI監(jiān)管問題的討論變得更為熱烈。


感官的欺騙


視覺與聽覺是我們對外界感知的重要窗口,大眾的觀念中普遍認為“人的第一印象很重要”“眼見為實,耳聽為虛”。但面對信息錯綜復雜的世界,如今眼見也不一定為實,聽到的則可能更為虛假。曾經(jīng)被議論的Deepfake換臉技術(shù)就屬于罪魁禍首之一,其利用了AI深度學習功能,通過數(shù)以億計的自我學習、神經(jīng)網(wǎng)絡(luò)訓練。AI能夠識別出畫面中那些和周圍場景格格不入的部分,同時將其移走和生成缺失的像素,最后重繪出部分像素進行畫面填補。谷歌公司也曾推出WaveNet軟件,可以利用其神經(jīng)網(wǎng)絡(luò)系統(tǒng)對原始音頻波形進行建模,生成帶有不同語氣音節(jié)和情感表達的人類自然語言的音頻。外媒曾報道過一例案件,不法分子就利用了類似的AI技術(shù),成功模仿了英國某能源公司CEO的聲音,詐騙了220,000歐元,執(zhí)法當局認為此種類案件的調(diào)查取證更為困難。




AI道德準則

2019年,我國首次將AI造假音視頻列入法規(guī),國家網(wǎng)信辦出臺《網(wǎng)絡(luò)音視頻信息服務(wù)管理規(guī)定》。對于利用基于深度學習、虛擬現(xiàn)實等新技術(shù)新應用制作、發(fā)布、傳播非真實音視頻信息的網(wǎng)絡(luò)音視頻:應當以顯著方式予以標識,不得利用其制作、發(fā)布、傳播虛假新聞信息;網(wǎng)絡(luò)音視頻信息服務(wù)提供者應當部署應用違法違規(guī)音視頻以及非真實音視頻鑒別技術(shù),應當建立健全辟謠機制。日前,歐盟也相繼出臺《人工智能白皮書》,對人工智能領(lǐng)域的投資監(jiān)管路徑設(shè)立雙重目標,旨在推動道德和可信賴人工智能的發(fā)展。并通過建設(shè)“卓越生態(tài)系統(tǒng)”和“信任生態(tài)系統(tǒng)”雙重系統(tǒng),構(gòu)建一個卓越的、可信賴的人工智能體系框架。


近日,面對人工智能的倫理 “紅線”,博世在“博世互聯(lián)世界大會”上發(fā)布人工智能技術(shù)的指導方針《AI道德準則》。博世認為人工智能是服務(wù)于人類的工具,任何可能對人造成影響的人工智能決策都需要人類的監(jiān)管。準則中包含了三種機制,它們遵守著一個共同的原則,即博世開發(fā)的人工智能產(chǎn)品中,人類必須保留對人工智能所做決策的最終控制權(quán)。第一種機制為人工控制(human-in-command),它適用于人工智能只作為支持工具出現(xiàn)的情況。例如,在決策支持系統(tǒng)中,人工智能幫助人們對物體或生物進行分類。第二種機制為使用階段的人為干預(human-in-the-loop),適用于人工智能系統(tǒng)可以自主決策,但人類可以隨時干預的情況。例如,駕駛輔助系統(tǒng),駛員可以直接介入停車輔助系統(tǒng)的決策等。 第三種機制為設(shè)計階段的人為干預(human-on-the-loop),適用于緊急制動系統(tǒng)等應用。開發(fā)此類智能產(chǎn)品時,專家將定義參數(shù)作為人工智能決策的基礎(chǔ),而人類不參與決策,由人工智能進行。但是工程師可以隨時追溯檢查機器是否遵守所設(shè)定的參數(shù)進行決策,必要情況下可以修改參數(shù)。


面臨的困難


人工智能在應用層面有逐漸完善的法律法規(guī)進行約束,但在實際的技術(shù)開發(fā)中仍面臨著許多難以確定的細則。數(shù)據(jù)標定沒有統(tǒng)一標準:在機器學習中訓練數(shù)據(jù)前都會對數(shù)據(jù)進行清洗和標定。有時為了滿足業(yè)務(wù)進度的要求,不會進行全量全分類的處理。準確的說,無法對數(shù)據(jù)進行嚴格而準確的分類。這也是有監(jiān)督學習類算法的缺點,就是針對特殊業(yè)務(wù)往往要進行專門的數(shù)據(jù)標定,同時算法設(shè)計者自身存在價值偏見也會導致人工智能系統(tǒng)無法正常運行。數(shù)據(jù)分析難全面:在準備訓練數(shù)據(jù)時應容納各類情況的發(fā)生,AI在數(shù)據(jù)錯誤的情況勢必會造成BUG,除了掌握各類情況,仍要調(diào)整好處理各種情況的參數(shù)或系數(shù),包括算法模型存在的技術(shù)性缺陷都將導致人工智能系統(tǒng)無法正常運行。模型成長環(huán)境差異:AI算法模型的訓練環(huán)境對算法結(jié)果有重大影響,假設(shè)機器訓練環(huán)境變得沒有邊界,各類數(shù)據(jù)都被機器學習,這將很難保證機器會往著人類預想的方向發(fā)展,以及因為算法日趨“黑箱化”可能導致技術(shù)失控等問題。無論在技術(shù)或應用方向,都應該通過政策和法律引導,開展人工智能算法安全的評估檢測;推動技術(shù)倫理的算法導入。要求人工智能開發(fā)者設(shè)計高可解釋性的智能系統(tǒng);同時,加強智能算法的透明監(jiān)督,人工智能企業(yè)、行業(yè)應建立相應的算法監(jiān)管體制,保持與政府監(jiān)管的協(xié)同。


文章來源:OFweek人工智能


相關(guān)文章