久久久18,天天躁夜夜躁狠狠躁婷婷,国产成人三级一区二区在线观看一,最近的2019中文字幕视频 ,最新免费av在线观看

a&s專業(yè)的自動化&安全生態(tài)服務(wù)平臺
公眾號
安全自動化

安全自動化

安防知識網(wǎng)

安防知識網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺
大安防供需平臺

大安防供需平臺

資訊頻道橫幅A1
首頁 > 資訊 > 正文

人工智能合成內(nèi)容新規(guī)落地 互聯(lián)網(wǎng)平臺紛紛響應(yīng)

  AI生成內(nèi)容不得“隱身”傳播  AI生成內(nèi)容不得“隱身”傳播。昨天,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《人工智能生成合成內(nèi)容標(biāo)識辦法》(以下簡稱《標(biāo)識辦法》)正式施行,所有AI生成的文字、圖片、視頻等內(nèi)容均須“亮明身份”。新規(guī)落地之際,多家互

  AI生成內(nèi)容不得“隱身”傳播

  AI生成內(nèi)容不得“隱身”傳播。昨天,國家網(wǎng)信辦等四部門聯(lián)合發(fā)布的《人工智能生成合成內(nèi)容標(biāo)識辦法》(以下簡稱《標(biāo)識辦法》)正式施行,所有AI生成的文字、圖片、視頻等內(nèi)容均須“亮明身份”。新規(guī)落地之際,多家互聯(lián)網(wǎng)平臺響應(yīng),相關(guān)用戶協(xié)議已修改升級,將嚴(yán)打?qū)I生成技術(shù)的濫用行為。

  各社交平臺更新用戶協(xié)議

  “AI‘假孫子’總算現(xiàn)原形了。”昨天,市民劉先生打開一家短視頻平臺,發(fā)現(xiàn)之前奶奶愛看的“萌娃”短視頻下面多了一行小字:“作者提示:內(nèi)容為AI技術(shù)制作,虛構(gòu)內(nèi)容請謹(jǐn)慎甄別”,“這下老人總該相信,這些一兩歲的孩子洗菜燒火都是假的了?!?/p>

  提示小字的上線,與《標(biāo)識辦法》密切相關(guān)。據(jù)規(guī)定,利用人工智能技術(shù)生成的文本、圖片、音頻、視頻、虛擬場景等信息,必須添加顯式和隱式兩種標(biāo)識。顯式標(biāo)識指可以被用戶明顯感知到的標(biāo)識,隱式標(biāo)識指在生成內(nèi)容的數(shù)據(jù)中添加的標(biāo)識。

  “哪些內(nèi)容是生成的”“內(nèi)容從哪里生成的”“誰生成的這些內(nèi)容”……《標(biāo)識辦法》明確了生成合成內(nèi)容制作傳播各主體的責(zé)任義務(wù)。比如服務(wù)提供者應(yīng)在內(nèi)容生成、傳播、下載等環(huán)節(jié)確保標(biāo)識完整;互聯(lián)網(wǎng)應(yīng)用程序分發(fā)平臺應(yīng)審核應(yīng)用是否具備添加標(biāo)識功能;個人用戶發(fā)布生成內(nèi)容時應(yīng)主動聲明。

  新規(guī)落地后,記者注意到,各社交媒體平臺相關(guān)用戶協(xié)議已有所更新。微信、視頻號、抖音、B站、微博、小紅書等平臺,要求內(nèi)容發(fā)布者以顯著方式主動標(biāo)識AI生成內(nèi)容。對于不主動標(biāo)識AI生成內(nèi)容的行為,部分平臺表示會采取限流、下架、封號等措施。同時,部分社交平臺表示,還將對可能是AI生成合成的內(nèi)容進(jìn)行相應(yīng)提示,以便用戶清晰識別。

  完善標(biāo)識防范AI以假亂真

  給AI生成合成內(nèi)容加上標(biāo)識,為何需要單獨(dú)出臺文件加以規(guī)制?據(jù)悉,標(biāo)識制度的獨(dú)特制度價值已經(jīng)成為國際共識。日前,美國、新加坡、歐盟、英國等國家和地區(qū)紛紛采取措施推進(jìn)生成式人工智能標(biāo)識制度的建立。

  “標(biāo)識制度的主要目標(biāo)是實(shí)現(xiàn)大規(guī)模、高可靠性和低成本的監(jiān)管。”中國科學(xué)院科技戰(zhàn)略咨詢研究院研究員肖尤丹表示,此次新規(guī)雖然切口小,但可以用較小的合規(guī)成本,較好地解決當(dāng)前AI技術(shù)快速發(fā)展帶來的新問題。標(biāo)識制度對利用AI技術(shù)抄襲、搬運(yùn)內(nèi)容的新媒體營銷號無疑是一次沉重打擊。同時,平臺方可以追溯到服務(wù)提供者,明確其是否履行了標(biāo)識義務(wù)。

  作為我國人工智能領(lǐng)域首部“辦法+強(qiáng)制性國家標(biāo)準(zhǔn)”的“組合拳”,配套的強(qiáng)制性國家標(biāo)準(zhǔn)《網(wǎng)絡(luò)安全技術(shù)人工智能生成合成內(nèi)容標(biāo)識方法》也于昨天同步施行。該標(biāo)準(zhǔn)針對人工智能生成合成標(biāo)識的技術(shù)實(shí)現(xiàn)方式給出了更加細(xì)致、精準(zhǔn)的指引,并配以具體的實(shí)現(xiàn)范例。例如視頻內(nèi)容顯式標(biāo)識要求,文字提示高度不低于畫面最短邊的5%,持續(xù)時間不少于2秒等。

  “這有助于相關(guān)行業(yè)各主體采取相應(yīng)的技術(shù)措施、全面準(zhǔn)確落實(shí)內(nèi)容標(biāo)識義務(wù),并實(shí)現(xiàn)標(biāo)識技術(shù)的標(biāo)準(zhǔn)化,提高互認(rèn)程度,降低由于標(biāo)準(zhǔn)不統(tǒng)一帶來的合規(guī)成本?!敝袊鐣茖W(xué)院大學(xué)互聯(lián)網(wǎng)法治研究中心主任劉曉春表示。

  整治AI濫用也需防誤傷

  AI生成內(nèi)容,已成當(dāng)下熱門內(nèi)容賽道,百度、B站、字節(jié)跳動、快手等,都曾針對生成式AI的創(chuàng)作者提供流量資源扶持、現(xiàn)金補(bǔ)貼等活動。與此同時,AI生成的違規(guī)內(nèi)容信息也紛至沓來,不少社交賬號利用AI技術(shù)造假、博眼球快速“吸粉”起號,批量制造虛假人設(shè),大量推送獵奇、養(yǎng)生、情感等內(nèi)容,并可通過引流帶貨、賬號轉(zhuǎn)賣等方式變現(xiàn)。

  針對這一新形勢,今年4月開始,中央網(wǎng)信辦開展了為期3個月的“清朗·整治AI技術(shù)濫用”專項(xiàng)行動,共攔截清理相關(guān)違法違規(guī)信息82萬余條,處置違規(guī)賬號1400余個,下線違規(guī)智能體2700余個。

  除了要求以顯著方式主動標(biāo)識AI生成內(nèi)容外,多個平臺也發(fā)布公告,重點(diǎn)整治AI生成濫用,其中,利用AI生成低俗獵奇視頻、AI生成虛擬外國幼兒教育專家教授育兒內(nèi)容、AI生成國際軍事虛假內(nèi)容等,正成為重點(diǎn)整治對象。

  值得注意的是,目前有網(wǎng)絡(luò)用戶表示,自己發(fā)布畫作、文章、視頻被“誤傷”,明明是原創(chuàng)內(nèi)容,卻被平臺誤判為“疑似AI合成”,面臨作品被限流、下架的問題。據(jù)悉,目前業(yè)內(nèi)在AI低質(zhì)內(nèi)容治理方面,占比九成以上的審核工作由機(jī)器來完成,機(jī)器審核準(zhǔn)確率難以達(dá)到100%,仍需人工不斷校準(zhǔn)。

  對此,業(yè)內(nèi)專家建議,未來平臺應(yīng)完善復(fù)核機(jī)制,建立便捷、有效的申訴渠道,如有條件,還可在算法識別基礎(chǔ)上引入專家評估機(jī)制,綜合判斷內(nèi)容是否為AI生成。


參與評論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評論區(qū)僅供其表達(dá)個人看法,并不表明a&s觀點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專業(yè)媒體平臺,自1994年品牌成立以來,一直專注于安全&自動化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動、展會等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號 粵公網(wǎng)安備 44030402000264號
用戶
反饋