亚洲男人天堂免费大片av手机看片, free性中国hd乡下page1, 68日本xxxxxxxxx202, 欧美日韩2020卡二卡三卡四乱码,亚洲AⅤ高清DH在线,91亚洲人成在线观看,熟女色偷偷2019免费视频,黑人把我弄的高潮不断,丝袜在线一区二区三区视频

江蘇網(wǎng)信網(wǎng) > 網(wǎng)信動(dòng)態(tài) > 輿情快報(bào) > 正文
當(dāng)“李逵”遇上“AI李鬼”——如何在創(chuàng)新與規(guī)制之間尋找平衡
2025-11-17 14:00:00  來(lái)源:新華每日電訊

  同一時(shí)間,同一個(gè)人,身著不同服裝,“現(xiàn)身”不同的直播間推廣產(chǎn)品,動(dòng)作神態(tài)與本人高度相似。這是媒體11月上旬報(bào)道演員溫崢嶸遭遇“AI盜播”的場(chǎng)景?!叭绻闶菧貚槑V,那我是誰(shuí)?”她前去質(zhì)問(wèn),卻被直播賬號(hào)拉黑。這個(gè)案例讓公眾意識(shí)到:人工智能也可能成為造假的“放大器”。

  事實(shí)上,這并非孤例。不久前,央視主持人李梓萌的AI形象被用于開(kāi)展與事實(shí)不符的營(yíng)銷(xiāo)宣傳,北京市場(chǎng)監(jiān)管部門(mén)就此開(kāi)出了全國(guó)首張“AI虛假?gòu)V告案”罰單。這起“首案”的意義,不在于罰款數(shù)字,而在于揭開(kāi)了一個(gè)快速擴(kuò)張的灰色地帶——?jiǎng)?chuàng)新與濫用之間的界線(xiàn),需要被重新劃定。

  從“李逵打李鬼”到“眼見(jiàn)不為實(shí)”,AI在釋放巨大創(chuàng)新紅利的同時(shí),也讓“信任”這一社會(huì)基石遭遇前所未有的考驗(yàn)。法律、監(jiān)管與平臺(tái)規(guī)則,都必須回答同一個(gè)問(wèn)題:當(dāng)“真?zhèn)巍苯缦薇凰惴:?,如何為真?shí)負(fù)責(zé)?

  本期議事廳,新華每日電訊智庫(kù)研究與傳播中心邀請(qǐng)來(lái)自法學(xué)界與平臺(tái)方的嘉賓,共同探討“AI換臉廣告”的法律邊界與治理邏輯,試圖在多方視角的交鋒中,尋找創(chuàng)新與規(guī)制、效率與安全之間的平衡之道。

   【本期嘉賓】

  張凌寒 中國(guó)政法大學(xué)數(shù)據(jù)法治研究院教授

  趙精武 北京航空航天大學(xué)法學(xué)院副教授

  李 旻 上海漢盛律師事務(wù)所高級(jí)合伙人

  盧寧寧 化名,短視頻平臺(tái)員工

   【主持人】

  薛 園 新華每日電訊記者

   強(qiáng)制標(biāo)識(shí)為何難阻“AI李鬼”?

  主持人:這次AI盜播事件,公眾最大的困惑是:國(guó)家互聯(lián)網(wǎng)信息辦公室、工業(yè)和信息化部、公安部、國(guó)家廣播電視總局聯(lián)合發(fā)布的《人工智能生成合成內(nèi)容標(biāo)識(shí)辦法》9月1日起即實(shí)施,明確要求AI生成內(nèi)容必須“亮明身份”。但在現(xiàn)實(shí)中,“AI李鬼”的現(xiàn)象為何仍時(shí)有出現(xiàn)?

  趙精武:強(qiáng)制標(biāo)識(shí)制度確實(shí)被寄予了很高的期望,但它并不是“萬(wàn)能鑰匙”。它只是AI治理體系中的一個(gè)環(huán)節(jié)。大部分國(guó)內(nèi)合規(guī)的AI服務(wù)商其實(shí)都在執(zhí)行標(biāo)識(shí)要求,真正的問(wèn)題在于那些“繞路者”——他們利用境外生成工具,或在私下自行搭建系統(tǒng)生成內(nèi)容,從而逃避平臺(tái)監(jiān)管,不受標(biāo)識(shí)機(jī)制約束。

  所以,標(biāo)識(shí)制度在本質(zhì)上解決的是“可識(shí)別的合規(guī)源頭”,卻難以擋住“不可追蹤的灰色源頭”。如果沒(méi)有全鏈條的治理,僅靠顯式或隱式標(biāo)識(shí),很難真正構(gòu)筑信任屏障。

  主持人:趙教授點(diǎn)出了標(biāo)識(shí)制度的“規(guī)避”難題。李律師,您長(zhǎng)期處理一線(xiàn)案件,從法律執(zhí)行角度看,標(biāo)識(shí)制度落地難,是否還有其他原因?

  李旻:原因主要有三個(gè)方面。首先是AI技術(shù)的特性讓監(jiān)管和溯源難度指數(shù)級(jí)上升。不法商家花幾十塊錢(qián)、幾分鐘就能生成“名人帶貨”視頻,再用多個(gè)賬號(hào)在不同平臺(tái)反復(fù)發(fā)布。它不僅傳播快,還能通過(guò)鏡像翻轉(zhuǎn)、畫(huà)中畫(huà)遮擋等方式,規(guī)避標(biāo)識(shí)要求。

  第二是平臺(tái)自身監(jiān)管的技術(shù)和機(jī)制存在局限。AI仿冒的形式每天都在變化。現(xiàn)在大多數(shù)平臺(tái)都是事后處理——等用戶(hù)投訴、等算法匹配,再下架內(nèi)容。這個(gè)速度遠(yuǎn)遠(yuǎn)追不上AI造假的速度。

  最后一個(gè),也是目前最棘手的:維權(quán)成本太高,違法成本太低。被仿冒的知名人士要請(qǐng)律師、公證、鑒定,維權(quán)周期長(zhǎng)、花費(fèi)高,而判賠金額往往不夠支付成本。侵權(quán)者換個(gè)號(hào)就能“滿(mǎn)血復(fù)活”,這對(duì)違法者幾乎沒(méi)有威懾力。

  主持人:技術(shù)規(guī)避、平臺(tái)滯后、維權(quán)成本高。盧寧寧女士,從平臺(tái)方來(lái)看,是否真的像外界認(rèn)知的那樣“被動(dòng)”和“滯后”?

  盧寧寧:這不僅是技術(shù)挑戰(zhàn),更是信任危機(jī)。濫用AI技術(shù)能力惡意博取流量以及營(yíng)銷(xiāo)牟利行為,一直是我們平臺(tái)抵制的不良之風(fēng)。

  平臺(tái)持續(xù)強(qiáng)化顯性與隱性AI水印的識(shí)別檢測(cè)體系,研發(fā)人臉深度偽造識(shí)別模型,并對(duì)仿冒類(lèi)作品進(jìn)行聚類(lèi)分析與算法封堵。今年以來(lái),我所在的平臺(tái)已累計(jì)清理涉濫用AI技術(shù)的仿冒名人視頻十萬(wàn)余條,處置違規(guī)賬號(hào)1400多個(gè)。我們清楚,AI的挑戰(zhàn)必須用AI去應(yīng)對(duì)。平臺(tái)治理的目標(biāo)不只是“封掉”違規(guī)視頻,而是讓技術(shù)防線(xiàn)比造假速度更快一步。

   “避風(fēng)港”還是“紅旗”:平臺(tái)責(zé)任的邊界

  主持人:剛才我們提到,AI仿冒帶來(lái)的問(wèn)題,已經(jīng)從“能不能發(fā)現(xiàn)”走向“該誰(shuí)負(fù)責(zé)”。僅一家平臺(tái)就攔截了十萬(wàn)余條違規(guī)視頻,這個(gè)數(shù)字不小,但公眾依然感到——AI造假似乎“野火燒不盡”。這背后的爭(zhēng)議非?,F(xiàn)實(shí):平臺(tái)到底只需要秉持“避風(fēng)港原則”在接到舉報(bào)后下架內(nèi)容,完成事后補(bǔ)救,還是堅(jiān)持“紅旗原則”,即在風(fēng)險(xiǎn)出現(xiàn)之前,就利用技術(shù)提前識(shí)別、提前阻斷??jī)煞N角色,對(duì)平臺(tái)的責(zé)任劃線(xiàn)完全不同,也直接影響治理效果。

  李旻:“通知—?jiǎng)h除”機(jī)制是法律規(guī)定的最低標(biāo)準(zhǔn),它的核心邏輯是被動(dòng)響應(yīng)。但隨著AI識(shí)別和溯源技術(shù)的成熟,“技術(shù)不能”的理由越來(lái)越難成立。

  如果平臺(tái)在技術(shù)上已經(jīng)能夠識(shí)別、篩查,卻沒(méi)有采取必要手段,就可能被認(rèn)定為未盡到“合理注意義務(wù)”。尤其是當(dāng)平臺(tái)不僅僅是存儲(chǔ)空間,而是參與算法推薦、內(nèi)容分發(fā)的時(shí)候,它必須承擔(dān)更多義務(wù)。

  在我看來(lái),平臺(tái)的責(zé)任不應(yīng)只停留在“等別人提醒”,而是要前置管理、主動(dòng)防范——從被動(dòng)的“避風(fēng)港”走向積極的“安全舵手”。

  主持人:我們注意到,在實(shí)踐中判斷侵權(quán)并不總是非黑即白。比如,如果AI生成的不是溫崢嶸本人,而是一個(gè)她的“酷似者”,平臺(tái)又該如何界定?

  李旻:這個(gè)問(wèn)題確實(shí)很現(xiàn)實(shí)。我的觀(guān)點(diǎn)是——只要具備“可識(shí)別性”,就可能構(gòu)成侵權(quán)。

  民法典判斷肖像權(quán)的關(guān)鍵不在于是否“復(fù)刻”了本人,而在于能否指向某個(gè)特定自然人。所謂“可識(shí)別性”,不僅包括五官相似,還包括聲紋、體態(tài)、妝造、場(chǎng)景風(fēng)格等綜合特征。只要這些特征組合在一起,能讓公眾誤以為是某個(gè)人,那就已經(jīng)跨過(guò)了侵權(quán)的紅線(xiàn)。換句話(huà)說(shuō),不是“長(zhǎng)得像”才算,而是讓人“以為你是”,就算。

  主持人:李律師強(qiáng)調(diào)了“前置義務(wù)”。趙教授長(zhǎng)期研究數(shù)字治理,請(qǐng)問(wèn)這一問(wèn)題能否從技術(shù)上根治?

  趙精武:數(shù)字水印是把“真相寫(xiě)進(jìn)比特流”的可行路徑。問(wèn)題是,有些平臺(tái)總以“技術(shù)難、成本高”為由拖延落實(shí),這和早年一些網(wǎng)絡(luò)平臺(tái)面對(duì)違法信息審核時(shí)的態(tài)度如出一轍。從法律角度看,標(biāo)識(shí)辦法已明確平臺(tái)的標(biāo)識(shí)義務(wù)。未來(lái),監(jiān)管完全可以通過(guò)立法或行業(yè)標(biāo)準(zhǔn),強(qiáng)制關(guān)鍵平臺(tái)在生成環(huán)節(jié)嵌入可追溯標(biāo)識(shí)。

  張凌寒:我同意。內(nèi)容生成環(huán)節(jié)的“可追溯”是關(guān)鍵。在高風(fēng)險(xiǎn)場(chǎng)景,必須以強(qiáng)制性標(biāo)準(zhǔn)明確“應(yīng)當(dāng)做到”的底線(xiàn)。治理要講技術(shù)現(xiàn)實(shí),也要講合規(guī)結(jié)果。

  主持人:這也意味著平臺(tái)的責(zé)任更重了——要在真假難辨之間判斷“誤認(rèn)”的風(fēng)險(xiǎn)。平臺(tái)在治理中,是否也會(huì)處理這類(lèi)“酷似者”問(wèn)題?

  盧寧寧:這類(lèi)灰區(qū)是治理中最棘手的部分。我們的做法是:以場(chǎng)景和意圖為判斷標(biāo)準(zhǔn)。如果AI生成內(nèi)容帶有誤導(dǎo)性,比如假冒名人推銷(xiāo)商品,或以虛假身份帶貨,我們會(huì)納入AI濫用治理范疇處理。

  與此同時(shí),我們發(fā)現(xiàn)另一種類(lèi)似問(wèn)題——“虛假人設(shè)”。一些賬號(hào)包裝成“情感導(dǎo)師”“教育專(zhuān)家”,通過(guò)制造焦慮來(lái)帶貨賣(mài)課。這其實(shí)與“酷似名人”的問(wèn)題類(lèi)似,都是利用虛假身份攫取信任。我們采用“AI審核+人工復(fù)審”的雙重機(jī)制,對(duì)此類(lèi)賬號(hào)分級(jí)處罰,多次違規(guī)的直接封禁。在平臺(tái)治理中,我們希望把重點(diǎn)放在“誤導(dǎo)性”而非“相似性”上,讓邊界既有彈性,也有底線(xiàn)。

  主持人:張凌寒教授,您長(zhǎng)期研究治理體系,您認(rèn)為在“避風(fēng)港”和“紅旗”之間,是否存在一個(gè)兼顧創(chuàng)新與責(zé)任的平衡點(diǎn)?

  張凌寒:我不贊成把平臺(tái)責(zé)任問(wèn)題理解成“要么放任、要么封殺”的二選一。AI治理更合理的方向是“包容審慎、分類(lèi)分級(jí)”。

  對(duì)于已經(jīng)造成明顯社會(huì)危害、且技術(shù)上可識(shí)別的高風(fēng)險(xiǎn)應(yīng)用——比如無(wú)標(biāo)識(shí)的名人仿冒帶貨——必須明確紅線(xiàn)并嚴(yán)格執(zhí)行,包括顯著標(biāo)識(shí)義務(wù)、可追溯機(jī)制、誤導(dǎo)禁止、跨平臺(tái)聯(lián)合懲戒。而對(duì)低風(fēng)險(xiǎn)、公共利益導(dǎo)向的創(chuàng)新場(chǎng)景,則應(yīng)當(dāng)動(dòng)態(tài)評(píng)估、滾動(dòng)調(diào)整。

  我常說(shuō)一句話(huà):“以可控?fù)Q可用”——通過(guò)可驗(yàn)證的技術(shù)手段與可執(zhí)行的制度安排,換取有益創(chuàng)新的自由。法律的目標(biāo)不是讓技術(shù)止步,而是讓創(chuàng)新行穩(wěn)致遠(yuǎn)。

   從“九龍治水”到“協(xié)同共治”

  主持人:張教授,“風(fēng)險(xiǎn)分級(jí)”的思路確實(shí)具有可操作性。但現(xiàn)實(shí)中還有一個(gè)問(wèn)題——像這次AI造假事件,其實(shí)同時(shí)涉及廣告監(jiān)管、內(nèi)容管理,以及對(duì)涉嫌欺詐行為的查處。市場(chǎng)監(jiān)管部門(mén)管廣告,網(wǎng)信部門(mén)管內(nèi)容,公安部門(mén)負(fù)責(zé)處理涉嫌詐騙的線(xiàn)索。我們現(xiàn)在這種分散的管理格局,在應(yīng)對(duì)這類(lèi)新型問(wèn)題時(shí),會(huì)不會(huì)遇到挑戰(zhàn)?

  張凌寒:是的,這種分散格局確實(shí)會(huì)產(chǎn)生執(zhí)法空隙與責(zé)任推諉。解決思路不在于簡(jiǎn)單合并機(jī)構(gòu),而在于把系統(tǒng)性治理落到機(jī)制上。

  短期看,要有高效的跨部門(mén)協(xié)調(diào)機(jī)制與執(zhí)法標(biāo)準(zhǔn)互認(rèn)。比如網(wǎng)信管內(nèi)容生成、市場(chǎng)監(jiān)管管廣告經(jīng)營(yíng)者責(zé)任、公安針對(duì)詐騙鏈條,要形成閉環(huán)與聯(lián)動(dòng)處置。長(zhǎng)期看,則必須通過(guò)更高位階的人工智能立法,明確“誰(shuí)主責(zé)、何時(shí)介入、如何銜接”的總則性規(guī)范,補(bǔ)齊碎片化與缺乏統(tǒng)籌的制度短板。

  主持人:在國(guó)家層面的人工智能法規(guī)出臺(tái)之前,我們看到北京、上海等地在積極推動(dòng)地方立法。李律師,您如何看待“地方先行”?

  李旻:地方立法完全可以成為國(guó)家AI治理的“壓力測(cè)試場(chǎng)”。北京、上海、深圳都在探索AI管理?xiàng)l例,比如建立AI產(chǎn)品清單、審查機(jī)制等。這些實(shí)踐能讓國(guó)家立法更具操作性,避免停留在原則層面。地方立法先行,可以及時(shí)回應(yīng)風(fēng)險(xiǎn),也能為國(guó)家立法積累樣本,降低制度設(shè)計(jì)的試錯(cuò)成本。

  張凌寒:我支持地方“先行先試”。地方試點(diǎn)可以把真實(shí)問(wèn)題“暴露出來(lái)”,為中央層面的頂層設(shè)計(jì)提供可驗(yàn)證的樣本。關(guān)鍵是把反饋鏈條打通:地方明確場(chǎng)景、評(píng)估風(fēng)險(xiǎn),中央在此基礎(chǔ)上做比例原則審查,提升規(guī)則的通用性。

  主持人:“共治”除了部門(mén)協(xié)同,是否也包括社會(huì)參與?當(dāng)公眾面對(duì)真假難辨的AI內(nèi)容時(shí),他們是被動(dòng)的“受害者”,還是積極的“共治者”?

  趙精武:“AI識(shí)讀力”不僅是識(shí)別能力,更是一種理性使用AI的社會(huì)能力。我們需要讓公眾知道,AI生成內(nèi)容本身不是天然有害,有害的是對(duì)這一技術(shù)的濫用。比如AI換臉用于自?shī)首詷?lè)沒(méi)問(wèn)題,但用來(lái)虛假帶貨就觸及了違法邊界。因此,AI識(shí)讀教育有必要納入學(xué)校教育體系,而且也需要通過(guò)媒體傳播持續(xù)向公眾普及。

  張凌寒:這是一個(gè)很好的提煉。標(biāo)識(shí)制度是“他律”,識(shí)讀力是“自律”。教育與媒體傳播應(yīng)當(dāng)同步發(fā)力。同時(shí),倫理機(jī)制在制度未完善時(shí)也要發(fā)揮“先導(dǎo)約束”。例如“AI復(fù)活逝者”,取得近親屬明示同意是最低標(biāo)準(zhǔn);未經(jīng)同意的“復(fù)活”,涉及人格尊嚴(yán),則不應(yīng)以“技術(shù)可能”替代“正當(dāng)性”。

  主持人:當(dāng)然,這種“協(xié)同共治”也離不開(kāi)平臺(tái)。平臺(tái)在整個(gè)治理體系中扮演什么角色?

  盧寧寧:我們認(rèn)為“治理”不是單向管理,而是監(jiān)管部門(mén)、平臺(tái)、用戶(hù)和社會(huì)的共治。我們正在探索如何在用戶(hù)端強(qiáng)化“AI識(shí)別提示”,讓公眾在面對(duì)可能的AI生成內(nèi)容時(shí)能更容易做出判斷。未來(lái)平臺(tái)會(huì)繼續(xù)用更高的標(biāo)準(zhǔn)、更精準(zhǔn)的技術(shù)、更開(kāi)放的態(tài)度,切斷“有害信息的利益鏈條”,守護(hù)網(wǎng)絡(luò)空間的真實(shí)與清朗。

  主持人:感謝四位嘉賓的精彩分享。今天這場(chǎng)討論讓我們?cè)俅握J(rèn)識(shí)到,AI技術(shù)疊浪前行,法律、倫理與監(jiān)管也應(yīng)及時(shí)有效跟進(jìn),這確實(shí)給治理帶來(lái)現(xiàn)實(shí)挑戰(zhàn)。

  當(dāng)真實(shí)需要被證明,信任本身就已成為社會(huì)的成本。未來(lái)的AI治理,必須在一張有機(jī)的網(wǎng)絡(luò)中運(yùn)轉(zhuǎn)——法律給出方向,平臺(tái)承擔(dān)責(zé)任,技術(shù)守住底線(xiàn),公眾學(xué)會(huì)識(shí)別與共治。

  AI越來(lái)越聰明的時(shí)代,更應(yīng)是制度有溫度,技術(shù)有邊界,公眾有判斷的時(shí)代。

編輯:王迅
版權(quán)所有:中共江蘇省委網(wǎng)絡(luò)安全和信息化委員會(huì)辦公室
備案號(hào):蘇ICP備20035922號(hào)
技術(shù)支持:中國(guó)江蘇網(wǎng)