AI智能體產業發展須在法治軌道上行進
近年來,人工智慧技術迅猛發展,AI智能體作為新興應用形態,正逐步滲透至日常生活與商業場景,在提升效率、優化體驗的同時,也引發了數據安全、用戶隱私和市場競爭秩序等方面的諸多挑戰。
為深入探討AI智能體在發展過程中出現的新型不正當競爭問題,推動產業健康有序發展,中國工商出版社於2025年11月7日在北京組織召開“AI智能體不正當競爭治理”調研座談會。多位專家代表齊聚一堂,圍繞AI智能體的技術路徑、法律規制、執法實踐與合規治理等議題展開深入交流。
AI智能體能力與風險並存
北京郵電大學網路空間安全學院技術專家聶煜晴介紹,2025年被視為“AI智能體元年”,各類智能體正從對話工具演進為具備感知、理解、決策與執行能力的複雜系統。她分析指出,當前AI智能體實現跨App操作主要依賴三大技術路徑:無障礙服務、共用螢幕API以及定時截圖與OCR識別。儘管這些技術本身中立,但部分廠商為追求效率,在實際應用中採取侵入式路徑,濫用系統許可權,導致用戶隱私數據面臨“裸奔”風險,甚至影響第三方應用的正常運營。
聶煜晴表示,AI智能體與傳統外掛工具的本質區別在於其具備語義推理與自主操作能力,泛化性強,但也正因如此,其數據洩露、越權操作、注入攻擊等安全風險更為隱蔽和複雜。海外技術對讀屏、調取三方應用應更審慎、安全。她呼籲行業遵循“最小可用許可權”與“雙重授權”原則,推動技術走向透明、可控、合規。
對法律體系提出更高要求
在法律規制層面,與會專家普遍認為,AI智能體的快速發展對現有法律體系提出了更高要求。
北京理工大學智能科技法律研究中心研究員王磊指出,AI智能體在數據抓取、模型訓練、介面操作等環節易引發新型競爭糾紛。在AI模型結構及參數侵權和AI寫作工具進行虛假宣傳方面法院已經出現了典型案例。反不正當競爭法、著作權法和專利法相互補位可對AI進行規制,同時要避免將技術爭議簡單歸為商業道德問題,而應結合具體行為類型進行精細化分析。
對外經貿大學法學院教授許可將AI智能體相關法律問題歸納為三大類,即個人權益侵害、網路安全與國家安全風險,以及市場競爭秩序問題。他指出,AI智能體可能成為新的流量入口,甚至顛覆現有以App為核心的移動互聯網生態。終端廠商若利用硬體與系統底層優勢,捆綁推廣自研AI應用,構成搭售、自我優待、設置不合理交易條件等行為,未來可能觸及反壟斷紅線。而在不正當競爭領域,AI智能體未經相關經營者授權調用第三方App的行為,涉及強制獲取數據、破壞服務完整性,跳過廣告或用戶付費環節可能直接侵害第三方App的商業利益和用戶粘性。新修訂的反不正當競爭法第十三條第二款、第三款均可適用於規制此類行為。堅持用戶與第三方App雙重授權原則以及透明、公平的方式解決AI智能體這個問題,是可行的路徑。
須堅持“人工最終確認”原則
消費者權益與數據安全是不容突破的合規底線。中國社會科學院大學教授張嚴方從消費者權益保護角度發出警示。她指出,公安部門長期提醒公眾嚴防共用螢幕與遠程操控,而AI智能體卻行走於灰色地帶,AI智能體通過無障礙許可權等手段截取螢幕內容,已實質架空了通信秘密保護、數據安全管理、金融安全與用戶真實意願三大合規支柱,導致了App被“掏空”,消費者的知情權和意圖的真實性被架空,數據收集的最小必要原則被破壞。設備側自動化操作模擬用戶點擊、確認、支付等行為,不僅侵犯用戶知情權與選擇權,也可能導致金融交易的真實性審核機制失效,風險防控邏輯被“掏空”。
中國廣告協會副秘書長張德志結合具體場景分析指出,AI智能體在旅遊預訂、醫療保險等複雜消費流程中,若盲目追求效率而忽略安全確認環節,可能引發財產損失與法律糾紛。他強調,涉及生物識別、支付密碼等高敏感資訊時,必須堅持“人工最終確認”原則,守住安全底線。
包容審慎與依法監管並重
研討會上,來自市場監管部門的代表分享了執法層面的思考與經驗。
上海市市場監管局價監競爭處副處長黃偉豐指出,AI智能體產業的發展是人機交互演進的重要方向,未來甚至可能重塑終端形態,但AI智能體違背用戶意圖、篡改就是違法的,除非用戶給的指令本身是違法的。在競爭監管中,AI智能體在反不正當競爭法方向上應重點關注用戶選擇權與知情權是否被剝奪或扭曲,例如強制跳轉,亦或是為選擇設置障礙以及欺騙誤導用戶,確保交易過程透明、可追溯。他指出,反不正當競爭法的核心在於維護自主決策的市場機制,而非替代經營主體作出“更聰明”的選擇。
北京市市場監管局價監競爭處處長賈曉強表示,AI領域的不正當競爭行為往往是傳統行為的“智能化、規模化、隱蔽化”升級和放大。監管部門秉持包容審慎態度,但也需持續提升技術識別與取證能力,應對新型案件挑戰。他透露,北京已查處全國首例涉及AI模型服務的商業混淆案件,展現出對新興領域競爭秩序的關注與維護。
構建開放公平可信產業生態
面對AI智能體帶來的複雜挑戰,與會專家一致認為,單一主體或單一法律部門難以獨立解決所有問題,必須推動多方共治,構建開放、公平、可信的產業生態。
南方都市報數字經濟治理研究中心負責人李玲、《財經》雜誌副主編朱弢、21世紀經濟報導商業秩序工作室記者肖瀟等媒體代表從公眾視角出發,呼籲增強技術透明度、明確AI代理行為的法律定性、強化用戶風險提示。他們建議,行業應逐步摒棄過度依賴無障礙許可權等侵入式技術路徑,轉向基於標準介面、雲端協同的更安全模式。
北京市朝陽區律協科技創新與數字經濟研究會主任白小莉則從實務角度指出,終端廠商、應用開發者、AI服務提供者需厘清權責邊界。開發者應對AI智能體的行為承擔首要責任,通過合規的產品設計,確保技術應用不越界、不侵權。
本次研討會彙聚了多方智慧,清晰勾勒出AI智能體在創新與監管之間尋求平衡的發展路徑。與會專家表示,技術進步不可逆轉,但必須在法治軌道上行進。唯有堅持安全與發展並重,尊重用戶權益與市場競爭規則,方能引導AI智能體產業穿越迷霧,走向健康、可持續的未來。
(趙晨熙)