智譜清言、Kimi上榜 AI為何頻頻偷吃?
文/朱天宇 美編/柳晴雪 出品/網界
5月20日,國家網絡與信息安全信息通報中心的一則通告,將智譜清言、Kimi等一些熱門的AI應用推上風口浪尖。
這些曾被資本追捧、用戶量動輒千萬的明星產品,因“超范圍收集個人信息”“數據與業(yè)務功能脫節(jié)”等問題,成為監(jiān)管利劍下的典型樣本。
諷刺的是,就在一個月前,Kimi的運營方月之暗面剛因“技術突破”登上熱搜,而智譜清言背后的公司正緊鑼密鼓籌備IPO。
這場風暴撕開了AI行業(yè)光鮮表皮下的隱秘角落——當技術狂奔時,隱私保護的紅線正在被資本、數據饑渴和監(jiān)管滯后三重力量反復拉扯。
01AI頻頻偷吃用戶隱私
本次被通報的35款應用中,AI類產品占比超過三分之一。
其中,智譜清言(版本2.9.6)因收集用戶信息“越界”被通報,其月活用戶達906萬月之暗面旗下的Kimi(版本2.0.8)則因收集數據與聊天功能無關遭處罰,而這款應用坐擁2499萬月活用戶。
除智譜清言和Kimi外,本次被通報的AI類產品還包括“智慧AI聊天”(版本1.4.0)、“虛擬戀愛AI”、“AI智能秘書”等,他們被指在配置文件中聲明的一些權限,與移動應用的所有業(yè)務功能均沒有直接關聯(lián)。
這些案例暴露出AI行業(yè)的深層矛盾。技術層面,大模型訓練需要海量數據支撐,智譜清言基于ChatGLM2模型、Kimi依賴自研k1模型,都需持續(xù)“喂養(yǎng)”用戶對話數據以優(yōu)化表現。
資本層面,月之暗面去年估值沖上30億美元,智譜AI今年3月剛獲15億融資,在資本催熟的壓力下,合規(guī)往往讓位于增長指標。
而監(jiān)管滯后更讓企業(yè)心存僥幸:《個人信息保護法》制定時尚未預見生成式AI的爆發(fā),現有法規(guī)對“告知-同意”原則的執(zhí)行存在模糊地帶。
02AI治理未雨綢繆
本次AI應用違規(guī)通報凸顯了AI技術需求與隱私保護間的深層矛盾,面對困局,國內也正在探索一條兼顧技術創(chuàng)新與用戶權益的本土化治理路徑。
4月30日,中央網信辦啟動了為期3個月的“清朗·整治AI技術濫用”專項行動,首次將“使用非法數據訓練大模型”作為打擊重點,旨在規(guī)范AI技術的合理應用。
同時,《個人信息保護法》也對企業(yè)侵犯個人信息的行為設定了嚴厲的懲罰措施,包括高額罰款,以強化隱私保護。
歐洲也為AI隱私治理提供另一種范式。就在通報發(fā)布前一天(5月19日),意大利數據保護機構對聊天機器人Replika開出500萬歐元罰單,理由是“未明確告知數據用途”及“未能防止未成年人訪問敏感內容”。
這與歐盟《人工智能法案》形成呼應——該法案將AI系統(tǒng)按風險分級,對聊天機器人等高風險應用實施嚴格的數據透明度要求。
這些案例共同揭示了一個關鍵趨勢:在AI技術的快速發(fā)展中,治理措施必須穿透技術黑箱,確保在數據采集、模型訓練以及結果輸出的全鏈條中嵌入隱私保護設計。
這不僅是對個人隱私權的尊重,也是AI技術健康、可持續(xù)發(fā)展的必要條件。
總結
AI不能不懂邊界
此次通報事件,恰似一記刺向AI行業(yè)的清醒劑。當資本狂歡褪去,企業(yè)必須直面一個本質問題:沒有用戶信任的技術進步,終究是空中樓閣。
從監(jiān)管動向看,未來的合規(guī)審查將更強調“實質重于形式”——不再局限于隱私文本的合規(guī)性,而是通過技術檢測驗證數據流向。對企業(yè)而言,這意味著一場從組織架構到技術棧的全面變革。
而對用戶來說,隱私意識的覺醒正在改寫市場規(guī)則。那些仍將數據視為“免費石油”的企業(yè),終將被拋棄。正如一位網友的犀利評論:“AI可以不懂情感,但不能不懂邊界。”
在這場技術與人性的博弈中,唯有真正尊重隱私的企業(yè),才能穿越周期,贏得未來。
原文標題 : 智譜清言、Kimi上榜 AI為何頻頻偷吃?

請輸入評論內容...
請輸入評論/評論長度6~500個字